Fermer

mai 28, 2018

Comment l'IA pourrait utiliser nos voix contre nous


Les gadgets de contrôle de la voix – tels que Amazon, Google ou Homepod d'Apple – sont de plus en plus populaires, mais les gens devraient réfléchir aux avancées de l'apprentissage automatique qui pourraient permettre de comprendre différentes émotions dans la parole.

Le PDG de Google Sundar Pichai, a récemment déclaré que 20% des recherches de l'entreprise sont initiées par la voix via des téléphones mobiles. Et, à la fin de 2017, l'analyse du marché américain suggérait qu'un total de appareils Amazon Amazon et Google Home de 44m avaient été vendus

La technologie a des capacités de plus en plus impressionnantes pour reconnaître des mots, mais – en tant qu'expert en acoustique – il est clair pour moi que la communication verbale est beaucoup plus complexe. Comment les choses sont dites peuvent être aussi importantes que les mots eux-mêmes. Quand quelqu'un dit «Je vais bien», le ton de leur voix peut vous indiquer que leur humeur est à l'opposé de ce qu'ils prétendent.

Les gadgets de contrôle vocal, aussi appelés haut-parleurs intelligents ou assistants virtuels, peuvent être frustrants. ils ne font attention aux mots, et ignorent surtout comment la parole est exprimée. Les géants de la technologie espèrent que la prochaine frontière pour les dispositifs, tels que Amazon Echo sera de détecter comment une personne se sent de sa voix pour rendre les interactions plus naturelles.

la voix peut donner des informations sur qui est cette personne, d'où elle vient et comment elle se sent. Quand un étranger parle, les gens remarquent immédiatement leur accent et leur intonation et font des suppositions sur leur classe, leurs antécédents et leur éducation.

Si les gadgets de contrôle vocal détectent de telles informations, les interfaces vocales pourraient être améliorées. Mais il vaut la peine de se méfier des conséquences imprévues. La technologie repose sur l'apprentissage automatique – une branche de intelligence artificielle qui rassemble des algorithmes et des statistiques appris par une machine qui a été alimentée par des tonnes de données – et son comportement n'est donc pas entièrement prévisible.

avenir intelligent ou bête?

La recherche montre que les exemples de discours utilisés pour former l'application d'apprentissage automatique sont susceptibles de conduire à des biais. De tels problèmes avec la technologie ont été évidents dans des outils populaires tels que Google Translate .

Utilisé, par exemple, pour traduire les phrases turques "o bir doktor" et "o bir hemşire" en anglais, Le service de Google renvoie les résultats "il est médecin" et "elle est infirmière". Mais "o" est un pronom à la troisième personne neutre en genre en turc. La présomption selon laquelle un médecin est un homme et une infirmière est une représentation des préjugés culturels et de la distribution asymétrique du genre dans la profession médicale.

Google Translate a pris en compte un biais culturel humain dans les données sur lesquelles les algorithmes étaient formés. résultat est un système de traduction sexiste.