Fermer

juillet 20, 2018

Alexa a besoin d'une meilleure formation pour comprendre les accents non américains



Une équipe de chercheurs travaillant avec le Washington Post a trouvé qu'Alexa comprenait mal certains accents et dialectes non-américains aux États-Unis, et qu'il y avait une tendance à cette faiblesse

. Plus de 100 personnes de près de 20 villes américaines dictent des milliers de commandes vocales à Alexa. À partir de cet exercice, il a trouvé que le locuteur à commande vocale basé sur Alexa d'Amazon était 30% moins susceptible de comprendre les commandes émises par des personnes ayant des accents non américains.

Le Washington Post signale que les personnes ayant l'espagnol comme première langue sont comprises 6% moins souvent que les personnes qui ont grandi en Californie ou à Washington et qui parlent anglais comme première langue. 19659003] Les responsables d'Amazon ont admis au Washington Post que saisir des accents non-américains posait un défi majeur à la fois pour satisfaire les utilisateurs actuels d'Amazon Echo et augmenter les ventes de leurs appareils dans le monde entier

Rachael Tatman, un scientifique de données Kaggle avec une expertise dans la reconnaissance de la parole a dit que le Washington Post était une preuve de partialité dans la formation dispensée aux systèmes de reconnaissance vocale

. Ces systèmes fonctionneront mieux pour les Américains de race blanche, très scolarisés, de la classe moyenne supérieure, probablement de la côte ouest, parce que c'est le groupe qui a eu accès à la technologie depuis le tout début », a-t-elle dit. que le problème n'est pas nouveau, et Amazon est bien conscient des efforts qu'il devrait prendre pour former Alexa aux accents et dialectes régionaux.

L'année dernière, Factor Daily a rapporté comment l'assistant avait été spécialement formé pour le marché indien. Pour former Alexa pour l'Inde, Amazon a commencé avec un ensemble fini de mots appelés les données de formation. Une fois que l'assistant a appris ces mots, ils l'ont entraîné avec une quantité infinie de données de test provenant d'un mélange d'interactions humaines et de phrases et de phrases provenant d'Internet.

Malgré ces efforts, Alexa a toujours du mal à comprendre prédictions de trafic, signalé Shonali Muthalaly de The Hindu.

La formation d'un dispositif pour la reconnaissance vocale nécessite une tonne de discours enregistré, et des transcriptions littérales correspondantes. Fondamentalement, un système de reconnaissance vocale s'entraîne en faisant correspondre l'un à l'autre. Et quand dans une nouvelle session, il essaie de deviner ce que pourrait être un nouveau flux de mots. Mais la capacité du système à comprendre les divers accents ne fera que s'améliorer à mesure que de plus grandes équipes avec une meilleure diversité culturelle et linguistique commenceront à entraîner les appareils.

Lire la suite:

Participez au jeu hautement subjectif de TNW et gagnez des prix éblouissants

]




Source link