Fermer

décembre 13, 2022

Le secret pour atténuer les biais dans vos chatbots et systèmes IVR conversationnels

Le secret pour atténuer les biais dans vos chatbots et systèmes IVR conversationnels



L’IA conversationnelle change notre façon de faire des affaires.

En 2018, IBM a déclaré avec audace que les chatbots pouvaient désormais traiter 80 % des demandes courantes des clients. Ce rapport prévoyait même que les bots auraient un taux de réussite de 90 % dans leurs interactions d’ici 2022.[1] Alors que nous examinons le paysage des entreprises utilisant l’IA conversationnelle, il semble que cela se passe ainsi.

Cependant, peu de clients sont ravis de ces développements. Selon une étude récente d’UJET, 80 % des clients qui ont interagi avec des bots ont déclaré que cela augmentait leur niveau de frustration. Soixante-douze pour cent ont même qualifié cela de « perte de temps ».[2]

S’il est vrai que les chatbots et les systèmes IVR conversationnels ont fait des progrès significatifs dans leur capacité à fournir un service de qualité, ils présentent toujours de sérieuses limites. Plus particulièrement, ils ont tendance à adopter les préjugés de leurs concepteurs humains, parfois même en les amplifiant. Si les dirigeants des centres de contact veulent s’appuyer fortement sur cette technologie, ils ne peuvent pas ignorer ce problème.

Qu’est-ce que le biais des chatbots et de l’IA conversationnelle ?

A première vue, l’idée d’un ordinateur porteur de biais peut sembler paradoxale. C’est une machine, pourrait-on dire, alors comment peut-elle avoir une attitude ou une disposition pour ou contre quelque chose ?

Rappelez-vous, cependant, que l’intelligence artificielle est créée par les humains. En tant que tel, sa programmation reflète ses créateurs humains – y compris tous leurs préjugés. Dans de nombreux cas, ces biais peuvent même être amplifiés car ils sont profondément encodés dans l’IA.

Il y a eu quelques exemples extrêmes (et bien connus) de cela. Le chatbot de Microsoft, Tay, a été fermé après seulement 24 heures lorsqu’il a commencé à tweeter des commentaires haineux et racistes. Le chatbot de Facebook, Blender, a également appris un langage vulgaire et offensant à partir des données de Reddit.

Aussi inquiétants et importants que soient ces exemples extrêmes, ils éclipsent le problème plus omniprésent et persistant du biais des chatbots. Par exemple, le moteur de traitement du langage naturel (NLP) qui pilote l’IA conversationnelle réussit souvent assez mal à reconnaître les variations linguistiques.[3] Il en résulte régulièrement que les robots ne reconnaissent pas les dialectes régionaux ou ne considèrent pas la langue vernaculaire de tous les groupes culturels et ethniques qui utiliseront les chatbots.

Plus subtile est la tendance des chatbots et autres formes d’IA conversationnelle à adopter des caractéristiques féminines, renforçant les stéréotypes sur les femmes et leur rôle dans une économie de services.[4] Dans les deux cas, il est clair que ces bots reflètent les préjugés présents chez leurs auteurs humains. La question est : que peut-on faire à ce sujet, en particulier au niveau du centre de contact ?

Affronter le problème

De nombreuses solutions au biais des chatbots sont entre les mains des développeurs et des processus qu’ils utilisent pour créer leurs chatbots. Plus important encore, les équipes de développement ont besoin d’un ensemble diversifié de points de vue autour de la table pour s’assurer que ces points de vue sont représentés dans la technologie.

Il est également crucial de reconnaître les limites de l’IA conversationnelle et de créer des solutions en tenant compte de ces limites. Par exemple, les chatbots ont tendance à mieux performer lorsque leurs ensembles de tâches ne sont pas assez larges pour introduire trop de variables. Lorsqu’un bot a un travail spécifique, il peut cibler plus étroitement ses paramètres pour un certain public sans risquer d’être biaisé.

Cependant, les développeurs n’opèrent pas dans le vide et il est essentiel de prendre en compte le point de vue de l’utilisateur final lors de la conception et de l’évaluation des chatbots. Les commentaires des clients sont un élément essentiel du développement et de la refonte des chatbots pour mieux éliminer les biais.

Une approche efficace pour affiner les algorithmes de chatbot implique tout ce qui précède – et plus encore. Pour accélérer le processus et creuser plus profondément, vous devez exploiter la puissance de l’IA non seulement pour créer des chatbots, mais aussi pour les tester.

Creuser plus profondément pour déraciner les préjugés

Ce ne sont pas les seuls moyens d’apprendre aux bots à faire mieux, cependant. L’une des options les plus efficaces consiste à laisser l’IA faire le travail à votre place. En d’autres termes, au lieu d’attendre uniquement des perspectives diverses de votre équipe de développement ou de vos clients, pourquoi ne pas être proactif pour éliminer les préjugés en lançant divers scénarios sur vos bots ?

Une solution de test d’IA conversationnelle efficace doit être capable d’effectuer une gamme de tests qui aident à exposer les biais. Par exemple, l’IA vous permet d’ajouter du « bruit » aux tests que vous exécutez pour votre SVI conversationnel. Ce bruit peut être littéral, mais il peut également inclure des changements orientés vers des préjugés tels que l’introduction de l’IVR à différents accents, genres ou variations linguistiques pour voir s’il répond de manière appropriée.

Du côté des chatbots, l’IA vous permet de tester vos bots avec un large éventail d’alternatives et de variations dans la formulation et les réponses. Considérez les possibilités, par exemple, si vous pouviez générer immédiatement une longue liste d’options potentielles sur la façon dont quelqu’un pourrait formuler une demande. Celles-ci peuvent inclure la simple reformulation d’une question ou des versions paraphrasées d’une enquête plus longue. Armé de ces alternatives, vous pouvez ensuite tester votre bot contre ceux qui ont le plus de potentiel pour une réaction biaisée.

Les tests peuvent vous emmener encore plus loin dans votre quête pour atténuer les biais. Les données d’entraînement sont l’un des composants les plus critiques pour apprendre à votre bot à réagir de manière appropriée, et vous pouvez utiliser les tests NLP pour analyser les données d’entraînement que vous utilisez et déterminer si elles instillent un biais dans vos chatbots. Vous pouvez même utiliser des fonctionnalités de test alimentées par l’IA pour étendre l’ensemble de données de test disponible afin d’apporter des angles de conversation plus diversifiés à la table. En effet, cela vous permet de diversifier la perspective de votre bot même si votre équipe de développement n’est pas encore aussi diversifiée qu’elle pourrait l’être.

Les solutions de test alimentées par l’IA sont capables de ces types de tests, et plus encore. Et, lorsque vous utilisez l’IA, vous accélérez rapidement votre capacité à tester vos systèmes d’IA conversationnelle, qu’il s’agisse de biais ou de nombreux autres problèmes.

Vous n’avez pas besoin d’attendre d’avoir réuni l’équipe parfaite de développeurs ou accumulé un ensemble diversifié de données client pour éliminer les biais dans vos chatbots et votre RVI conversationnel. Les fonctionnalités de test basées sur l’IA de Cyara Botium peuvent vous aider à démarrer immédiatement. Jetez un œil à notre Construire de meilleurs chatbots eBook pour apprendre plus.

[1] IBM. « Le service client numérique à l’ère de l’IA.”

[2] Forbes. « Les chatbots et les automatisations augmentent les frustrations du service client pour les consommateurs pendant les vacances.”

[3] Perspectives d’Oxford. « Préjugés raciaux dans le traitement du langage naturel.”

[4] UNESCO. « Nouveau rapport de l’UNESCO sur l’intelligence artificielle et l’égalité des genres.”




Source link

décembre 13, 2022