Fermer

janvier 10, 2023

Comment les centres de contact peuvent-ils utiliser les chatbots basés sur l’IA de manière responsable ?

Comment les centres de contact peuvent-ils utiliser les chatbots basés sur l’IA de manière responsable ?



Les chatbots mûrissent régulièrement depuis des années. En 2022, cependant, ils ont montré qu’ils étaient prêts à faire un pas de géant en avant.

Lorsque ChatGPT a été dévoilé il y a quelques semaines, le monde de la technologie était en effervescence à ce sujet. Le New York Times le chroniqueur technologique Kevin Roose l’a qualifié de « tout simplement, le meilleur chatbot d’intelligence artificielle jamais mis à la disposition du grand public », et les médias sociaux ont été inondés d’exemples de sa capacité à produire une prose humaine convaincante.[1] Certains investisseurs en capital-risque sont même allés jusqu’à dire que son lancement pourrait être aussi bouleversant que l’introduction de l’iPhone en 2007.[2]

ChatGPT semble en effet représenter une avancée majeure pour la technologie de l’intelligence artificielle (IA). Mais, comme de nombreux utilisateurs l’ont rapidement découvert, il est toujours marqué par de nombreux défauts, dont certains sont graves. Son avènement signale non seulement un moment décisif pour le développement de l’IA, mais un appel urgent à prendre en compte un avenir qui arrive plus rapidement que prévu.

Fondamentalement, ChatGPT apporte un nouveau sentiment d’urgence à la question : comment pouvons-nous développer et utiliser cette technologie de manière responsable ? Les centres de contact ne peuvent pas répondre seuls à cette question, mais ils ont un rôle spécifique à jouer.

ChatGPT : de quoi parle tout ce battage médiatique ?

Pour répondre à cette question, il faut d’abord comprendre ce qu’est ChatGPT et ce qu’il représente. La technologie est une idée originale d’OpenAI, la société d’intelligence artificielle basée à San Francisco qui a également lancé le générateur d’images innovant DALL-E 2 plus tôt cette année. Il a été rendu public le 30 novembre 2022 et a rapidement pris de l’ampleur, atteignant 1 million d’utilisateurs en cinq jours.

Les capacités du bot ont stupéfié même Elon Musk, qui a initialement cofondé OpenAI avec Sam Altman. Il a fait écho au sentiment de nombreuses personnes lorsqu’il a qualifié le traitement du langage de ChatGPT de « bon effrayant ».[3]

Alors, pourquoi tout ce battage médiatique? ChatGPT est-il vraiment bien meilleur que n’importe quel chatbot qui l’a précédé ? À bien des égards, il semble que la réponse soit oui.

La base de connaissances et les capacités de traitement du langage du bot dépassent de loin les autres technologies du marché. Il peut produire des réponses rapides et de la longueur d’un essai à des requêtes apparemment innombrables, couvrant une vaste gamme de sujets et même répondre dans des styles de prose variés en fonction des entrées de l’utilisateur. Vous pouvez lui demander d’écrire une lettre de démission dans un style formel ou de rédiger un poème rapide sur votre animal de compagnie. Il produit facilement des essais académiques et sa prose est convaincante et, dans de nombreux cas, précise. Dans les semaines qui ont suivi son lancement, Twitter a été inondé d’exemples de ChatGPT répondant à tous les types de questions que les utilisateurs pouvaient imaginer.

La technologie est, comme le souligne Roose, «plus intelligente. Plus étrange. Plus flexible. » Cela pourrait véritablement inaugurer une mer de changements dans l’IA conversationnelle.[1]

Un loup déguisé en mouton : les dangers de la désinformation voilée

Malgré toutes ses fonctionnalités impressionnantes, ChatGPT présente toujours bon nombre des mêmes défauts qui sont devenus familiers dans la technologie de l’IA. Dans un package aussi puissant, cependant, ces défauts semblent plus inquiétants.

Les premiers utilisateurs ont signalé une foule de problèmes préoccupants avec la technologie. Par exemple, comme d’autres chatbots, il a rapidement appris les préjugés de ses utilisateurs. Peu de temps après, ChatGPT lançait des commentaires offensants selon lesquels les femmes en blouse de laboratoire n’étaient probablement que des concierges, ou que seuls les hommes asiatiques ou blancs faisaient de bons scientifiques. Malgré les barrières de sécurité signalées par le système, les utilisateurs ont pu l’entraîner à faire ces types de réponses biaisées assez rapidement.[4]

Plus inquiétant à propos de ChatGPT, cependant, ce sont ses qualités humaines, qui rendent ses réponses d’autant plus convaincantes. Samantha Delouya, journaliste pour Business Insider, lui a demandé d’écrire une histoire qu’elle avait déjà écrite – et a été choquée par les résultats.

D’une part, le morceau de «journalisme» qui en résultait était remarquablement précis et précis, bien que quelque peu prévisible. En moins de 10 secondes, il a produit un article de 200 mots assez similaire à quelque chose que Delouya aurait pu écrire, à tel point qu’elle l’a qualifié de « convaincant de manière alarmante ». Le hic, cependant, était que l’article contenait de fausses citations composées par ChatGPT. Delouya les a facilement repérés, mais un lecteur peu méfiant peut ne pas l’avoir fait.[3]

C’est là que réside le hic avec ce type de technologie. Sa mission est de produire un contenu et une conversation convaincants, pas nécessairement de dire la vérité. Et cela ouvre de nouvelles possibilités effrayantes de désinformation et, entre les mains d’utilisateurs malveillants, des campagnes de désinformation plus efficaces.

Quelles sont les implications, politiques et autres, d’un chatbot aussi puissant ? C’est difficile à dire – et c’est ce qui fait peur. Ces dernières années, nous avons déjà vu avec quelle facilité la désinformation peut se propager, sans parler des dommages qu’elle peut causer. Que se passe-t-il si un chatbot peut tromper plus efficacement et de manière convaincante ?

L’IA ne peut pas être laissée à elle-même : la solution de test

Comme beaucoup lisent les gros titres sur ChatGPT, les dirigeants des centres de contact peuvent être écarquillés par les possibilités de déploiement de ce niveau avancé d’IA pour leurs solutions de chatbot. Mais ils doivent d’abord s’attaquer à ces questions et élaborer un plan pour utiliser cette technologie de manière responsable.

Une utilisation prudente de ChatGPT – ou de toute autre technologie qui lui succède – n’est pas un problème unidimensionnel. Aucun acteur ne peut le résoudre seul, et cela se résume finalement à un éventail de questions impliquant non seulement les développeurs et les utilisateurs, mais aussi les politiques publiques et la gouvernance. Pourtant, tous les acteurs doivent chercher à faire leur part, et pour les centres de contact, cela signifie se concentrer sur les tests.

La voie la plus sûre vers le chaos consiste simplement à laisser les chatbots seuls pour résoudre eux-mêmes chaque question de l’utilisateur sans aucune aide humaine. Comme nous l’avons déjà vu avec la forme la plus avancée de cette technologie, cela ne se termine pas toujours bien.

Au lieu de cela, les centres de contact qui déploient des solutions de chatbot de plus en plus avancées doivent s’engager dans des tests réguliers et automatisés pour exposer les défauts et les problèmes au fur et à mesure qu’ils surviennent et avant qu’ils ne se transforment en problèmes plus importants. Qu’il s’agisse de simples défauts d’expérience client (CX) ou d’erreurs d’information plus dramatiques, vous devez les découvrir tôt afin de corriger le problème et recycler votre bot.

Cyara Botium est conçu pour aider les centres de contact à contrôler les chatbots. En tant que solution complète de test de chatbot, Botium peut effectuer des tests automatisés pour les scores de traitement du langage naturel (NLP), les flux de conversation, les problèmes de sécurité et les performances globales. Ce n’est pas le seul élément d’un plan complet d’utilisation responsable des chatbots, mais c’est un élément essentiel qu’aucun centre de contact ne peut se permettre d’ignorer.

Apprendre encore plus sur la façon dont les puissantes solutions de test de chatbot de Botium peuvent vous aider à contrôler vos chatbots et contactez-nous dès aujourd’hui pour mettre en place une démo.

[1] Kévin Roose, La brillance et l’étrangeté de ChatGPTLe New York Times, 05/12/2022.

[2] CNBC. « Pourquoi les initiés de la technologie sont si enthousiasmés par ChatGPT, un chatbot qui répond aux questions et rédige des essais.”

[3] Interne du milieu des affaires. « J’ai demandé à ChatGPT de faire mon travail et d’écrire un article Insider pour moi. Il a rapidement généré un article alarmant et convaincant rempli de désinformation.”

[4] Bloomberg. « OpenAI Chatbot crache des réflexions biaisées, malgré les garde-fous.”




Source link

janvier 10, 2023