Fermer

octobre 9, 2019

Des technologues créent de l'intelligence artificielle pour nous aider à exploiter notre humanité. Voici comment (et pourquoi).


Les nouveaux outils d'intelligence artificielle tels que Cogito ont pour objectif de nous rappeler comment être «humain», en émettant des rappels et des alertes pour empathie et compassion.


15+ minutes de lecture


Lorsque votre travail à plein temps est empathique, l'épuisement professionnel n'est que humain.

Peu de gens sont plus conscients de cela que les représentants du service clientèle, chargés d’aborder chaque conversation avec énergie et compassion, qu’il s’agisse de leur premier appel de la journée ou de leur 60e. C’est leur travail de faire en sorte que même les clients les plus difficiles se sentent compris et respectés tout en leur fournissant des informations précises. C’est souvent un défi de taille qui engendre de la frustration aux deux extrémités de l’appel.

Mais au cours des dernières années, un assistant improbable s'est présenté: des outils d'intelligence artificielle conçus pour aider les gens à exploiter et à conserver des caractéristiques «humaines» telles que l'empathie et la compassion.

L'un de ces outils est une plate-forme appelée Cogito, du nom de la célèbre philosophie de Descartes Cogito, ergo sum («Je pense, donc je suis»). C’est une plate-forme d’intelligence artificielle qui surveille les appels de vente et de service des grandes entreprises (parmi lesquelles MetLife et Humana) et offre aux employés un retour d’informations en temps réel sur les interactions client.

Pendant un appel, un employé peut voir les alertes contextuelles de Cogito s'afficher sur son écran, les encourageant à faire preuve de plus d'empathie, à augmenter leur énergie vocale, à parler plus lentement ou à répondre plus rapidement. Les interactions sont notées et suivies dans les tableaux de bord internes de l'entreprise et les responsables peuvent jauger instantanément ce sur quoi différents membres de leur équipe peuvent avoir besoin.

Conor Sprouls utilise Cogito en permanence. Au cours d’une journée type, il prend entre 30 et 50 appels. Chacune dure entre cinq et 45 minutes, selon la complexité de la question.

Le matin du 12 septembre 2019, le premier interlocuteur de Sprouls était atteint d'un trouble d'anxiété. Cogito émit une fois un rappel à Sproul avec un rappel d'empathie et quelques fois pour sa lenteur à réagir (pas rare lors de la recherche de documents).

Lorsque Cogito a été mis sur le marché pour la première fois, certains employés s’inquiétaient de la surveillance constante de leur supérieur hiérarchique et de la surcharge des notifications. Par exemple, ils entendaient trop souvent le signe d'empathie et, à un moment donné, l'outil pensait qu'un représentant et un client se parlaient l'un l'autre alors qu'ils rigolaient. Mais Sprouls dit que le système devient plus intuitif à chaque appel. En ce qui concerne la supervision excessive, les conversations du centre d’appel sont toujours enregistrées et envoyées aux superviseurs, ce qui n’apporte donc aucun changement.

En fait, Cogito peut même offrir un reflet plus réaliste de la performance, dit Sprouls. «On ne peut pas s'attendre à ce qu'un superviseur écoute chaque appel pour chacun de ses associés. Ainsi, parfois, lorsque nous choisissons des appels au hasard, cela pourrait être un hasard: un associé peut être surveillé lors d'un appel facile, et un autre pourrait être surveillé sur un dur ", dit-il. «Cogito va vous donner le résultat final: qui doit travailler sur quoi. Je pense que beaucoup d'entre nous considèrent vraiment Cogito comme un coach personnel. ”

MetLife utilise Cogito depuis environ deux ans, bien qu'il ait été introduit pour la première fois à titre de pilote.

Emily Baker, une superviseure de MetLife avec une équipe d’environ 17 personnes, affirme que ses collaborateurs ont tous bénéficié des signaux de Cogito au cours du processus pilote. Elle a dit que le favori d’un associé était le signal énergétique; il commençait à s’asseoir dans son siège à la fin de la journée et la posture signifiait qu’il ne projetait pas autant sa voix. Quand le signal d'énergie apparut (une icône de tasse à café), il se redressa et parla plus énergiquement afin de paraître plus engagé dans l'appel.

«J'aime le fait que je puisse voir dans l'ensemble, sur mon tableau de bord de superviseur, comment nous faisons en tant qu'équipe, s'il y a des tendances », déclare Baker. «Est-ce que tout le monde parle sur l'appelant? Est-ce que tout le monde a des problèmes avec l'air mort? Vous pouvez explorer chaque personne en profondeur et c'est vraiment bien pour le coaching individuel. ”

MetLife est en train de déployer Cogito dans un nombre encore plus grand de ses départements en relation avec la clientèle – réclamations, ventes directes, croissance de la clientèle. L'entreprise prévoit également de plus que doubler le nombre d'employés utilisant la plate-forme (passant de 1 200 à plus de 3 000).

«C’est un peu une étrange dynamique», déclare Kristine Poznanski, responsable des solutions clients mondiales chez MetLife. «Nous utilisons la technologie et l’intelligence artificielle pour aider nos collaborateurs à démontrer un comportement plus humain. C'est une chose à laquelle on ne pense pas intuitivement. ”

Une tendance croissante

Lors de son travail de consultant au Département néo-zélandais de l'Enfance et de la Famille, Josh Feast, cofondateur et PDG de Cogito, explique qu'il a appris que le social les travailleurs peuvent être victimes d'épuisement professionnel dans un délai de trois à cinq ans. Il a été choqué par l’ironie – le fait qu’un métier conçu pour prendre soin des personnes ne soit pas propice à prendre soin de ceux qui le font.

Une idée a commencé à se former et elle a pris forme après un cours au Media Lab du MIT, au cours duquel Feast a eu une révélation clé: les grandes organisations comprennent bien les données. Par conséquent, s'il voulait aider les employés d'une grande organisation, il avait présenter son idée dans un langage que l’entreprise peut comprendre. «C'était presque comme être frappé par la foudre», dit-il.

Cogito est né. Au cours de la phase de recherche et développement, Feast et son cofondateur ont travaillé pour DARPA, l’Agence de projets de recherche avancée pour la défense du gouvernement américain. L'agence avait en tête des soldats aux prises avec le SSPT et la DARPA a fourni à l'équipe de Cogito un financement pour l'aide à la recherche en cas de détresse psychologique. Alors Feast a commencé à étudier comment les infirmières interagissaient avec les patients.

«Il s’est avéré un véritable moment« aha »où nous avons découvert que si vous pouviez utiliser cette technologie pour comprendre la conversation – et mesurer la danse conversationnelle entre l’infirmière et le patient – vous pourriez commencer à lire le degré d’empathie et la compassion qu’ils ont manifestée… et l’attitude qui en a résulté pour cette interaction », explique Feast.

Il a construit des tableaux de bord pour afficher des mesures de compassion et d'empathie, et il a trouvé quelque chose d'intéressant: lorsque les gens recevaient des informations en temps réel tout en parlant avec quelqu'un, leur niveau de compassion et d'empathie s'améliorait. Cette réalisation était la clé de l’avenir de Cogito.

Mais Cogito n’est pas le seul outil à base d’intelligence artificielle visant à nous aider à exploiter notre humanité.

Butterfly

There’s Butterfly, un outil d’intelligence artificielle visant à aider les gestionnaires à faire preuve de compassion pour leurs employés et à accroître le bonheur des travailleurs. Une fois que Butterfly est intégré dans un système de messagerie en milieu de travail, il fonctionne comme un chatbot – des gestionnaires de coaching de dirigeants exécutés en temps réel sur la base de sondages et de commentaires des employés. Butterfly analyse ce dernier pour mesurer les niveaux de stress, de collaboration, de conflit, d’objectif, de créativité et autres. Ensuite, il fournit aux gestionnaires des appels à l'action et du matériel de lecture pour les aider à résoudre les problèmes de leur équipe. Par exemple, un dirigeant avec une équipe très stressée peut recevoir un article sur la manière de créer un environnement de travail plus compatissant.

«En un mot, Butterfly a été créé pour aider les gestionnaires à être à la hauteur en ce qui concerne le niveau d’engagement et le bonheur de leur équipe», déclare David Mendlewicz, cofondateur et PDG. «Pensez à un assistant de bonheur dirigé par une intelligence artificielle ou à un entraîneur de leadership dirigé par une intelligence artificielle.»

Supportiv

Un autre outil d'empathie basé sur l'IA est Supportiv, une plateforme de conseil par les pairs visant à utiliser le traitement du langage naturel. affronter quotidiennement des problèmes de santé mentale tels que le stress au travail, l'anxiété, la solitude et les conflits avec les êtres chers. Quelques secondes après que l’utilisateur ait répondu à la question principale de Supportiv – «Quel est votre combat?» – ils sont classés dans un groupe de soutien homologue anonyme et spécifique à un sujet.

Chaque groupe a un modérateur en direct formé (qui est également équipé pour renvoyer les services spécialisés ou d’urgence au besoin), et un algorithme d’IA analyse les conversations pour détecter les schémas de l’humeur, du ton, de l’engagement et des interactions. Du côté du modérateur, des invites s'affichent: l'utilisateur X n'a ​​pas contribué à la conversation depuis un moment ou l'utilisateur Y a partagé une pensée ci-dessus qui n'a pas été traitée. La vision de la co-fondatrice Helena Plater-Zyberk pour la prochaine itération de Supportiv: des avancées supplémentaires en matière d’intelligence artificielle qui pourraient aider à identifier les utilisateurs isolés dans les discussions et alerter les modérateurs en leur suggérant de faire preuve de plus d'empathie envers ces personnes.

L'objectif, dit Plater-Zyberk, est de créer des «modérateurs surhumains» – faisant appel à la compassion, à l'empathie et à l'hyper-vigilance pour faciliter la conversation en groupe mieux que tout être humain normalement équipé.

Le projet Debater d’IBM

Enfin, s’agissant de la théorie «Je pense, donc, je suis», le projet Debater d’IBM convient parfaitement. Introduit par le géant de la technologie en janvier, il est présenté comme le premier système d’IA capable de débattre avec des humains d’idées complexes. Debater est fondamentalement axé sur la pensée rationnelle et l’empathie – il tient compte des points de vue opposés et comprend suffisamment l’opposant pour pouvoir traiter son argument pièce par pièce et finalement le gagner.

Dr. Aya Soffer, vice-présidente de la technologie de l'intelligence artificielle chez IBM Research, envisage diverses applications du monde réel pour Debater – un décideur politique qui souhaite comprendre toutes les implications d'une loi à l'étude. Par exemple, dans le cas de l'interdiction des téléphones dans les écoles (une loi adoptée par le gouvernement français en 2018), quels sont les précédents, les avantages et les inconvénients, les arguments des deux côtés de l'équation? Un analyste financier ou un conseiller en investissement peut utiliser Debater pour faire des prévisions intelligentes sur ce qu’un nouveau type de technologie peut ou non représenter pour le marché.

Nous recherchons généralement des arguments à l'appui pour nous convaincre, ou convaincre quelqu'un d'autre, de quelque chose. Mais Soffer dit que la prise en compte des contre-arguments pourrait être encore plus puissante, que ce soit pour changer d'avis ou pour renforcer une vision préexistante. Ce type d'empathie et de logique logique de haut niveau est un objectif recherché par IBM Debater.

Pièges et confidentialité

Comme toutes les nouvelles technologies, ce type d'utilisation présente certains cas d'utilisation.

Premièrement, il existe un risque de biais systémique dans les données utilisées pour former l’algorithme. Par exemple, s’il est enseigné d’utiliser des cas d’hommes à majorité blanche exprimant de l’empathie, cela pourrait donner lieu à un système permettant d’obtenir un rendement inférieur pour les femmes et les minorités. Un représentant du centre d’appel souffrant d’une affection peut afficher moins d’énergie que la norme perçue, mais fait de son mieux pour la compenser autrement.

C’est pourquoi il est judicieux que ces données soient communiquées aux individus avant de les communiquer à leurs supérieurs hiérarchiques, explique Rosalind Picard, fondatrice et directrice du groupe de recherche Affective Computing du MIT Media Lab. Elle pense que partager des données sur les interactions d’un employé, telles que les niveaux de compassion, d’empathie et d’énergie, avec un responsable est une violation de l’éthique.

La technologie de ce type pourrait être tentée au-delà de son usage prévu – un rappel utile pour faciliter une véritable connexion – et servir plutôt de facteur d’interactions non sincères alimentées par la peur. Après tout, des outils techniques similaires font partie des fondements des systèmes de notation sociale (épisode "Nosedive" de think de Black Mirror ). En 2020, la Chine prévoit d'introduire pour chaque citoyen des scores de crédit social disponibles au public. Ce score aidera à déterminer l’admissibilité d’un individu à un appartement, aux offres de voyage qui lui sont proposées, aux écoles dans lesquelles ils peuvent inscrire leurs enfants et même s’ils peuvent consulter un médecin de l’hôpital sans faire la queue pour payer.

Au cours des cinq prochaines années, les experts prédisent que nous ferons de grands progrès en «analyse des sentiments» – un type de traitement du langage naturel qui identifie les émotions humaines en analysant les expressions faciales et le langage du corps ou les réponses de texte.

Mais pour Noah Goodman, professeur agrégé au laboratoire de calcul et de cognition de l’Université de Stanford, il existe un dilemme moral: quelle est la bonne chose à faire avec les informations que ces systèmes apprennent? Devraient-ils avoir des objectifs – nous inciter, ajuster nos environnements ou nous envoyer des outils pour que nous nous sentions plus heureux, plus compatissants, plus empathiques? Que devrait faire la technologie avec des données sur nos sentiments envers quelqu'un d'autre, notre performance dans une interaction donnée? Et à qui devrait-il rendre cette information disponible? «C’est un endroit où la limite de la chair de poule est toujours proche», déclare Goodman.

Un autre problème? L’intelligence artificielle ne peut tout simplement pas reproduire ou comprendre complètement l’émotion humaine. Prenez Cogito, par exemple. Supposons que vous soyez un représentant du service clientèle au téléphone avec les clients toute la journée et que vous recevez une alerte indiquant que vous parlez peu énergique et fatigué au lieu d’être énergique et alerte. Cela ne veut pas dire que vous vous sentez fatigué, dit Picard, et qu’il s’agit d’une distinction importante à faire.

"On ne sait pas ce que je ressens", dit Picard. «Cela n'a pas de conscience – cela signifie simplement que, pour ce système, écoutez votre qualité vocale, comparée à votre qualité vocale habituelle et comparée à celle d'autres personnes au téléphone, avec la qualité vocale de cette société. Voici comment vous pourriez entendre, selon les données. nous avons collecté… Cela ne veut pas dire que vous êtes de cette façon. "

Il y a un malentendu sur le fait que nous sommes déjà au point où AI comprend effectivement les sentiments humains, plutôt que juste être capable d’analyser des données et de reconnaître des modèles qui s’y rapportent. La phrase «intelligence artificielle» elle-même pourrait propager ce malentendu, dit Picard, alors pour éviter de nourrir la crainte du public quant à l'avenir de l'IA, elle recommande de l'appeler plutôt logiciel.

«Dès que nous appelons le logiciel« IA », beaucoup de gens pensent que c’est plus que ce qu’il fait», dit-elle. «Lorsque nous disons que la machine« apprend »et qu’elle« apprend quelque chose », nous entendons par là que nous avons formé un grand nombre de mathématiques pour prendre un grand nombre d’entrées et créer une fonction mathématique qui produit un ensemble de sorties. Il n’apprend pas, ne sait pas, ne ressent pas ou ne pense pas comme le fait l’un de nous. Elle n’est pas vivante. »

Implications et réglementations

Certains experts estiment qu’il arrivera un jour où la technologie sera capable de comprendre et de reproduire des caractéristiques« uniquement humaines ». L'idée relève de la «théorie computationnelle de l'esprit» – le cerveau est un outil dédié au traitement de l'information, et même des émotions complexes comme la compassion et l'empathie peuvent être présentées sous forme de données. Même si cela est vrai, il existe une différence entre ressentir et comprendre les émotions – et selon Goodman, il sera un jour tout à fait possible de mettre en place des systèmes d’IA qui comprennent bien les émotions des gens sans les ressentir eux-mêmes.

Il existe aussi l’idée que, tout au long de l’histoire, la peur a accompagné la publication de nouvelles technologies. «Nous avons toujours peur de voir naître quelque chose de nouveau, en particulier s’il comporte un important composant technologique», a déclaré Mendlewicz. «La même peur a surgi lorsque le premier télégraphe est arrivé… et quand le télégraphe a été remplacé par le téléphone, les gens exprimaient également leur peur… de nous rendre moins humains – de communiquer avec une machine."

des questions les plus importantes à poser: comment éviter que cela ne soit utilisé pour aliéner des personnes ou pour créer plus de distance entre les êtres humains?

Les plates-formes de médias sociaux, introduites pour accroître la connectivité humaine, en sont paradoxalement des outils de polarisation. «Nous avons appris que la connectivité humaine et l’humanité de la technologie ne doivent pas être assumées; il faut le cultiver », déclare Rumman Chowdhury, qui dirige l’initiative Responsible AI d’Accenture. «Au lieu de comprendre comment nous nous situons autour de la technologie, nous devons déterminer comment la technologie nous convient."

Cela signifie également qu'il faut faire attention aux signaux d'alarme, y compris l'erreur de "solutionnisme" technologique – l'idée que la technologie peut résoudre tout problème. et tous les problèmes de l'humanité. Bien que cela ne puisse pas être fait, la technologie peut indiquer des points sur lesquels nous devons nous concentrer afin de rechercher des solutions plus globales.

«En tant qu'êtres humains, nous devons être prêts à faire le travail difficile», dit Chowdhury. «L'empathie ne se produit pas simplement parce qu'un IA vous a dit d'être plus empathique … [Let’s say] Je crée une IA pour lire vos courriels et vous dire si vous semblez assez gentil et, sinon, corrigez-les pour vous. que vous semblez gentil. Cela ne fait pas de vous une meilleure personne; cela ne vous rend pas plus empathique … La création de toute intelligence artificielle visant à améliorer les êtres humains doit être conçue de manière réfléchie, afin que les êtres humains fassent le travail. "

Une partie de ce travail implique la construction de systèmes. réglementer ce type d'IA avant qu'il ne soit généralisé, et les experts ont déjà commencé à lancer des idées.

Pour tout outil d’IA, Chris Sciacca, responsable de la communication d’IBM Research, aimerait voir une «fiche d’information sur l'IA» fonctionnant comme une étiquette nutritionnelle sur une miche de pain, avec des données telles que l'identité de l'entraîneur, quelles données ils ont utilisé. C’est une façon de regarder «sous le capot» – ou même à l’intérieur de la boîte noire – d’un outil d’IA, de comprendre pourquoi il aurait pu arriver à une conclusion donnée et d’essayer de prendre ses résultats avec un grain de sel. Il dit que IBM travaille à la normalisation et à la promotion d'une telle pratique.

Picard suggère des réglementations similaires à celles applicables aux tests de détection de mensonges, telles que la loi fédérale sur la protection des polygraphes d’employés, adoptée en 1988. En vertu d’une loi similaire, il va de soi que les employeurs ne seraient pas en mesure d’exiger des outils de surveillance de la communication avec l'IA. exceptions – et que même dans ces cas-là, ils ne pouvaient pas surveiller quelqu'un sans l'informer de la technologie et de leurs droits.

Spencer Gerrol, PDG de Spark Neuro – une société de neuroanalytique qui vise à mesurer les émotions et l'attention des annonceurs – indique que les implications potentielles pour ce type d'IA empathique le poussent à rester éveillé la nuit. Facebook a peut-être créé une technologie «incroyable», dit-il, mais cela a également contribué à une ingérence dans les élections américaines. Et en ce qui concerne les appareils capables de lire des émotions basées sur votre activité cérébrale, les conséquences pourraient être encore plus graves, d’autant plus que la plupart des émotions sont subconscientes. Cela signifie qu'un jour, un appareil pourrait être plus «conscient» de vos émotions que vous ne l'êtes vous-même. «L’éthique de cela va devenir complexe», explique Gerrol, en particulier lorsque les annonceurs tenteront de persuader les utilisateurs d’agir en exploitant les connaissances acquises au sujet de leurs émotions.

Quant au fondateur de Cogito lui-même? Feast pense qu'au cours des cinq à dix prochaines années, les outils d'intelligence artificielle se diviseront en deux catégories:

  1. Agents virtuels effectuant des tâches pour notre compte

  2. Augmentation intelligente ou services conçus pour renforcer ou étendre nos propres capacités humaines.

Feast envisage davantage une fusion entre l’homme et la machine, des outils que nous jugerons nécessaires pour nous aider à exécuter ce que nous voulons dans des contextes particuliers. Ce type d’outils, dit-il, "étendra et renforcera notre humanité".




Source link