Nous sommes tous passés par là. Votre ordinateur portable tombe en panne, vous manquez un vol ou vous devez appeler une compagnie d’assurance. Vous espérez une conversation rapide pour résoudre le problème, mais à la place, vous êtes accueilli par une voix désincarnée vous livrant des questions et des réponses scriptées sans empathie, vous faisant parcourir une liste de choix après l’autre, vous laissant encore plus frustré qu’au début.
Après une expérience aussi fracturée, vous commencez à vous poser des questions plus difficiles, comme quels préjugés pourraient être intégrés dans cette technologie, comment traite-t-elle mes données, à quelle fréquence est-elle auditée pour garantir l’équité et la transparence, et peut-on réellement lui apprendre à se comporter de manière éthique.
À mesure que l’IA joue un rôle plus important dans le service client, ces questions deviennent plus urgentes – et les DSI et autres dirigeants en sont bien conscients. Les deux tiers des praticiens CX, responsables de services, analystes et consultants du monde entier ayant participé à l’événement CX Network Global State of CX 2024 est d’accord ou tout à fait d’accord sur le fait qu’ils sont de plus en plus préoccupés par l’utilisation éthique de l’IA et son développement futur.
En outre, 38 % des personnes interrogées ont identifié la transparence sur la manière dont l’IA utilise leurs données comme l’une des trois principales préoccupations des clients aujourd’hui, tandis que 55 % sont tout à fait d’accord sur le fait que la confidentialité et la sécurité des données sont des préoccupations majeures pour les clients.
L’IA transforme rapidement le service client, et il ne s’agit plus seulement d’imiter les interactions humaines : il s’agit de créer des expériences équitables et naturelles. « L’une des plus grandes erreurs que les organisations peuvent commettre lors de la mise en œuvre de l’IA pour l’expérience client est de donner la priorité à l’efficacité plutôt qu’aux interactions éthiques et humaines », déclare Nisreen Ameen, maître de conférences en marketing numérique et directrice du Centre de recherche sur l’organisation et la société numériques à Royal Holloway, Université de Londres. Londres.
Varsha Jain, professeur de marketing à la Chaire AGK au Mudra Institute of Communications en Inde, est du même avis. « Les humains doivent piloter l’IA, et l’IA ne devrait pas conduire les humains », ajoute-t-elle.
Pour les DSI et autres cadres de niveau C chargés de améliorer l’expérience clientle véritable défi consiste à apprendre à l’IA à être plus humaine et à s’assurer qu’elle se comporte correctement et de manière éthique, avec un sentiment d’empathie et d’équité.
Avoir un ensemble de principes
Ces dernières années, les DSI et les entreprises pour lesquelles ils travaillent ont trouvé plusieurs moyens d’exploiter l’IA dans le support client. Les banques et autres institutions financières, en particulier, intègrent l’IA pour rationaliser les interactions avec les clients et améliorer l’efficacité des services. Beaucoup, par exemple, utilisent des chatbots basés sur l’IA pour gérer des tâches de routine telles que les demandes de solde, l’historique des transactions et même les demandes de prêt, libérant ainsi les agents humains pour des problèmes plus complexes. L’IA est également utilisée pour détecter les fraudes, analyser les modèles de transactions et signaler les activités suspectes en temps réel, beaucoup plus rapidement et avec plus de précision que les systèmes manuels. Le chatbot orienté client du groupe ING peut à lui seul traiter jusqu’à 5 000 demandes par jour aux Pays-Bas, et il a été enrichi de fonctionnalités d’IA de génération pour améliorer la satisfaction des clients et le taux de détournement, explique Bahadir Yilmaz, directeur des analyses de la multinationale.
Il ajoute qu’ING applique cet ensemble de principes directeurs étape par étape en matière d’IA :
- Équité – garantir que les processus décisionnels sont exempts de préjugés.
- Explicabilité : assurez-vous que la logique est comprise par les publics cibles.
- Transparence — expliquez et justifiez l’ensemble du processus de développement du modèle.
- Responsabilité – attribuez la responsabilité pour chaque décision prise.
- Sécurité : assurez-vous que les modèles ne produisent pas de résultats inattendus.
Avoir des normes et des politiques éthiques solides pendant le processus de développement de l’IA peut être utile. « Cela garantit que les considérations éthiques sont intégrées dès le départ dans le tissu des systèmes d’IA, plutôt que d’être une réflexion après coup », explique Ameen.
Les DSI, ainsi que les CTO, devraient plaider pour mesurer le degré d’humanité de leurs services basés sur l’IA, car, en général, nous sommes plus enclins à améliorer ce que nous avons décidé de mesurer, ajoute Jain.
Construire une équipe humaine
De nombreuses organisations envisagent d’utiliser l’IA dans le support client dans un contexte de réduction des coûts. Ce n’était pas tout à fait le cas d’AirHelp, selon son directeur de la technologie, Tim Boisvert.
AirHelp, qui aide les passagers des compagnies aériennes à obtenir une compensation pour les vols retardés, annulés ou surréservés, est reconnu pour son système de chat alimenté par l’IA qui semble traiter efficacement les demandes courantes liées aux services.
« L’objectif de notre IA basée sur le chat n’est pas de remplacer les humains ou de déprioriser notre investissement dans les agents humains du service client », dit-il. « Par conséquent, nous ne l’avons pas configuré, il est donc difficile pour les clients de parler à un humain s’ils le souhaitent. Une grande partie de ce que nos clients demandent peut être facilement rappelée grâce à l’IA et aux robots, mais nous avons travaillé pour éviter que les utilisateurs n’aient l’impression d’être isolés de nos agents du service client.
Une règle lors de la conception d’un système d’IA basé sur le chat est de savoir exactement ce qu’il peut et ne peut pas faire, afin que cela ne devienne pas frustrant pour le client.
« Notre robot de service client vise uniquement à fournir certains types d’informations aux clients, plutôt que de tomber dans la tentation de penser qu’il existe une version d’un robot qui pourrait être sur le point de remplacer le type de relation que les gens peuvent entretenir avec des agents humains », Boisvert dit. Construire des sorties faciles ou être proactif dans l’acheminement d’un client vers un humain lorsqu’il recherche quelque chose que son robot ne peut pas facilement fournir est un autre principe que l’entreprise applique.
AirHelp utilise également d’autres outils basés sur l’IA pour interpréter les messages automatisés envoyés par les compagnies aériennes avec des mises à jour de statut concernant les réclamations des clients, ou analyser les informations des cartes d’embarquement et des billets électroniques lorsque les clients les téléchargent.
«Ces deux allègent une grande partie du fardeau de traitement des épaules de nos agents et suppriment les tâches subalternes de leur assiette, leur permettant ainsi de se concentrer davantage sur le travail direct avec les clients dans des scénarios difficiles ou non standard», explique Boisvert.
Le chatbot alimenté par l’IA d’ING travaille également main dans la main avec les humains. « ING demande à ses collègues d’examiner chaque conversation pour s’assurer que le système n’utilise pas de langage discriminatoire ou nuisible, ni n’hallucine », explique Yilmaz. « Quelle que soit la manière dont l’IA est déployée, une chose reste vraie : les personnes sont au cœur de notre processus. »
Pour l’instant, c’est la voie à suivre, conviennent les spécialistes de l’éthique. « L’IA est très utile mais doit être utilisée sous la stricte surveillance d’humains », explique Jain.
Restez conscient des préjugés
L’IA peut être exploitée de diverses manières, notamment à des fins d’acquisition de clients. ING, par exemple, utilise des outils de génération IA pour créer des campagnes marketing personnalisées, en adaptant le contenu et les offres aux expatriés, aux jeunes couples et à la génération Z. « Toujours avec le consentement du client », ajoute Yilmaz.
ING et la Commonwealth Bank of Australia (CBA) utilisent également des outils basés sur l’IA pour renforcer la cybersécurité et créer une expérience bancaire plus sûre pour leurs clients, en particulier ceux en situation de vulnérabilité.
« Nous pouvons analyser les activités transactionnelles inhabituelles et identifier les modèles et les instances jugés à haut risque afin que la banque puisse enquêter et prendre des mesures », explique Luiz Pizzato, responsable du centre d’excellence AI Labs chez CBA. « Nous avons utilisé l’IA pour protéger nos clients contre la fraude et les escroqueries, répondre en temps réel en apportant une assistance aux clients dans les zones de catastrophe naturelle et même connecter les clients à plus de 1,2 milliard de dollars d’avantages et de remises gouvernementaux auxquels ils avaient droit. grâce à notre outil de recherche d’avantages.
Dans de tels cas, lorsqu’elles traitent les données des clients, les organisations doivent donner la priorité à la confidentialité des utilisateurs et à la protection des données, en s’assurant qu’elles se conforment aux dernières réglementations.
Il est tout aussi essentiel de veiller à ce que la confidentialité des utilisateurs et la protection des données restent une priorité. « Comme les systèmes d’IA reposent souvent sur de grandes quantités de données personnelles, la protection de ces informations est cruciale pour maintenir la confiance et respecter les normes éthiques », explique Ameen. « Cela signifie mettre en œuvre des mesures strictes de protection des données et être transparent sur l’utilisation des données. »
Un autre objectif important devrait être de garantir que le développement, la prise de décision et les applications de l’IA soient inclusifs. Cela signifie impliquer diverses équipes pour créer des systèmes d’IA et utiliser un large éventail de données et de perspectives pour les former et les affiner.
Et bien sûr, les organisations doivent s’engager à tester régulièrement leur IA pour tout biais potentiels et prendre des mesures pour les résoudre – et les DSI doivent en être conscients. « Des biais peuvent s’infiltrer à différentes étapes du développement et du déploiement de l’IA, de la collecte de données à la conception d’algorithmes », explique Ameen. « Les audits réguliers et les tests de biais devraient être un processus continu, avec des mécanismes en place pour traiter et corriger tout biais découvert. »
Mettre l’IA en représentation
Lorsqu’il s’agit d’utiliser l’IA pour améliorer l’expérience client, la responsabilité qui incombe aux dirigeants est énorme. « Les DSI et les cadres supérieurs peuvent permettre une IA plus humaine en défendant les initiatives éthiques au niveau de la direction et en favorisant une culture d’innovation responsable », déclare Ameen, ajoutant qu’ils devraient travailler en étroite collaboration avec des experts en IA et investir dans une formation éthique inclusive pour tout le personnel. .
« Il est crucial que les dirigeants donnent la priorité à la diversité dans les équipes de développement de l’IA, par exemple en employant activement des femmes et des personnes issues de minorités ethniques qui sont sous-représentées dans les emplois en IA », dit-elle. « Garantir des perspectives diversifiées dans la prise de décision liée à l’IA et des ensembles de données représentatifs est essentiel pour créer des systèmes d’IA équitables et impartiaux qui servent efficacement tous les utilisateurs. »
Puisque nous ne sommes pas encore particulièrement efficaces pour apprendre à l’IA à être humaine, il devient encore plus important de mettre en œuvre des mécanismes permettant de recueillir des commentaires sur les interactions clients basées sur l’IA et d’améliorer ces capacités.
« Cela inclut des options de commentaires en temps réel, des enquêtes auprès des clients axées sur les expériences d’IA et une analyse des journaux de service », explique-t-elle. La création de groupes de discussion et de canaux dédiés pour signaler les problèmes liés à l’IA peut aider à obtenir des informations précieuses sur le moment où les préoccupations éthiques doivent être abordées.
Boisvert ajoute que les DSI, CTO et PDG ne devraient pas partir de l’hypothèse que l’IA peut simplement remplacer des choses pour ensuite découvrir que, dans certains cas, l’IA n’est pas du tout appropriée. Il suggère de commencer à l’autre extrémité du spectre : supposer qu’aucune IA ne pourra jamais être aussi humaine qu’un humain, dit-il.
«Recherchez des scénarios spécifiques qui offrent une valeur faible ou marginale et intégrez-les», explique Boisvert. « Ne faites jamais en sorte qu’un flux de travail dépende entièrement de l’IA, de telle sorte qu’un système basé sur l’IA puisse avoir des communications directes avec les clients qui ne soient pas révisables et approuvées par des humains. »
Yilmaz est d’accord, affirmant que l’IA n’est pas le remède permettant d’obtenir immédiatement des avantages commerciaux.
« Si votre processus métier ne fonctionne pas, l’injection d’un élément d’IA ne ferait que compliquer davantage les choses, limiter la valeur», ajoute-t-il. « La véritable valeur est créée lorsque les équipes commerciales, technologiques, de données et d’analyse travaillent ensemble pour rationaliser un processus et créer le parcours souhaité par nos clients. »
septembre 18, 2024
Humain contre humain : comment les entreprises exploitent l’IA pour améliorer leur expérience client
Nous sommes tous passés par là. Votre ordinateur portable tombe en panne, vous manquez un vol ou vous devez appeler une compagnie d’assurance. Vous espérez une conversation rapide pour résoudre le problème, mais à la place, vous êtes accueilli par une voix désincarnée vous livrant des questions et des réponses scriptées sans empathie, vous faisant parcourir une liste de choix après l’autre, vous laissant encore plus frustré qu’au début.
Après une expérience aussi fracturée, vous commencez à vous poser des questions plus difficiles, comme quels préjugés pourraient être intégrés dans cette technologie, comment traite-t-elle mes données, à quelle fréquence est-elle auditée pour garantir l’équité et la transparence, et peut-on réellement lui apprendre à se comporter de manière éthique.
À mesure que l’IA joue un rôle plus important dans le service client, ces questions deviennent plus urgentes – et les DSI et autres dirigeants en sont bien conscients. Les deux tiers des praticiens CX, responsables de services, analystes et consultants du monde entier ayant participé à l’événement CX Network Global State of CX 2024 est d’accord ou tout à fait d’accord sur le fait qu’ils sont de plus en plus préoccupés par l’utilisation éthique de l’IA et son développement futur.
En outre, 38 % des personnes interrogées ont identifié la transparence sur la manière dont l’IA utilise leurs données comme l’une des trois principales préoccupations des clients aujourd’hui, tandis que 55 % sont tout à fait d’accord sur le fait que la confidentialité et la sécurité des données sont des préoccupations majeures pour les clients.
L’IA transforme rapidement le service client, et il ne s’agit plus seulement d’imiter les interactions humaines : il s’agit de créer des expériences équitables et naturelles. « L’une des plus grandes erreurs que les organisations peuvent commettre lors de la mise en œuvre de l’IA pour l’expérience client est de donner la priorité à l’efficacité plutôt qu’aux interactions éthiques et humaines », déclare Nisreen Ameen, maître de conférences en marketing numérique et directrice du Centre de recherche sur l’organisation et la société numériques à Royal Holloway, Université de Londres. Londres.
Varsha Jain, professeur de marketing à la Chaire AGK au Mudra Institute of Communications en Inde, est du même avis. « Les humains doivent piloter l’IA, et l’IA ne devrait pas conduire les humains », ajoute-t-elle.
Pour les DSI et autres cadres de niveau C chargés de améliorer l’expérience clientle véritable défi consiste à apprendre à l’IA à être plus humaine et à s’assurer qu’elle se comporte correctement et de manière éthique, avec un sentiment d’empathie et d’équité.
Avoir un ensemble de principes
Ces dernières années, les DSI et les entreprises pour lesquelles ils travaillent ont trouvé plusieurs moyens d’exploiter l’IA dans le support client. Les banques et autres institutions financières, en particulier, intègrent l’IA pour rationaliser les interactions avec les clients et améliorer l’efficacité des services. Beaucoup, par exemple, utilisent des chatbots basés sur l’IA pour gérer des tâches de routine telles que les demandes de solde, l’historique des transactions et même les demandes de prêt, libérant ainsi les agents humains pour des problèmes plus complexes. L’IA est également utilisée pour détecter les fraudes, analyser les modèles de transactions et signaler les activités suspectes en temps réel, beaucoup plus rapidement et avec plus de précision que les systèmes manuels. Le chatbot orienté client du groupe ING peut à lui seul traiter jusqu’à 5 000 demandes par jour aux Pays-Bas, et il a été enrichi de fonctionnalités d’IA de génération pour améliorer la satisfaction des clients et le taux de détournement, explique Bahadir Yilmaz, directeur des analyses de la multinationale.
Il ajoute qu’ING applique cet ensemble de principes directeurs étape par étape en matière d’IA :
Avoir des normes et des politiques éthiques solides pendant le processus de développement de l’IA peut être utile. « Cela garantit que les considérations éthiques sont intégrées dès le départ dans le tissu des systèmes d’IA, plutôt que d’être une réflexion après coup », explique Ameen.
Les DSI, ainsi que les CTO, devraient plaider pour mesurer le degré d’humanité de leurs services basés sur l’IA, car, en général, nous sommes plus enclins à améliorer ce que nous avons décidé de mesurer, ajoute Jain.
Construire une équipe humaine
De nombreuses organisations envisagent d’utiliser l’IA dans le support client dans un contexte de réduction des coûts. Ce n’était pas tout à fait le cas d’AirHelp, selon son directeur de la technologie, Tim Boisvert.
AirHelp, qui aide les passagers des compagnies aériennes à obtenir une compensation pour les vols retardés, annulés ou surréservés, est reconnu pour son système de chat alimenté par l’IA qui semble traiter efficacement les demandes courantes liées aux services.
« L’objectif de notre IA basée sur le chat n’est pas de remplacer les humains ou de déprioriser notre investissement dans les agents humains du service client », dit-il. « Par conséquent, nous ne l’avons pas configuré, il est donc difficile pour les clients de parler à un humain s’ils le souhaitent. Une grande partie de ce que nos clients demandent peut être facilement rappelée grâce à l’IA et aux robots, mais nous avons travaillé pour éviter que les utilisateurs n’aient l’impression d’être isolés de nos agents du service client.
Une règle lors de la conception d’un système d’IA basé sur le chat est de savoir exactement ce qu’il peut et ne peut pas faire, afin que cela ne devienne pas frustrant pour le client.
« Notre robot de service client vise uniquement à fournir certains types d’informations aux clients, plutôt que de tomber dans la tentation de penser qu’il existe une version d’un robot qui pourrait être sur le point de remplacer le type de relation que les gens peuvent entretenir avec des agents humains », Boisvert dit. Construire des sorties faciles ou être proactif dans l’acheminement d’un client vers un humain lorsqu’il recherche quelque chose que son robot ne peut pas facilement fournir est un autre principe que l’entreprise applique.
AirHelp utilise également d’autres outils basés sur l’IA pour interpréter les messages automatisés envoyés par les compagnies aériennes avec des mises à jour de statut concernant les réclamations des clients, ou analyser les informations des cartes d’embarquement et des billets électroniques lorsque les clients les téléchargent.
«Ces deux allègent une grande partie du fardeau de traitement des épaules de nos agents et suppriment les tâches subalternes de leur assiette, leur permettant ainsi de se concentrer davantage sur le travail direct avec les clients dans des scénarios difficiles ou non standard», explique Boisvert.
Le chatbot alimenté par l’IA d’ING travaille également main dans la main avec les humains. « ING demande à ses collègues d’examiner chaque conversation pour s’assurer que le système n’utilise pas de langage discriminatoire ou nuisible, ni n’hallucine », explique Yilmaz. « Quelle que soit la manière dont l’IA est déployée, une chose reste vraie : les personnes sont au cœur de notre processus. »
Pour l’instant, c’est la voie à suivre, conviennent les spécialistes de l’éthique. « L’IA est très utile mais doit être utilisée sous la stricte surveillance d’humains », explique Jain.
Restez conscient des préjugés
L’IA peut être exploitée de diverses manières, notamment à des fins d’acquisition de clients. ING, par exemple, utilise des outils de génération IA pour créer des campagnes marketing personnalisées, en adaptant le contenu et les offres aux expatriés, aux jeunes couples et à la génération Z. « Toujours avec le consentement du client », ajoute Yilmaz.
ING et la Commonwealth Bank of Australia (CBA) utilisent également des outils basés sur l’IA pour renforcer la cybersécurité et créer une expérience bancaire plus sûre pour leurs clients, en particulier ceux en situation de vulnérabilité.
« Nous pouvons analyser les activités transactionnelles inhabituelles et identifier les modèles et les instances jugés à haut risque afin que la banque puisse enquêter et prendre des mesures », explique Luiz Pizzato, responsable du centre d’excellence AI Labs chez CBA. « Nous avons utilisé l’IA pour protéger nos clients contre la fraude et les escroqueries, répondre en temps réel en apportant une assistance aux clients dans les zones de catastrophe naturelle et même connecter les clients à plus de 1,2 milliard de dollars d’avantages et de remises gouvernementaux auxquels ils avaient droit. grâce à notre outil de recherche d’avantages.
Dans de tels cas, lorsqu’elles traitent les données des clients, les organisations doivent donner la priorité à la confidentialité des utilisateurs et à la protection des données, en s’assurant qu’elles se conforment aux dernières réglementations.
Il est tout aussi essentiel de veiller à ce que la confidentialité des utilisateurs et la protection des données restent une priorité. « Comme les systèmes d’IA reposent souvent sur de grandes quantités de données personnelles, la protection de ces informations est cruciale pour maintenir la confiance et respecter les normes éthiques », explique Ameen. « Cela signifie mettre en œuvre des mesures strictes de protection des données et être transparent sur l’utilisation des données. »
Un autre objectif important devrait être de garantir que le développement, la prise de décision et les applications de l’IA soient inclusifs. Cela signifie impliquer diverses équipes pour créer des systèmes d’IA et utiliser un large éventail de données et de perspectives pour les former et les affiner.
Et bien sûr, les organisations doivent s’engager à tester régulièrement leur IA pour tout biais potentiels et prendre des mesures pour les résoudre – et les DSI doivent en être conscients. « Des biais peuvent s’infiltrer à différentes étapes du développement et du déploiement de l’IA, de la collecte de données à la conception d’algorithmes », explique Ameen. « Les audits réguliers et les tests de biais devraient être un processus continu, avec des mécanismes en place pour traiter et corriger tout biais découvert. »
Mettre l’IA en représentation
Lorsqu’il s’agit d’utiliser l’IA pour améliorer l’expérience client, la responsabilité qui incombe aux dirigeants est énorme. « Les DSI et les cadres supérieurs peuvent permettre une IA plus humaine en défendant les initiatives éthiques au niveau de la direction et en favorisant une culture d’innovation responsable », déclare Ameen, ajoutant qu’ils devraient travailler en étroite collaboration avec des experts en IA et investir dans une formation éthique inclusive pour tout le personnel. .
« Il est crucial que les dirigeants donnent la priorité à la diversité dans les équipes de développement de l’IA, par exemple en employant activement des femmes et des personnes issues de minorités ethniques qui sont sous-représentées dans les emplois en IA », dit-elle. « Garantir des perspectives diversifiées dans la prise de décision liée à l’IA et des ensembles de données représentatifs est essentiel pour créer des systèmes d’IA équitables et impartiaux qui servent efficacement tous les utilisateurs. »
Puisque nous ne sommes pas encore particulièrement efficaces pour apprendre à l’IA à être humaine, il devient encore plus important de mettre en œuvre des mécanismes permettant de recueillir des commentaires sur les interactions clients basées sur l’IA et d’améliorer ces capacités.
« Cela inclut des options de commentaires en temps réel, des enquêtes auprès des clients axées sur les expériences d’IA et une analyse des journaux de service », explique-t-elle. La création de groupes de discussion et de canaux dédiés pour signaler les problèmes liés à l’IA peut aider à obtenir des informations précieuses sur le moment où les préoccupations éthiques doivent être abordées.
Boisvert ajoute que les DSI, CTO et PDG ne devraient pas partir de l’hypothèse que l’IA peut simplement remplacer des choses pour ensuite découvrir que, dans certains cas, l’IA n’est pas du tout appropriée. Il suggère de commencer à l’autre extrémité du spectre : supposer qu’aucune IA ne pourra jamais être aussi humaine qu’un humain, dit-il.
«Recherchez des scénarios spécifiques qui offrent une valeur faible ou marginale et intégrez-les», explique Boisvert. « Ne faites jamais en sorte qu’un flux de travail dépende entièrement de l’IA, de telle sorte qu’un système basé sur l’IA puisse avoir des communications directes avec les clients qui ne soient pas révisables et approuvées par des humains. »
Yilmaz est d’accord, affirmant que l’IA n’est pas le remède permettant d’obtenir immédiatement des avantages commerciaux.
« Si votre processus métier ne fonctionne pas, l’injection d’un élément d’IA ne ferait que compliquer davantage les choses, limiter la valeur», ajoute-t-il. « La véritable valeur est créée lorsque les équipes commerciales, technologiques, de données et d’analyse travaillent ensemble pour rationaliser un processus et créer le parcours souhaité par nos clients. »
Source link
Partager :
Articles similaires