La sécurité des chatbots à l’ère de l’IA

D’année en année, les centres de contact bénéficient de plus en plus des avantages de l’intelligence artificielle. Cette technologie – autrefois une idée lointaine dépeinte avec émerveillement et peur dans la science-fiction – est désormais un élément clé de la façon dont les entreprises et les clients interagissent.
Selon les données d’une enquête de Call Center Helper, la satisfaction client est le facteur numéro un qui pousse davantage de marques à adopter l’intelligence artificielle (IA) dans le cadre de leurs modèles de service client. La capacité de l’IA à permettre le libre-service et à gérer plus d’appels plus efficacement s’avérera essentielle pour le succès des centres de contact à l’avenir. Non seulement cela, mais de nombreux responsables de centres de contact trouvent que sa capacité de collecte de données et d’analyse des interactions en direct présente des possibilités révolutionnaires pour l’expérience client (CX).[1]
Pourtant, malgré ses nombreux avantages, la réalité actuelle de l’IA n’est pas totalement exempte des peurs qu’elle a si souvent alimentées dans les histoires de science-fiction. L’une des préoccupations les plus pressantes concernant cette technologie puissante et répandue est sa menace pour la sécurité des données. Pour les centres de contact, qui hébergent d’énormes volumes de données clients et s’appuient sur des chatbots pour engager de nombreux clients et collecter leurs informations, il s’agit d’une préoccupation sérieuse qui ne peut être ignorée. Heureusement, cependant, c’est aussi un problème qui peut être résolu.
Le problème croissant – et le coût – des violations de données
Les violations de données ont fait la une des journaux à plusieurs reprises ces dernières années. Les grandes marques et organisations, de Microsoft et Facebook à Equifax et l’application Cash, ont eu des trésors de données clients sensibles volées lors de cyberattaques qui ont touché des millions de consommateurs.
Malgré les gros titres, cependant, ces cyberattaques peuvent encore sembler être des événements malheureux mais isolés. Cela ne pourrait pas être plus éloigné de la vérité.
Selon l’Identity Theft Resource Center (ITRC), une organisation à but non lucratif qui soutient les victimes de crimes d’identité, il y a eu 1 862 violations de données en 2021. Cela dépasse les chiffres de 2020 de plus de 68 % et est 23 % plus élevé que le record absolu de 1 506 en 2017. 83 % de ces violations de données en 2021 impliquaient des données clients sensibles, telles que des numéros de sécurité sociale.[2]
Pour les entreprises victimes de ces violations de données, les coûts sont énormes. La réputation de la marque est entachée et la confiance des clients est érodée, ce qui peut prendre des années à se reconstruire et entraîner des millions de pertes de revenus.
Ces effets sont suffisamment importants, mais ils ne sont pas les seuls. Les coûts immédiats d’une violation de données sont considérables. Selon les dernières données d’IBM, la violation de données moyenne pour les entreprises du monde entier coûte 4,35 millions de dollars. Aux États-Unis, il est beaucoup plus élevé – à 9,44 millions de dollars. Il varie également considérablement selon l’industrie, les soins de santé étant en tête de liste avec 10,10 millions de dollars.[3]
Les risques de l’IA
Il existe différents vecteurs pour ces violations de données, et les entreprises doivent s’efforcer de sécuriser chaque lien où les données des clients peuvent être exposées. En tant que référentiels pour de grandes quantités de données clients, les centres de contact représentent l’un des domaines les plus critiques à sécuriser. Cela est particulièrement vrai à l’ère des centres de contact basés sur le cloud avec une main-d’œuvre distante, car les points d’exposition potentiels ont augmenté de façon exponentielle.
À certains égards, l’IA améliore la capacité d’une organisation à découvrir et à contenir une violation de données. Le rapport d’IBM note que les organisations disposant d’un déploiement complet de l’IA et de l’automatisation ont pu contenir les violations 28 jours plus rapidement que celles qui ne disposaient pas de ces solutions. Cette augmentation de l’efficacité a permis à ces entreprises d’économiser plus de 3 millions de dollars en coûts liés aux violations.[3]
Cela dit, l’IA introduit également de nouveaux risques de sécurité. Dans le grand schéma de la technologie des centres de contact, l’IA est encore relativement nouvelle, et de nombreuses politiques organisationnelles qui régissent l’utilisation des données clients n’ont pas encore rattrapé les possibilités introduites par l’IA.
Considérez les chatbots, par exemple. De nos jours, ces solutions sont largement axées sur l’IA et introduisent une série de risques dans l’environnement du centre de contact.
« Les vulnérabilités de sécurité des chatbots peuvent inclure l’usurpation d’identité d’employés, les ransomwares et les logiciels malveillants, le phishing et la réaffectation des bots », déclare Christoph Börner, directeur principal du numérique chez Cyara. « Il est fort probable qu’il y aura au moins une faille de sécurité très médiatisée en raison d’une vulnérabilité de chatbot [in 2023]les organisations ne doivent donc pas négliger la confidentialité et la sécurité des données des chatbots. »
Aussi graves que soient les violations de données, les risques de l’IA s’étendent bien au-delà de ce domaine. Par exemple, la technologie rend les entreprises particulièrement vulnérables aux menaces ciblées par l’IA, telles que les attaques par déni de service, qui visent spécifiquement à perturber les processus d’une entreprise afin d’obtenir un avantage concurrentiel.
En allant un peu plus loin, nous n’avons pas encore vu ce qui pourrait arriver si une entreprise déployait des formes d’IA plus récentes et plus avancées, telles que ChatGPT, qui a été lancée en novembre avec une grande admiration pour sa capacité à élaborer des réponses détaillées et humaines à un tableau. des questions des utilisateurs. Cependant, il a également jailli de nombreuses informations erronées. Que se passe-t-il lorsqu’une marque est critiquée parce que son bot trompe les clients avec des informations à moitié cuites ou des erreurs factuelles pures et simples ? Et s’il utilise à mauvais escient les données client ? Ce sont de véritables menaces de sécurité auxquelles chaque centre de contact s’appuyant sur l’IA doit réfléchir.
Résoudre le problème du chatbot et de la sécurité des données
Les menaces peuvent être nombreuses et variées, mais les solutions pour y faire face sont simples. Beaucoup sont familiers aux responsables des centres de contact, y compris les protocoles de base tels que l’authentification multifacteur, le chiffrement de chatbot de bout en bout et les protocoles de connexion pour chatbot ou d’autres interfaces d’IA. Mais la véritable sécurité des centres de contact à l’ère de l’IA doit aller plus loin.
Revenant à nouveau aux chatbots, Börner note : « De nombreuses entreprises qui utilisent des chatbots ne disposent pas des tests de sécurité appropriés pour identifier de manière proactive ces problèmes avant qu’il ne soit trop tard.
La portée des tests de sécurité nécessaires pour les systèmes d’IA tels que les chatbots est bien plus étendue que ce que toute organisation peut réaliser grâce à des tests manuels et occasionnels. Il y a tout simplement trop de vulnérabilités et de violations potentielles de la conformité, et l’IA ne peut pas être laissée à elle-même ou confiée à des données clients sensibles sans les garde-corps appropriés.
Les tests de sécurité automatisés fournissent ces garde-fous et exposent tous les points faibles potentiels afin que les développeurs de logiciels de centre de contact puissent les examiner et les résoudre avant qu’ils n’entraînent une violation de la sécurité. Pour les chatbots, une solution comme Cyara Botium ajoute une couche de sécurité essentielle. Botium est une solution unique en son genre qui permet des tests de sécurité rapides et détaillés et fournit des conseils pour résoudre les problèmes rapidement et efficacement. Son interface simple et sans code facilite la sécurisation du chatbot CX de bout en bout.
Si votre centre de contact est engagé dans des chatbots basés sur l’IA, vous ne pouvez pas vous permettre de dormir sur leur sécurisation. Pour en savoir plus sur la façon dont Botium peut améliorer la sécurité de vos chatbots, consultez ceci visite du produit.
[1] Aide au centre d’appels. « L’intelligence artificielle dans le centre d’appel : résultats de l’enquête.”
[2] Centre de ressources sur le vol d’identité. « Le rapport annuel 2021 sur les violations de données du centre de ressources sur le vol d’identité établit un nouveau record du nombre de compromissions.”
[3] IBM. « Coût d’une violation de données 2022.”
Source link