Fermer

juin 17, 2024

Gérer les risques éthiques et juridiques liés à la mise en œuvre de l’IA

Gérer les risques éthiques et juridiques liés à la mise en œuvre de l’IA



À mesure que l’intelligence artificielle (IA) s’intègre de plus en plus dans divers aspects des opérations commerciales, elle suscite de nombreux défis éthiques et juridiques. Les entreprises doivent gérer ces complexités avec prudence pour exploiter le potentiel de l’IA tout en se protégeant des risques potentiels. Avant de mettre en œuvre à la hâte des outils et technologies d’IA émergents, les entreprises doivent explorer les risques éthiques et juridiques associés à la mise en œuvre de l’IA, en mettant particulièrement l’accent sur leur impact sur l’expérience des clients et des employés, en particulier dans les environnements de service client et de centre de contact.

Comprendre les risques

Les systèmes d’IA, bien que puissants et transformateurs, ne sont pas sans pièges. Les principaux risques se situent dans trois domaines principaux : juridique, éthique et réputationnel.

  1. Légal les risques proviennent du non-respect de diverses réglementations et législations en matière d’IA.
  2. Éthique les risques concernent les implications sociétales et morales plus larges de l’utilisation de l’IA. Les risques éthiques s’étendent souvent au-delà de la conformité légale pour inclure l’équité, la transparence et la possibilité pour l’IA de perpétuer ou d’exacerber les inégalités existantes.
  3. Réputation le risque implique des dommages potentiels résultant d’une mauvaise utilisation perçue ou réelle de l’IA. Une perception négative du public peut entraîner une perte de confiance des clients et, à terme, avoir un impact sur les résultats d’une entreprise.

Risques juridiques dans la mise en œuvre de l’IA

Apprendre et naviguer dans le paysage réglementaire ne devrait pas être négociable pour toute entreprise mettant en œuvre l’IA. Alors que la technologie de l’IA est mise en œuvre dans tous les aspects des entreprises à un rythme sans précédent, le paysage est en constante évolution, avec des différences significatives d’une région à l’autre.

En Europe, la loi européenne sur l’intelligence artificielle est sur le point de s’appuyer sur la législation déjà complète sur la confidentialité des données énoncée dans le RGPD. La loi européenne sur l’IA classe les modèles d’IA et leurs cas d’utilisation en fonction du risque qu’ils représentent pour la société. Il impose des sanctions importantes aux entreprises qui exploitent des systèmes d’IA « à haut risque » et ne respectent pas les contrôles de sécurité obligatoires, comme l’auto-déclaration régulière. Elle introduit également des interdictions générales, notamment le recours à l’IA pour surveiller les émotions des salariés et certains traitements de données biométriques.

Aux États-Unis, une approche plus diversifiée, État par État, se développe. Par exemple, à New York, la loi locale 144 impose des audits annuels des systèmes d’IA utilisés lors du recrutement pour garantir qu’ils sont exempts de préjugés. Les mandats au niveau de l’État sont dirigés par les récents Décret exécutif concernant l’IA sûre, sécurisée et digne de confiance et les actions clés en matière d’IA ultérieures annoncées par l’administration Biden-Harris. Il est impératif que les entreprises se tiennent au courant de l’évolution de la réglementation afin d’éviter de lourdes amendes et des répercussions juridiques.

Dans le service client, cela signifie garantir que les systèmes d’IA utilisés pour les interactions avec les clients sont conformes à la confidentialité des données et élaborer des lois sur l’IA. Par exemple, les chatbots IA doivent gérer les données des clients de manière responsable, en garantissant qu’elles sont stockées en toute sécurité et qu’elles peuvent respecter les droits des personnes concernées, tels que le droit à l’oubli dans l’UE.

Les risques éthiques et leurs implications

Les risques éthiques de l’IA peuvent être identifiés en considérant deux domaines d’importance éthique : les dommages et les droits. Lorsque l’IA est susceptible de causer, d’aggraver ou de perpétuer des dommages, nous devons prendre des mesures pour comprendre, remédier ou éviter complètement ces dommages.

Un exemple clé de ce type de risque éthique est le préjudice causé aux individus par les systèmes d’IA qui prennent injustement ou par erreur des décisions lourdes de conséquences. Par exemple, en 2015, Amazon a mis en œuvre un système d’IA pour faciliter la sélection initiale des CV des candidats. Malgré les tentatives visant à éviter la discrimination fondée sur le sexe en supprimant toute mention de genre dans les documents, l’outil a involontairement favorisé les candidats masculins par rapport aux candidats féminins en raison de biais dans les données de formation. Ainsi, les candidates ont été désavantagées à plusieurs reprises par ce processus et ont donc subi le préjudice d’une discrimination indirecte.

D’autres risques éthiques incluent le cas où l’IA pourrait porter atteinte aux droits de l’homme, ou lorsque son omniprésence souligne la nécessité d’une nouvelle catégorie de droits de l’homme. Par exemple, en interdisant le traitement biométrique de l’IA sur le lieu de travail, la loi de l’UE sur l’IA cherche à répondre au risque éthique de voir le droit à la vie privée d’une personne compromis par l’IA.

Pour atténuer ces risques, les entreprises doivent envisager d’adopter ou d’étendre des cadres éthiques complets. Ces cadres devraient inclure :

  1. Détection et atténuation des biais : Mettez en œuvre des méthodes robustes pour détecter et atténuer les biais dans les données d’entraînement et les algorithmes d’IA. Cela peut impliquer des audits réguliers et l’inclusion de divers ensembles de données pour former les systèmes d’IA.
  2. Transparence et explicabilité : Veiller à ce que les systèmes d’IA soient transparents pour éviter toute tromperie potentielle, avec des processus de prise de décision qui peuvent être expliqués. Les clients et les employés doivent être en mesure d’identifier et de comprendre comment les décisions en matière d’IA sont prises et disposer de moyens pour contester ou faire appel de ces décisions.
  3. Justice et équité : Mettre en œuvre les mesures nécessaires pour garantir que les bénéfices de l’IA soient répartis équitablement entre toutes les parties prenantes. Par exemple, dans le service client, l’IA devrait améliorer l’expérience de tous les clients, quels que soient leurs antécédents ou leurs données démographiques.

Risques de réputation et gestion proactive

Les risques de réputation sont étroitement liés aux risques juridiques et éthiques. Les entreprises qui ne parviennent pas à résoudre ces problèmes de manière adéquate peuvent subir d’importants dommages à leur réputation, ce qui entraîne souvent des impacts négatifs tangibles sur leur activité. Par exemple, une violation de données impliquant des systèmes d’IA peut éroder la confiance des clients, entraîner des réactions négatives du public et, à terme, entraîner une perte de fidélité des clients et des ventes.

Pour gérer les risques de réputation, Avaya estime que les entreprises devraient :

  1. Adoptez des pratiques d’IA responsables : Adhérez aux meilleures pratiques et directives pour la mise en œuvre de l’IA. Cela implique d’être transparent sur la manière dont l’IA est utilisée et de veiller à ce qu’elle soit conforme aux normes éthiques.
  2. Communiquez clairement avec les parties prenantes : Tenez les clients et les employés informés de la manière dont les systèmes d’IA sont utilisés et des mesures en place pour protéger leurs intérêts. Ce niveau de transparence renforce la confiance et atténue souvent les réactions négatives potentielles.
  3. Mettre en œuvre un cadre de gouvernance solide : Établir un programme de gouvernance de l’IA pour superviser la mise en œuvre de l’IA et garantir le respect des normes éthiques et juridiques. Ce programme devrait inclure des représentants de diverses unités commerciales et disposer de processus clairs pour surveiller les directives réglementaires et évaluer les projets d’IA. Pour remplir ce rôle chez Avaya, nous avons créé un comité d’activation de l’intelligence artificielle, parrainé par la direction.

Les risques éthiques et juridiques associés à la mise en œuvre de l’IA sont importants, mais gérables avec les stratégies et cadres appropriés. En comprenant ces risques et en prenant des mesures proactives, les entreprises peuvent exploiter la puissance de l’IA pour améliorer l’expérience des clients et des employés tout en protégeant leur entreprise contre les pièges potentiels.

Pour en savoir plus sur les capacités d’IA d’Avaya dans son portefeuille de solutions, cliquez sur ici.




Source link