Fermer

novembre 10, 2022

Donner à l’IA une boussole morale


Intelligence artificielle et les technologies d’apprentissage automatique permettent aux organisations d’analyser et d’agir rapidement sur de grandes quantités d’informations, mais elles automatisent également les risques à la même vitesse et à la même échelle. Une entreprise qui utilise l’IA sans réfléchir biais, la confidentialité et les problèmes connexes peuvent nuire à un grand nombre de personnes. Et lorsque les consommateurs, les employés et les investisseurs sont informés de ces manquements, ils ne se soucient pas du fait que le préjudice qui en a résulté n’était pas intentionnel.

Dans son livre, Machines éthiques : votre guide concis pour une IA totalement impartiale, transparente et respectueuseéthicien et ancien professeur de philosophie Reid Blackman propose un plan pratique, étape par étape, pour développer, acquérir et déployer l’IA d’une manière qui évite, ou du moins atténue, ses risques éthiques.

Blackman est le PDG et fondateur du cabinet de conseil en risques éthiques numériques Virtue. Nous lui avons demandé de discuter de ce à quoi les chefs d’entreprise devraient penser lorsqu’ils définissent les limites éthiques de leurs systèmes d’IA et créent les processus et les mesures quantitatives pour soutenir et faire respecter ces limites.

Photo de couverture du livre Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI.

Q : Que s’est-il passé pour persuader les chefs d’entreprise qu’ils doivent fournir une boussole éthique pour leurs systèmes d’IA ?

Homme noir: Il devient clair que l’IA expose les entreprises à de sérieux risques – des risques éthiques et de réputation claironnés dans les actualités et les réseaux sociaux, ainsi que des risques réglementaires et juridiques. Ce sont toutes des préoccupations de fond.

Par exemple, en 2019, les régulateurs ont enquêté sur Optum, une société de services de santé, pour une IA qui aurait recommandé que les médecins et les infirmières accordent plus d’attention aux patients blancs qu’aux noirs plus malades. De même, en septembre 2022, le procureur général de Californie a demandé aux hôpitaux de cet État de fournir un inventaire de toutes leurs évaluations des risques de maladies et de diagnostics basées sur des algorithmes.

Les chefs d’entreprise, qui réalisent les risques de nuire à un grand nombre de personnes, sont proactifs sur les risques dans leurs propres organisations, même s’ils ne sont pas sûrs de ce qu’ils sont. Ils ne veulent pas tromper les gens à grande échelle ! Lorsque vous vous engagez dans un comportement contraire à l’éthique en utilisant l’IA, cela ne nuit jamais à une seule personne. Cela, combiné aux réglementations à venir probablement bientôt de l’UE et du Canada, incite vraiment les dirigeants à prendre les problèmes au sérieux.

Q : L’IA permet d’analyser rapidement d’énormes quantités de données et d’automatiser les décisions en fonction des résultats, mais cela signifie également qu’elle crée potentiellement des problèmes éthiques rapidement et automatiquement. Vous soutenez que cela en fait un problème de niveau C. Qui, au sein de la haute direction, devrait être responsable du programme d’IA éthique d’une entreprise, et pourquoi ?

Homme noir: Le PDG et les membres du conseil d’administration sont responsables de la marque, ils doivent donc défendre le programme. Mais le directeur des données ou le directeur de l’analyse devrait en être propriétaire, car ils sont chargés de superviser la production et le développement d’algorithmes d’apprentissage automatique, ainsi que les rôles pertinents qui en sont responsables, comme les scientifiques des données.

Cela dit, la question de l’IA éthique n’est pas un problème technologique. Il existe des techniques quantitatives pour aider à identifier et à atténuer les risques, mais elles ne suffisent pas à résoudre un problème qui concerne en fait la gouvernance globale et qui porte des jugements qualitatifs sur quoi. Par exemple, l’IA qui aide les RH à surveiller les e-mails des employés peut «lire» chaque message sortant, évaluer le langage pour des qualités telles que le respect et l’agressivité, et signaler les e-mails qu’il considère comme inappropriés. Mais il est toujours de la responsabilité des RH de lire les e-mails signalés afin de comprendre le contexte et de décider s’il justifie de prendre des mesures contre un individu.

Le programme de gestion des risques éthiques de l’IA doit également inclure des personnes chargées de la gestion des risques, de la conformité et de la cybersécurité, ainsi qu’une personne du bureau de l’avocat général et, à mon avis, un éthicien. C’est parce qu’un programme efficace de risque éthique lié à l’IA n’est pas cloisonné ; il est intégré à la gouvernance, aux politiques, aux procédures existantes, etc.

« Les scientifiques des données ne peuvent pas résoudre ces problèmes par les calculs. Chaque organisation a besoin d’une équipe interfonctionnelle pour faire avancer les choses. »

Tir à la tête de Reid Blackman.
Reid Blackman

Q : Vous notez que parce que les lois et les réglementations n’ont pas suivi les développements de l’IA, les entreprises peuvent se trouver obligées de choisir entre l’utilisation d’une IA conforme à la loi mais éthiquement sommaire, ou éthiquement saine mais juridiquement risquée. Quels sont quelques exemples de cela?

Homme noir: Il existe de nombreuses utilisations de l’IA qui sont légales mais contraires à l’éthique. Par exemple, les moteurs de recommandation manipulateurs qui suggèrent un contenu problématique, comme la désinformation sur les résultats des élections.

Quant à quelque chose d’éthique mais pas légal, disons que vous êtes une banque. Vous êtes soumis à des lois anti-discrimination qui vous interdisent de prendre en compte des catégories protégées telles que la race, l’origine ethnique ou le sexe dans vos décisions concernant l’obtention d’un prêt hypothécaire. Lorsque vous essayez de créer une IA pour automatiser ces décisions, vous devez examiner votre modèle pour voir qui obtient des hypothèques dans différentes populations et déterminer si cette répartition est équitable. Vous vous rendez compte que si vous voulez ajuster votre modèle de notation des demandeurs pour approuver les prêts hypothécaires de manière plus équitable, vous devez tenir compte de ces catégories protégées, ce que la loi interdit.

Cela peut indiquer que la loi anti-discrimination est obsolète, mais jusqu’à ce qu’elle soit mise à jour, c’est toujours la loi, et votre entreprise doit s’y conformer. Si vous essayez de rendre votre IA plus juste, vous augmentez votre risque de faire l’objet d’une enquête, mais si vous n’essayez pas de la rendre plus juste, vous augmentez votre risque de discriminer par inadvertance et de faire l’objet d’une enquête pour différentes raisons. Les entreprises doivent établir un cadre pour réfléchir à ces défis.

Q : Étant donné que les lois varient d’un pays à l’autre, comment les chefs d’entreprise peuvent-ils s’assurer qu’ils prennent les décisions les plus éthiques concernant l’IA tout en restant en conformité, en particulier lorsqu’ils opèrent à l’échelle mondiale ?

Homme noir: C’est un acte d’équilibre sans réponses faciles; mais aussi, il s’agit souvent moins d’un problème d’IA que d’un simple problème d’éthique des affaires. Une entreprise qui a besoin de biens manufacturés doit décider si elle est disposée à travailler avec un fournisseur autorisé à gérer des ateliers clandestins, même si l’IA indique que ce fournisseur répond à tous les critères de production.

Vous ne pouvez pas vous attendre à ce que les data scientists soient aux prises avec des décisions éthiques complexes alors qu’ils manipulent des données complexes. Ils n’ont pas de formation, d’expérience ou de connaissances sur l’impact éthique. Au lieu de cela, vous devez impliquer d’autres personnes – comme votre avocat général, un gestionnaire de risques ou un expert en droits civiques – pour former les personnes qui développent et utilisent votre IA à sentir la fumée éthique et à savoir qui alerter à ce sujet.

Une entreprise que je connais a créé un « bureau d’IA responsable » où les équipes qui développent et mettent en œuvre l’IA peuvent demander de l’aide pour des problèmes éthiquement complexes ou discutables. Une autre entreprise a une personne qui sert de « champion de l’éthique » et peut soumettre des questions à un comité au besoin.

Obtenez des informations clés en vous inscrivant à notre newsletter

Abonnez-vous à notre newsletter pour obtenir des informations actualisées sur les informations technologiques et connectez-vous avec nous sur Twitter.

Q : Si une entreprise commence tout juste à aborder les limites éthiques de son utilisation de l’IA, par où doit-elle commencer ?

Homme noir: Les scientifiques des données ne peuvent pas résoudre ces problèmes par des calculs. Chaque organisation a besoin d’une équipe interfonctionnelle pour faire avancer les choses. Et comme vous ne pouvez pas résoudre un problème lorsque vous ne le comprenez pas, il est bon de lancer le bal avec un séminaire ou un atelier qui donne à chacun une compréhension approfondie et partagée des risques éthiques de l’IA.

À partir de là, je recommande deux étapes. Tout d’abord, développez une déclaration d’éthique sur l’IA qui fait réellement quelque chose. La plupart du temps, les entreprises produisent des déclarations de si haut niveau qu’elles ne peuvent rien orienter – dire « nous sommes en faveur de l’équité » n’explique pas à quoi ressemble « l’équité ». Vous avez donc besoin d’une déclaration articulant les valeurs de votre entreprise et ce qui constituerait une violation de ces valeurs.

Deuxièmement, une fois que ces normes sont claires, il est temps de faire une analyse de faisabilité. À quoi ressemble votre organisation aujourd’hui par rapport à ces normes ? Quelles structures de gouvernance, politiques et personnes existantes peuvent être exploitées pour créer un programme efficace de risque éthique en matière d’IA qui répond à vos normes ? À quels obstacles votre organisation est-elle confrontée lorsqu’elle tente d’harmoniser les politiques et pratiques existantes avec de nouvelles afin de faire avancer vos efforts en matière de risque éthique en matière d’IA ?

Les réponses à ces questions et à d’autres sont impératives si vous souhaitez créer de manière efficace et efficiente un programme de risque éthique lié à l’IA qui protège votre marque et les personnes qu’elle affecte.




Source link

novembre 10, 2022