Fermer

décembre 24, 2024

Des décisions injustes de l’IA pourraient nous rendre indifférents aux mauvais comportements des humains

Des décisions injustes de l’IA pourraient nous rendre indifférents aux mauvais comportements des humains


Intelligence artificielle (IA) prend des décisions importantes qui affectent notre vie quotidienne. Ces décisions sont mises en œuvre par les entreprises et les institutions au nom de l’efficacité. Ils peuvent aider à déterminer qui entre à l’université, qui décroche un emploi, qui reçoit un traitement médical et qui a droit à une aide gouvernementale.

À mesure que l’IA assume ces rôles, il existe un risque croissant de décisions injustes – ou de perception de celles-ci par les personnes concernées. Par exemple, dans admissions ou embauches à l’universitéces décisions automatisées peuvent involontairement favoriser certains groupes de personnes ou celles ayant certains antécédents, tandis que des candidats tout aussi qualifiés mais sous-représentés sont négligés.

Ou, lorsqu’il est utilisé par les gouvernements de systèmes de prestationsl’IA peut allouer des ressources d’une manière qui aggrave les inégalités sociales, laissant certaines personnes avec moins que ce qu’elles méritent et un sentiment de traitement injuste.

En collaboration avec une équipe internationale de chercheurs, nous avons examiné comment la répartition injuste des ressources – qu’elle soit gérée par l’IA ou par un humain – influence la volonté des gens d’agir contre l’injustice. Les résultats ont été publié dans la revue Cognition.

L’IA étant de plus en plus intégrée à la vie quotidienne, les gouvernements interviennent pour protéger les citoyens contre les systèmes d’IA biaisés ou opaques. Des exemples de ces efforts comprennent le La Déclaration des droits de l’IA de la Maison Blancheet le La loi sur l’IA du Parlement européen. Celles-ci reflètent une préoccupation commune : les gens peuvent se sentir lésés par les décisions d’IA.

Alors, comment le fait de ressentir l’injustice d’un système d’IA affecte-t-il la façon dont les gens se traitent les uns les autres ?

Indifférence induite par l’IA

Notre article dans Cognition a examiné la volonté des gens d’agir contre l’injustice après avoir été traités injustement par une IA. Le comportement que nous avons examiné s’appliquait aux interactions ultérieures et sans rapport entre ces individus. Une volonté d’agir dans de telles situations, souvent appelées « punitions prosociales », elles sont considérées comme cruciales pour le respect des normes sociales.

Par exemple, les lanceurs d’alerte peuvent signaler des pratiques contraires à l’éthique malgré les risques, ou les consommateurs peuvent boycotter des entreprises qui, selon eux, agissent de manière préjudiciable. Les personnes qui se livrent à ces actes de punition prosociale le font souvent pour remédier aux injustices qui affectent les autres, ce qui contribue à renforcer les normes communautaires.


Anggalih Prasetya / Shutterstock

Nous avons posé cette question : est-ce que le fait de subir l’injustice de l’IA, plutôt que d’une personne, pourrait affecter la volonté des gens de tenir tête aux malfaiteurs humains plus tard ? Par exemple, si une IA attribue injustement un quart de travail ou refuse un avantage, est-ce que cela rend les gens moins susceptibles de signaler par la suite un comportement contraire à l’éthique de la part d’un collègue ?

Au cours d’une série d’expériences, nous avons constaté que les personnes traitées injustement par une IA étaient moins susceptibles de punir par la suite les malfaiteurs humains que les participants qui avaient été traités injustement par un humain. Ils faisaient preuve d’une sorte de désensibilisation aux mauvais comportements des autres. Nous avons appelé cet effet l’indifférence induite par l’IA, pour illustrer l’idée selon laquelle un traitement injuste par l’IA peut affaiblir le sentiment de responsabilité des individus envers les autres. Cela les rend moins susceptibles de s’attaquer aux injustices dans leur communauté.

Raisons de l’inaction

Cela peut être dû au fait que les gens accusent moins l’IA de traitement injuste et se sentent donc moins motivés à agir contre l’injustice. Cet effet est constant même lorsque les participants n’ont été confrontés qu’à un comportement injuste de la part d’autrui ou à un comportement à la fois juste et injuste. Pour voir si la relation que nous avions découverte était affectée par la familiarité avec l’IA, nous avons refait les mêmes expériences, après la sortie de ChatGPT en 2022. Nous avons obtenu les mêmes résultats avec la dernière série de tests qu’avec les précédentes.

Ces résultats suggèrent que les réactions des gens face à l’injustice dépendent non seulement du fait qu’ils ont été traités équitablement, mais également de la personne qui les a traités injustement – ​​une IA ou un humain.

En bref, un traitement injuste par un système d’IA peut affecter la façon dont les gens réagissent les uns aux autres, les rendant moins attentifs aux actions injustes des autres. Cela met en évidence les effets d’entraînement potentiels de l’IA sur la société humaine, qui s’étendent au-delà de l’expérience individuelle d’une seule décision injuste.

Lorsque les systèmes d’IA agissent injustement, les conséquences s’étendent aux interactions futures, influençant la façon dont les gens se traitent, même dans des situations sans rapport avec l’IA. Nous suggérons que les développeurs de systèmes d’IA se concentrent sur minimiser les biais dans les données de formation de l’IA pour éviter ces importants effets d’entraînement.

Les décideurs politiques devraient également établir des normes de transparence, exigeant que les entreprises divulguent les cas où l’IA pourrait prendre des décisions injustes. Cela aiderait les utilisateurs à comprendre les limites des systèmes d’IA et comment contester les résultats injustes. Une prise de conscience accrue de ces effets pourrait également encourager les gens à rester attentifs aux injustices, surtout après avoir interagi avec l’IA.

Les sentiments d’indignation et de blâme pour un traitement injuste sont essentiels pour détecter l’injustice et demander des comptes aux coupables. En s’attaquant aux effets sociaux involontaires de l’IA, les dirigeants peuvent garantir que l’IA soutient plutôt qu’elle ne sape les normes éthiques et sociales nécessaires à une société fondée sur la justice.La conversation

Chiara Longoniprofesseur agrégé, marketing et sciences sociales, Université Bocconi; Ellie Kyungprofesseur agrégé, division marketing, Collège Babsonet Luca CianProfesseur d’art et d’administration des affaires Killgallon Ohio, Darden School of Business, Université de Virginie

Cet article est republié à partir de La conversation sous licence Creative Commons. Lire le article original.




Source link