Donc, vous êtes d’accord : l’IA a un problème de flagornerie

« Le problème avec trop de gens, c’est qu’ils croient que le domaine de la vérité se trouve toujours dans leur vision », a déclaré Abraham Lincoln. Le problème est que tous nos systèmes de croyance ne sont pas fondés sur la vérité. Sans surprise, ces contre-vérités se retrouvent dans les solutions d’intelligence artificielle (IA) que nous créons.
Nous connaissons tous les préjugés sociaux, culturels et sexistes. Amazon a été salué comme l’enfant emblématique de cette démarche. Il n’y a pas si longtemps, son outil de recrutement basé sur l’IA a été abandonné car il ne parvenait pas à trier les candidats aux postes techniques de manière non sexiste. En d’autres termes, comme les développeurs masculins sont historiquement embauchés par Amazon, ils ont atteint le sommet tandis que les femmes ont été négligées.
Lorsque l’IA fonctionne comme elle le devrait, elle peut être transformatrice, offrant une efficacité et une objectivité inégalées. Mais au milieu des grands préjugés « B », qui sont bien documentés et traitables, se cache un problème plus subtil mais préoccupant : le préjugé de flagornerie. Souvent négligé, cet aspect s’est retrouvé dans les systèmes d’IA, notamment les grands modèles linguistiques (LLM), compromettant l’intégrité et l’équité des résultats.
Source link