Les experts de Stanford AI appellent BS pour affirmer que le LaMDA de Google est sensible
Deux poids lourds de Stanford ont pesé sur le feu IA débat sur la sensibilité – et le duo est fermement dans le coin « BS ».
La querelle a récemment atteint un crescendo à cause d’arguments concernant Le système LaMDA de Google.
Développeur Blake Lemoine a déclenché la polémique. Lemoine, qui travaillait pour l’équipe d’intelligence artificielle responsable de Google, avait testé si le modèle en grand langage (LLM) utilisait un discours nuisible.
L’homme de 41 ans a déclaré au Washington Post que ses conversations avec l’IA l’ont convaincu qu’elle avait un esprit sensible.
« Je connais une personne quand je lui parle », a-t-il déclaré. « Peu importe qu’ils aient un cerveau fait de viande dans leur tête. Ou s’ils ont un milliard de lignes de code. Je leur parle. Et j’entends ce qu’ils ont à dire, et c’est ainsi que je décide de ce qui est et n’est pas une personne.
Google nié ses prétentions. En juillet, l’entreprise a mis Lemoine en congé pour avoir publié des informations confidentielles.
Un entretien LaMDA. Google pourrait appeler cela le partage de propriété exclusive. J’appelle ça le partage d’une discussion que j’ai eue avec un de mes collègues.https://t.co/uAE454KXRB
– Blake Lemoine (@cajundiscordian) 11 juin 2022
L’épisode a déclenché des gros titres sensationnalistes et des spéculations selon lesquelles l’IA prend conscience. Les experts en IA, cependant, ont largement rejeté L’argument de Lemoine.
Le duo de Stanford a partagé cette semaine de nouvelles critiques avec Le quotidien de Stanford.
« LaMDA n’est pas sensible pour la simple raison qu’il n’a pas la physiologie pour avoir des sensations et des sentiments », a déclaré John Etchemendy, codirecteur du Stanford Institute for Human-centered AI (HAI). « Il s’agit d’un logiciel conçu pour produire des phrases en réponse à des invites de phrases. »
Yoav Shoham, ancien directeur du Stanford AI Lab, convenu que LaMDA n’est pas sensible. Il a décrit l’article du Washington Post « pure clickbait.
« Ils l’ont publié parce que, pour le moment, ils pouvaient écrire ce titre sur » l’ingénieur Google « qui faisait cette affirmation absurde, et parce que la plupart de leurs lecteurs ne sont pas assez sophistiqués pour le reconnaître pour ce qu’il est », a-t-il déclaré. .
Techniques de distraction
Shoham et Etchemendy rejoignent un nombre croissant de critiques qui craignent que le public ne soit induit en erreur.
Le battage médiatique peut générer des clics et commercialiser des produits, mais les chercheurs craignent qu’il ne nous détourne de problèmes plus urgents.
Les LLM suscitent une inquiétude particulière. Alors que les modèles sont devenus aptes à générer des textes de type humain, l’enthousiasme suscité par leur « intelligence » peut masquer leurs lacunes.
La recherche montre que les systèmes peuvent avoir d’énormes empreintes carbone, amplifier le langage discriminatoireet représentent de réels dangers.
«Le débat sur la question de savoir si LaMDA est sensible ou non déplace toute la conversation vers un débat absurde et loin de problèmes critiques tels que la façon dont les LLM sont souvent racistes et sexistes, les énormes ressources de calcul nécessaires aux LLM, [and] leur incapacité à représenter avec précision la langue / les identités marginalisées », tweeté Abeba Birhane, un chercheur principal en IA digne de confiance chez Mozilla.
le débat sur la question de savoir si LaMDA est sensible ou non déplace toute la conversation vers un débat absurde et s’éloigne de questions critiques telles que la façon dont les LLM sont souvent racistes et sexistes, les énormes ressources de calcul dont les LLM ont besoin, leur incapacité à représenter avec précision la langue / les identités marginalisées.
– Abeba Birhane (@Abebab) 15 juin 2022
Il est difficile de prédire quand – ou si – l’IA véritablement sensible émergera. Mais se concentrer sur cette perspective nous fait oublier les conséquences réelles qui se déroulent déjà.
Source link