Fermer

juin 26, 2022

Arrêtez de débattre pour savoir si l’IA est  » sensible  » – la question est de savoir si nous pouvons lui faire confiance11 minutes de lecture



Le mois dernier a vu une frénésie d’articles, d’interviews et d’autres types de couverture médiatique sur Blake Lemoine, un ingénieur de Google qui a déclaré Le Washington Post que LaMDA, un grand modèle de langage créé pour les conversations avec les utilisateurs, est «sensible».

Après avoir lu une douzaine de points de vue différents sur le sujet, je dois dire que les médias sont devenus (un peu) désillusionnés par le battage médiatique actuel IA La technologie. De nombreux articles discutaient des raisons pour lesquelles les réseaux de neurones profonds ne sont pas « sensibles » ou « conscients ». Il s’agit d’une amélioration par rapport à il y a quelques années, lorsque les médias créaient des histoires sensationnelles sur les systèmes d’IA. inventer son propre langageprenant en charge chaque travail et accélérant vers intelligence artificielle générale.

Mais le fait que nous discutions à nouveau de sensibilité et de conscience souligne un point important : nous sommes à un point où nos systèmes d’IA, à savoir les grands modèles de langage, deviennent de plus en plus convaincants tout en souffrant de défauts fondamentaux qui ont été soulignés par des scientifiques sur différentes occasions. Et je sais que « l’IA trompe les humains » a été discuté depuis le chatbot ELIZA dans les années 1960, mais les LLM d’aujourd’hui sont vraiment à un autre niveau. Si vous ne savez pas comment fonctionnent les modèles de langage, Conversations de Blake Lemoine avec LaMDA semblent presque surréalistes, même s’ils ont été triés sur le volet et édités.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

Cependant, le point que je veux souligner ici est que la « sensibilité » et la « conscience » ne sont pas la meilleure discussion à avoir sur les LLM et la technologie actuelle de l’IA. Une discussion plus importante serait celle de la compatibilité humaine et de la confiance, d’autant plus que ces technologies sont en train d’être préparées pour être intégrées dans les applications quotidiennes.

Pourquoi les grands modèles linguistiques ne parlent pas notre langue

Le fonctionnement de les réseaux de neurones et les grands modèles de langage ont été discutés en profondeur la semaine dernière (je recommande fortement la lecture de Melanie Mitchell entretien avec MSNBC pour un compte rendu équilibré du fonctionnement du LaMDA et des autres LLM). Je voudrais donner une vue plus dézoomée de la situation, en commençant par le langage humain, auquel les LLM sont comparés.

Pour les humains, le langage est un moyen de communiquer les activations complexes et multidimensionnelles qui se produisent dans notre cerveau. Par exemple, lorsque deux frères se parlent et que l’un d’eux dit « maman », le mot est associé à de nombreuses activations dans différentes parties du cerveau, y compris des souvenirs de sa voix, de son visage, de ses sentiments et de différentes expériences de le passé lointain à (éventuellement) les jours récents. En fait, il pourrait y avoir une énorme différence entre le type de représentations que les frères ont dans leur cerveau, selon les expériences que chacun a eues. Le mot « maman » fournit cependant une approximation compressée et bien représentée qui les aide à s’entendre sur le même concept.

Lorsque vous utilisez le mot « maman » dans une conversation avec un étranger, la différence entre les expériences et les souvenirs devient encore plus grande. Mais encore une fois, vous parvenez à parvenir à un accord basé sur les concepts partagés que vous avez en tête.

Considérez le langage comme une compression algorithme qui aide à transférer l’énorme quantité d’informations dans le cerveau à une autre personne. L’évolution du langage est directement liée aux expériences que nous avons eues dans le monde, des interactions physiques dans notre environnement aux interactions sociales avec d’autres humains.

La langue est construite au-dessus de nos expériences partagées dans le monde. Les enfants connaissent la gravité, la dimension, la consistance physique des objets et les concepts humains et sociaux tels que la douleur, la tristesse, la peur, la famille et l’amitié avant même de prononcer leur premier mot. Sans ces expériences, le langage n’a pas de sens. C’est pourquoi le langage omet généralement les connaissances et les informations de sens commun que les interlocuteurs partagent. D’autre part, le niveau d’expérience et de mémoire partagée déterminera la profondeur de la conversation que vous pouvez avoir avec une autre personne.

En revanche, les grands modèles linguistiques n’ont aucune expérience physique et sociale. Ils sont formés sur des milliards de mots et apprennent à répondre aux invites en prédisant la prochaine séquence de mots. C’est une approche qui a donné d’excellents résultats au cours des dernières années, surtout après l’introduction de la architecture du transformateur.

Comment les transformateurs parviennent-ils à faire des prédictions très convaincantes ? Ils transforment le texte en « jetons » et en « incorporations », des représentations mathématiques de mots dans un espace multidimensionnel. Ils traitent ensuite l’intégration pour ajouter d’autres dimensions telles que les relations entre les mots dans une séquence de texte et leur rôle dans la phrase et le paragraphe. Avec suffisamment d’exemples, ces incorporations peuvent créer de bonnes approximations de la façon dont les mots doivent apparaître dans les séquences. Les transformateurs sont devenus particulièrement populaires parce qu’ils sont évolutifs : leur précision s’améliore à mesure qu’ils deviennent plus grands et sont alimentés par plus de données, et ils peuvent être principalement entraînés via apprentissage non supervisé.

Mais la différence fondamentale demeure. Les réseaux de neurones traitent le langage en les transformant en incorporations. Pour les humains, le langage est l’intégration des pensées, des sentiments, de la mémoire, de l’expérience physique et de bien d’autres choses que nous devons encore découvrir sur le cerveau.

C’est pourquoi il est juste de dire que malgré leurs immenses avancées et leurs résultats impressionnants, les transformateurs, les grands modèles de langage, les réseaux de neurones profonds, etc. sont encore loin de parler notre langue.

Sentience vs compatibilité et confiance

De nombreuses discussions aujourd’hui portent sur la question de savoir si nous devrions attribuer des attributs tels que la sensibilité, la conscience et la personnalité à l’IA. Le problème avec ces discussions est qu’elles se concentrent sur des concepts qui sont vaguement définis et signifient différentes choses pour différentes personnes.

Par exemple, les fonctionnalistes pourraient soutenir que les réseaux de neurones et les grands modèles de langage sont conscients parce qu’ils manifestent (au moins en partie) le même type de comportement que vous attendez d’un humain, même s’ils sont construits sur un substrat différent. D’autres pourraient soutenir que la substance organique est une exigence de la conscience et conclure que les réseaux de neurones ne seront jamais conscients. Vous pouvez lancer des arguments sur les qualia, l’expérience de la chambre chinoise, le test de Turing, etc., et la discussion peut durer indéfiniment.

Cependant, une question plus pratique est de savoir dans quelle mesure les réseaux de neurones actuels sont-ils « compatibles » avec l’esprit humain, et dans quelle mesure pouvons-nous leur faire confiance avec des applications critiques ? Et c’est une discussion importante à avoir car les grands modèles de langage sont principalement développés par des entreprises qui cherchent à les transformer en applications commerciales.

Par exemple, avec suffisamment d’entraînement, vous pourrez peut-être entraîner un chimpanzé à conduire une voiture. Mais le placeriez-vous derrière un volant sur une route que les piétons traverseront ? Vous ne le feriez pas, car vous savez que, aussi intelligents soient-ils, les chimpanzés ne pensent pas de la même manière que les humains et ne peuvent pas se voir confier la responsabilité de tâches où la sécurité humaine est concernée.

De même, un perroquet peut apprendre de nombreuses phrases. Mais lui feriez-vous confiance pour être votre agent du service client ? Probablement pas.

Même lorsqu’il s’agit d’humains, certaines déficiences cognitives empêchent les personnes d’assumer certains emplois et tâches qui nécessitent des interactions humaines ou qui concernent la sécurité humaine. Dans de nombreux cas, ces personnes peuvent lire, écrire, parler couramment et rester cohérentes et logiques dans de longues conversations. Nous ne remettons pas en question leur sensibilité, leur conscience ou leur personnalité. Mais nous savons que leurs décisions peuvent devenir incohérentes et imprévisibles en raison de leur maladie (voir le cas de Phinéas Gagepar exemple).

Ce qui compte, c’est de savoir si vous pouvez faire confiance à la personne pour penser et décider comme le ferait un humain moyen. Dans de nombreux cas, nous faisons confiance aux personnes chargées de tâches parce que nous savons que leur système sensoriel, leurs connaissances de bon sens, leurs sentiments, leurs objectifs et leurs récompenses sont généralement compatibles avec les nôtres, même s’ils ne parlent pas notre langue.

Que savons-nous de LaMDA ? Eh bien, d’une part, il ne ressent pas le monde comme nous. Sa « connaissance » du langage ne se construit pas sur le même type d’expériences que la nôtre. Sa connaissance de bon sens est construite sur une base instable car il n’y a aucune garantie que de grandes quantités de texte couvriront toutes les choses que nous omettons dans le langage.

Compte tenu de cela incompatibilitéjusqu’où pouvez-vous confiance LaMDA et d’autres grands modèles de langage, quelle que soit leur capacité à produire du texte ? Un programme de chatbot convivial et divertissant n’est peut-être pas une mauvaise idée tant qu’il n’oriente pas la conversation vers des sujets sensibles. Les moteurs de recherche sont également un bon domaine d’application pour les LLM (Google a été utiliser BERT dans la recherche pour quelques années). Mais pouvez-vous leur confier des tâches plus sensibles, comme un chatbot de service client à durée indéterminée ou un conseiller bancaire (même s’ils ont été formés ou affinés sur une tonne de transcriptions de conversation pertinentes) ?

Je pense que nous aurons besoin de références spécifiques à l’application pour tester la cohérence des LLM et leur compatibilité avec le bon sens humain dans différents domaines. En ce qui concerne les applications réelles, il doit toujours y avoir des limites clairement définies qui déterminent où la conversation devient interdite pour le LLM et doit être confiée à un opérateur humain.

La perspective du solutionneur de problèmes

Il y a quelque temps, j’ai écrit un essai sur « chercheurs de problèmes » et « résolveurs de problèmes ». Fondamentalement, ce que j’ai dit, c’est que l’intelligence humaine consiste à trouver les bons problèmes et que l’intelligence artificielle (ou l’IA que nous avons aujourd’hui) consiste à résoudre ces problèmes de la manière la plus efficace.

Nous avons vu à maintes reprises que les ordinateurs sont capables de trouver des raccourcis pour résoudre des problèmes complexes sans acquérir les capacités cognitives des humains. Nous l’avons vu avec les dames, les échecs, Go, concours de programmationle repliement des protéines et d’autres problèmes bien définis.

Le langage naturel est à certains égards différent mais aussi similaire à tous les autres problèmes que l’IA a résolus. D’une part, les transformateurs et les LLM ont montré qu’ils peuvent produire des résultats impressionnants sans passer par le processus d’apprentissage du langage comme un humain normal, qui consiste d’abord à explorer le monde et à comprendre ses règles de base, puis à acquérir le langage pour interagir avec d’autres personnes basées sur cette connaissance commune. D’un autre côté, il leur manque l’expérience humaine qui accompagne l’apprentissage d’une langue. Ils peuvent être utiles pour résoudre des problèmes linguistiques bien définis. Mais nous ne devons pas oublier que leur compatibilité avec le traitement du langage humain est limitée et nous devons donc faire attention à la mesure dans laquelle nous leur faisons confiance.

Cet article a été initialement publié par Ben Dickson sur TechTalks, une publication qui examine les tendances technologiques, leur impact sur notre façon de vivre et de faire des affaires, et les problèmes qu’elles résolvent. Mais nous discutons également du côté pervers de la technologie, des implications les plus sombres des nouvelles technologies et de ce que nous devons surveiller. Vous pouvez lire l’article original ici.




Source link

0 Partages