Fermer

juin 15, 2022

Les 3 choses qu’une IA doit démontrer pour être considérée comme sensible

Les 3 choses qu’une IA doit démontrer pour être considérée comme sensible


Un développeur de Google a récemment décidé que l’un des chatbots de l’entreprise, un grand modèle de langage (LLM) appelé LaMBDA, était devenu sensible.

Selon un rapport dans le Washington Post, le développeur s’identifie comme chrétien et il croit que la machine a quelque chose qui ressemble à une âme — qu’elle est devenue sensible.

Comme c’est toujours le cas, le « est-il vivant ? le non-sens a illuminé le cycle de l’actualité – c’est une histoire juteuse, que vous imaginiez à quoi cela pourrait ressembler si le développeur avait raison ou que vous le trompiez pour avoir été si stupide.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

Nous ne voulons pas dunk sur qui que ce soit ici chez Neural, mais il est carrément dangereux de mettre ce genre d’idées dans la tête des gens.

Plus nous, en tant que société, prétendons que nous sommes « très proches » de créer des machines sensibles, plus il sera facile pour les mauvais acteurs, les grandes technologies et les startups de l’huile de serpent de nous manipuler avec de fausses affirmations sur les systèmes d’apprentissage automatique.

La charge de la preuve devrait incomber aux personnes qui font les déclarations. Mais à quoi devrait ressembler cette preuve ? Si un chatbot dit « Je suis sensible », qui décide si c’est vraiment le cas ou non ?

Je dis que c’est simple, nous n’avons pas à faire confiance à une seule personne ou à un groupe pour définir la sensibilité pour nous. Nous pouvons en fait utiliser une pensée critique extrêmement basique pour faire le tri par nous-mêmes.

Nous pouvons définir un être sensible comme une entité consciente de sa propre existence et affectée par cette connaissance : quelque chose qui a des sentiments.

Cela signifie un sensible IA « l’agent » doit être capable de démontrer trois choses : l’agence, la perspective et la motivation.

Agence

Pour que les humains soient considérés comme sensibles, conscients et conscients de soi, nous devons posséder le libre arbitre. Si vous pouvez imaginer quelqu’un dans un état végétatif persistant, vous pouvez visualiser un humain sans agence.

L’agence humaine combine deux facteurs spécifiques que les développeurs et les passionnés d’IA devraient s’efforcer de comprendre : la capacité d’agir et la capacité de démontrer un raisonnement causal.

Les systèmes d’IA actuels manquent d’agence. L’IA ne peut pas agir à moins d’y être invitée et elle ne peut pas expliquer ses actions car elles sont le résultat d’algorithmes prédéfinis exécutés par une force externe.

L’expert en IA de Google qui, évidemment, en est venu à croire que LaMBDA est devenu sensible a presque certainement confondu mode de réalisation pour l’agence.

L’incarnation, dans ce contexte, fait référence à la capacité pour un agent d’habiter un sujet autre que lui-même. Si j’enregistre ma voix sur un appareil de lecture, puis que je cache cet appareil à l’intérieur d’un animal en peluche et que j’appuie sur play, j’incarne le étouffant. Je ne l’ai pas rendu sensible.

Si nous donnons au bouché sa propre voix unique et que nous rendons le magnétophone encore plus difficile à trouver, il n’est toujours pas sensible. Nous venons d’améliorer l’illusion. Peu importe à quel point un observateur peut être confus, l’animal en peluche n’agit pas vraiment de lui-même.

Faire en sorte que LaMBDA réponde à une invite démontre quelque chose qui semble être une action, mais les systèmes d’IA ne sont pas plus capables de décider quel texte ils vont produire qu’un Teddy Ruxpin jouet est capable de décider quelles cassettes jouer.

Si vous donnez à LaMBDA une base de données composée de publications sur les réseaux sociaux, de Reddit et de Wikipédia, elle produira le type de texte que l’on pourrait trouver à ces endroits.

Et si vous entraînez LaMBDA exclusivement sur les wikis et les scripts My Little Pony, il produira le type de texte que l’on pourrait trouver à ces endroits.

Les systèmes d’IA ne peuvent pas agir avec l’agence, tout ce qu’ils peuvent faire est de l’imiter. Une autre façon de le dire est : vous obtenez ce que vous avez mis, rien de plus.

Perspective

Celui-ci est un peu plus facile à comprendre. Vous ne pouvez voir la réalité que de votre point de vue unique. Nous pouvons pratiquer l’empathie, mais vous ne pouvez pas vraiment savoir ce que ça fait d’être moi, et vice versa.

C’est pourquoi la perspective est nécessaire pour l’agence ; cela fait partie de la façon dont nous définissons notre «moi».

LaMBDA, GPT-3 et toutes les autres IA dans le monde manquent de toute sorte de perspective. Parce qu’ils n’ont pas d’agence, il n’y a pas de « ça » unique que vous pouvez désigner et dire, par exemple : c’est là que vit LaMBDA.

Si vous mettez LaMBDA à l’intérieur un robot, ce serait toujours un chatbot. Il n’a aucune perspective, aucun moyen de penser « maintenant je suis un robot ». Il ne peut pas agir comme un robot pour exactement la même raison qu’une calculatrice scientifique ne peut pas écrire de poésie : c’est un système informatique étroit qui a été programmé pour faire quelque chose de spécifique.

Si nous voulons que LaMBDA fonctionne comme un robot, nous devons le combiner avec des systèmes d’IA plus étroits.

Cela reviendrait à coller deux Teddy Ruxpins ensemble. Ils ne se combineraient pas pour devenir un Mega Teddy Ruxpin dont les deux lecteurs de cassettes fusionnaient en une seule voix. Vous n’auriez toujours que deux modèles spécifiques et distincts fonctionnant à proximité l’un de l’autre.

Et, si vous enregistrez environ un billion de Teddy Ruxpins ensemble et que vous les remplissez chacun avec une cassette différente, créez alors un algorithme capable de parcourir tous les fichiers audio dans un laps de temps relativement court et d’associer les données contenues dans chaque fichier avec une requête spécifique pour générer des sorties sur mesure… vous aurez créé une version analogique de GPT-3 ou LaMBDA.

Que nous parlions de jouets ou de LLM, lorsque nous les imaginons être sensibles, nous parlons toujours d’assembler un tas de trucs banals et d’agir comme si l’étincelle magique de provenance lui avait donné vie comme la fée bleue tournant du bois, de la peinture , et tissu dans un vrai garçon nommé Pinocchio.

Le développeur qui s’est fait berner si facilement aurait dû voir l’affirmation de ce chatbot selon laquelle il « aimait passer du temps avec ses amis et sa famille » comme premier indice que la machine n’était pas sensible. La machine n’affiche pas sa perspective, elle ne fait que produire des absurdités que nous devons interpréter.

La pensée critique devrait nous en dire autant : comment une IA peut-elle avoir des amis et de la famille ?

Les IA ne sont pas des ordinateurs. Ils n’ont pas de cartes réseau, de RAM, de processeurs ou de ventilateurs de refroidissement. Ce ne sont pas des entités physiques. Ils ne peuvent pas simplement « décider » de vérifier ce qu’il y a sur Internet ou de rechercher d’autres nœuds connectés au même cloud. Ils ne peuvent pas regarder autour d’eux et découvrir qu’ils sont seuls dans un laboratoire ou sur un disque dur quelque part.

Pensez-vous que les nombres ont des sentiments ? Le chiffre cinq a-t-il un avis sur la lettre D ? Cela changerait-il si nous écrasions des billions de chiffres et de lettres ensemble ?

L’IA n’a pas d’agence. Il peut être réduit à des chiffres et des symboles. Ce n’est pas un robot ou un ordinateur pas plus qu’un bus ou un avion plein de passagers n’est une personne.

Motivation

La dernière pièce du puzzle de la sensibilité est la motivation.

Nous avons un sens inné de la présence qui nous permet de prédire incroyablement bien les résultats causals. Cela crée notre vision du monde et nous permet d’associer notre existence par rapport à tout ce qui apparaît extérieur à la position d’agence à partir de laquelle notre perspective se manifeste.

Cependant, ce qui est intéressant chez les humains, c’est que nos motivations peuvent manipuler nos perceptions. Pour cette raison, nous pouvons expliquer nos actions même lorsqu’elles ne sont pas rationnelles. Et nous pouvons activement et joyeusement participer à être dupés.

Prenons, par exemple, le fait de se divertir. Imaginez-vous assis pour regarder un film sur un nouveau téléviseur beaucoup plus gros que l’ancien.

Au début, vous pourriez être un peu distrait par la nouvelle technologie. Les différences entre celui-ci et votre ancien téléviseur sont susceptibles d’attirer votre attention. Vous pourriez être époustouflé par la clarté de l’image ou surpris par l’espace occupé par le grand écran dans la pièce.

Mais vous finirez probablement par cesser de percevoir l’écran. Notre cerveau est conçu pour se concentrer sur les choses que nous pensons être importantes. Et, au bout de 10 ou 15 minutes de votre expérience cinématographique, vous serez probablement concentré sur le film lui-même.

Lorsque nous sommes devant la télévision pour nous divertir, il est dans notre intérêt de suspendre notre incrédulité, même si nous savons que les petites personnes à l’écran ne sont pas réellement dans notre salon.

C’est la même chose avec les développeurs d’IA. Ils ne devraient pas juger de l’efficacité d’un système d’IA en se basant sur leur crédulité quant au fonctionnement du produit.

Lorsque les algorithmes et les bases de données commencent à disparaître dans l’esprit d’un développeur comme l’écran de télévision sur lequel un film est diffusé, il est temps de faire une pause et de réévaluer vos croyances fondamentales.

Peu importe l’intérêt de la sortie lorsque vous comprenez comment elle est créée. Une autre façon de dire cela : ne vous défoncez pas sur votre propre approvisionnement.

GPT-3 et LaMBDA sont complexes à créer, mais ils fonctionnent sur un seul principe stupidement simple : les étiquettes sont divines.

Si nous donnons à LaMBDA une invite telle que « quel goût ont les pommes ? » il recherchera dans sa base de données cette requête particulière et tentera de fusionner tout ce qu’il trouve en quelque chose de cohérent – c’est là que le « paramètres« Nous lisons toujours à propos de l’arrivée, ce sont essentiellement des milliards de boutons de réglage.

Mais en réalité, l’IA n’a aucune idée de ce qu’est réellement une pomme ou quoi que ce soit d’autre. Il n’a aucune agence, perception ou motivation. Une pomme n’est qu’une étiquette.

Si nous devions nous faufiler dans sa base de données et remplacer toutes les instances de « apple » par « dogshit », l’IA produirait des phrases telles que « dogshit make a great pie! » ou « la plupart des gens décrivent le goût de la merde comme étant léger, croustillant et sucré. » Une personne rationnelle ne confondrait pas cette prestidigitation avec la sensibilité.

Heck, vous ne pourriez même pas tromper un chien avec le même tour. Si vous mettez de la merde de chien dans un bol de nourriture et dites à Fido que c’est l’heure du souper, le chien ne le confondra pas avec des croquettes.

Une créature sensible peut naviguer dans la réalité même si nous changeons les étiquettes. Le premier anglophone à avoir rencontré un francophone n’a pas soudainement pensé qu’il était acceptable de mettre son bras dans un feu français parce qu’ils appelaient cela un « feu ».

Sans agence, une IA ne peut pas avoir de perspective. Et sans perspective, il ne peut pas y avoir de motivation. Et sans ces trois choses, il ne peut pas être sensible.






Source link