Fermer

juin 6, 2022

Comment les réseaux de neurones « apprennent » différemment du cerveau humain6 minutes de lecture



Les modèles d’intelligence artificielle (IA) récemment développés sont capables de nombreux exploits impressionnants, notamment la reconnaissance d’images et la production d’un langage de type humain. Mais ce n’est pas parce que l’IA peut adopter des comportements humains qu’elle peut penser ou comprendre comme les humains.

En tant que chercheur étudiant la façon dont les humains comprennent et raisonnent sur le monde, je pense qu’il est important de souligner que la façon dont les systèmes d’IA « pensent » et apprennent est fondamentalement différente de la façon dont les humains le font – et nous avons encore un long chemin à parcourir avant que l’IA puisse vraiment penser comme nous.

Une idée fausse très répandue

Les développements de l’IA ont produit des systèmes capables d’exécuter des comportements très humains. Le modèle de langage GPT-3 peut produire un texte souvent impossible à distinguer de la parole humaine. Un autre modèle, Palmierpeut produire des explications pour des blagues qu’il n’a jamais Déjà vu.

Salutations humanoïdes

Abonnez-vous maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA

Plus récemment, une IA à usage général connue sous le nom de Gato a été développée et peut effectuer des centaines de tâches, y compris sous-titrer des images, répondre à des questions, jouer à des jeux vidéo Atari et même contrôler un bras de robot pour empiler des blocs. Et DALL-E est un système qui a été formé pour produire des images et des illustrations modifiées à partir d’une description textuelle.

Ces percées ont conduit à des affirmations audacieuses sur la capacité d’une telle IA et sur ce qu’elle peut nous dire sur l’intelligence humaine.

Par exemple, Nando de Freitas, chercheur à la société d’intelligence artificielle DeepMind de Google, affirme que la mise à l’échelle des modèles existants sera suffisante pour produire une intelligence artificielle au niveau humain. D’autres ont fait écho cette vue.

Dans toute cette excitation, il est facile de supposer qu’un comportement humain signifie une compréhension humaine. Mais il existe plusieurs différences essentielles entre la façon dont l’IA et les humains pensent et apprennent.

Réseaux neuronaux vs cerveau humain

L’IA la plus récente est construite à partir de réseaux de neurones artificiels, ou « réseaux de neurones » en abrégé. Le terme «neural» est utilisé parce que ces réseaux sont inspirés du cerveau humain, dans lequel des milliards de cellules appelées neurones forment des réseaux complexes de connexions les unes avec les autres, traitant les informations lorsqu’elles envoient des signaux dans les deux sens.

Les réseaux de neurones sont une version très simplifiée de la biologie. Un vrai neurone est remplacé par un simple nœud, et la force de la connexion entre les nœuds est représentée par un nombre unique appelé « poids ».

Avec suffisamment de nœuds connectés empilés dans suffisamment de couches, les réseaux de neurones peuvent être entraînés à reconnaître des modèles et même « généraliser” à des stimuli similaires (mais pas identiques) à ce qu’ils ont vu auparavant. Simplement, la généralisation fait référence à la capacité d’un système d’IA à prendre ce qu’il a appris de certaines données et à l’appliquer à de nouvelles données.

Être capable d’identifier des caractéristiques, de reconnaître des modèles et de généraliser à partir des résultats est au cœur du succès des réseaux de neurones – et imite les techniques que les humains utilisent pour de telles tâches. Pourtant, il existe des différences importantes.

Les réseaux de neurones sont généralement entraînés par « enseignement supervisé”. Ils sont donc présentés avec de nombreux exemples d’une entrée et de la sortie souhaitée, puis progressivement les poids de connexion sont ajustés jusqu’à ce que le réseau « apprenne » à produire la sortie souhaitée.

Pour apprendre une tâche linguistique, un réseau de neurones peut être présenté avec une phrase un mot à la fois et apprendra lentement à prédire le mot suivant dans la séquence.

Ceci est très différent de la façon dont les humains apprennent généralement. La plupart des apprentissages humains sont « non supervisés », ce qui signifie qu’on ne nous dit pas explicitement quelle est la « bonne » réponse pour un stimulus donné. Nous devons régler cela nous-mêmes.

Par exemple, les enfants ne reçoivent pas d’instructions sur la façon de parler, mais l’apprennent à travers un procédure complexe d’exposition à la parole, à l’imitation et à la rétroaction des adultes.

Une autre différence est l’ampleur des données utilisées pour former l’IA. Le modèle GPT-3 a été entraîné sur 400 milliards de mots, principalement tirés d’Internet. À un rythme de 150 mots par minute, il faudrait près de 4 000 ans à un humain pour lire autant de texte.

De tels calculs montrent que les humains ne peuvent pas apprendre de la même manière que l’IA. Nous devons faire un usage plus efficace de petites quantités de données.

Les réseaux de neurones peuvent apprendre d’une manière que nous ne pouvons pas

Une différence encore plus fondamentale concerne la manière dont les réseaux de neurones apprennent. Afin de faire correspondre un stimulus avec une réponse souhaitée, les réseaux de neurones utilisent un algorithme appelé « rétropropagation » pour faire remonter les erreurs à travers le réseau, permettant d’ajuster les poids de la bonne manière.

Cependant, il est largement reconnu par les neuroscientifiques que la rétropropagation ne peut pas être implémentée dans le cerveau, car il faudrait signaux externes qui n’existent tout simplement pas.

Certains chercheurs ont proposé variantes de rétropropagation pourrait être utilisé par le cerveau, mais jusqu’à présent, rien ne prouve que le cerveau humain puisse utiliser de telles méthodes d’apprentissage.

Au lieu de cela, les humains apprennent en faisant concepts mentaux structurés, dans lequel de nombreuses propriétés et associations différentes sont liées entre elles. Par exemple, notre concept de « banane » comprend sa forme, sa couleur jaune, la connaissance qu’il s’agit d’un fruit, comment le tenir, etc.

Pour autant que nous le sachions, les systèmes d’IA ne forment pas de telles connaissances conceptuelles. Ils s’appuient entièrement sur l’extraction d’associations statistiques complexes à partir de leurs données d’entraînement, puis sur leur application à des contextes similaires.

Des efforts sont en cours pour construire une IA qui combine différents types d’entrée (comme les images et le texte) – mais il reste à voir si cela suffira pour que ces modèles apprennent les mêmes types de représentations mentales riches que les humains utilisent pour comprendre le monde.

Il y a encore beaucoup de choses que nous ignorons sur la façon dont les humains apprennent, comprennent et raisonnent. Cependant, ce que nous savons indique que les humains effectuent ces tâches très différemment des systèmes d’IA.

En tant que tel, de nombreux chercheurs croient nous aurons besoin de nouvelles approches et d’une compréhension plus fondamentale du fonctionnement du cerveau humain avant de pouvoir construire des machines qui pensent et apprennent vraiment comme les humains.La conversation

Cet article de James FodorDoctorante en Neurosciences Cognitives, L’Université de Melbourneest republié de La conversation sous licence Creative Commons. Lis le article original.




Source link

0 Partages