Fermer

novembre 8, 2019

Pourquoi le chemin le plus rapide vers l'IA humaine peut-il être laissé évoluer par lui-même?



Il est de plus en plus évident, à mesure que nous atteignons ses limites, que l'apprentissage en profondeur – un sous-ensemble spécifique de la technologie de l'IA – ne mènera pas comme par magie à une intelligence artificielle au niveau humain.

Si nous voulons des robots capables de penser comme nous, nous devons cesser de les donner. toutes les réponses. La curiosité et l’exploration sont les deux composantes clés de l’intellect humain que l’apprentissage en profondeur ne fournit tout simplement pas.

Dans un article récent de Quanta Magazine, l’écrivain Matthew Hutson décrit le travail de l’informaticien Kenneth Stanley, qui travaille actuellement au laboratoire de l’intelligence artificielle d’Uber. Les travaux pionniers de Stanley dans le domaine de la «neuroévolution» ont ouvert la voie à un nouveau paradigme de l’intelligence artificielle qui évite les modèles traditionnels de formation basés sur des objectifs au profit de modèles d’intelligence artificielle qui n’ont d’autre but que d’explorer et d’être créatifs.

Hutson écrit:

L'évolution biologique est également le seul système produisant l'intelligence humaine, qui est le rêve ultime de nombreux chercheurs en intelligence artificielle. En raison des antécédents de la biologie, Stanley et d’autres ont fini par croire que si nous voulons des algorithmes capables de naviguer dans le monde physique et social aussi facilement que possible – ou mieux! – nous devons imiter la tactique de la nature.

Plutôt que de coder en dur les règles du raisonnement ou de laisser les ordinateurs apprendre à obtenir des scores élevés sur des métriques de performances spécifiques, nous devons laisser s'épanouir une foule de solutions. Faites-leur donner la priorité à la nouveauté ou à l'intérêt plutôt qu'à la capacité de marcher ou de parler. Ils découvriront peut-être un chemin indirect, un ensemble de marches, et finiront par marcher et parler mieux que s’ils avaient recherché ces compétences directement.

Les modèles d’apprentissage en profondeur standard utilisent une boîte noire – un ensemble de poids et de paramètres qui, finalement, , deviennent trop complexes pour que les développeurs puissent les décrire individuellement – pour «inventer» des algorithmes d’apprentissage automatique et les modifier jusqu’à ce qu’ils crachent les données right . Ce n’est pas de l’intelligence, c’est de la prestidigitation.

Si AI pouvait développer ses propres solutions et combiner ces paramètres avec un apprentissage en profondeur, il serait plus proche d’imiter la résolution de problèmes au niveau humain. Du moins, c’est ce que dit Stanley.

Ses recherches portent sur la construction d'algorithmes évolutifs pouvant fonctionner en parallèle avec des systèmes d'apprentissage en profondeur. Plutôt que d’enseigner à l’intelligence artificielle à résoudre un problème, il développe des algorithmes qui permettent de voir ce qu’ils sont capables de faire. Ces systèmes ne sont pas récompensés pour la résolution d'un problème tel que les paradigmes d'IA normaux. Ils vont juste jusqu'à ce que quelque chose arrive. Ce qui est remarquable, c’est que, sans problème à résoudre, ils parviennent toujours à résoudre de nombreux types de problèmes beaucoup plus efficacement que les modèles traditionnels d’apprentissage en profondeur.

Plus d’article de Hutson dans Quanta:

Lors d’un test, ils [Stanley and researcher Joel Lehman] placèrent des robots virtuels à roues dans un labyrinthe et développèrent les algorithmes qui les contrôlaient, dans l’espoir de trouver un chemin vers la sortie. Ils ont couru l'évolution à partir de zéro 40 fois. Un programme de comparaison, dans lequel les robots étaient sélectionnés pour la proximité (à vol d'oiseau) de la sortie, a fait évoluer un robot gagnant 3 fois sur 40 seulement. La recherche de nouveautés, qui ignorait complètement la proximité de chaque bot par rapport à la sortie, a réussi 39 fois. Cela a fonctionné parce que les robots ont réussi à éviter les impasses.

L’intelligence artificielle profonde ne sait pas quoi faire quand elle se heurte à un mur. Une fois la machine bloquée, elle doit recommencer à zéro – c’est la raison pour laquelle des millions de cycles de formation sont nécessaires pour «apprendre» à une IA comment accomplir une tâche avec succès. Avec le modèle hybride évolutif basé sur des algorithmes de Stanley, l’intelligence artificielle n’essaie pas de trouver la sortie, elle se contente de faire des choses puis d’essayer de trouver plus de choses à faire. La «curiosité» de la machine la fait traverser presque tout le labyrinthe, car elle est déterminée à explorer.

Les algorithmes évolutifs ne sont pas nouveaux, mais les recherches qui les entourent ont été largement balayés au profit d’opportunités de développement plus immédiatement lucratives dans les technologies d’apprentissage en profondeur standard – celles qui alimentent les ventes B2B et B2C. Et ils sont également sous-explorés car ils sont chers. Il faut beaucoup moins de puissance pour former une IA à esprit étroit que pour utiliser des algorithmes évolutifs. Mais le gain pourrait être énorme.

La grande idée ici est de détourner l'intelligence de niveau humain sur l'accident en laissant l'intelligence artificielle évoluer vers ses propres algorithmes tout en permettant une exploration sans entraves. Stanley et d’autres pensent qu’il est possible que l’AGI se manifeste comme un sous-produit de la curiosité de la machine, tout comme la conscience humaine résultait de l’évolution biologique.


Les ordinateurs ouvrent une nouvelle voie vers l'intelligence humaine
dans le magazine Quanta




Source link