Fermer

mai 13, 2022

Le nouveau Gato AI de DeepMind me fait craindre que les humains n’atteignent jamais l’AGI

Le nouveau Gato AI de DeepMind me fait craindre que les humains n’atteignent jamais l’AGI


DeepMind a dévoilé aujourd’hui un nouveau système d’IA multimodal capable d’effectuer plus de 600 tâches différentes.

Surnommé Gato, il s’agit sans doute du kit d’apprentissage automatique tout-en-un le plus impressionnant jamais vu au monde.

Selon un DeepMind article de blog:

L’agent, que nous appelons Gato, fonctionne comme une police généraliste multimodale, multitâche et multiincarnation. Le même réseau avec les mêmes poids peut jouer à Atari, sous-titrer des images, discuter, empiler des blocs avec un vrai bras de robot et bien plus encore, en décidant en fonction de son contexte s’il faut sortir du texte, des couples articulaires, des pressions sur des boutons ou d’autres jetons.

1 crédit

Salutations humanoïdes

Abonnez-vous maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA

Et bien qu’il reste à voir exactement dans quelle mesure il fonctionnera une fois que les chercheurs et les utilisateurs extérieurs aux laboratoires DeepMind auront mis la main dessus, Gato semble être tout ce que GPT-3 souhaite qu’il soit et plus encore.

Voici pourquoi cela me rend triste : GPT-3 est un modèle de grande langue (LLM) produit par OpenAI, la société d’intelligence générale artificielle (AGI) la mieux financée au monde.

Cependant, avant de pouvoir comparer GPT-3 et Gato, nous devons comprendre d’où viennent OpenAI et DeepMind en tant qu’entreprises.

OpenAI est une idée originale d’Elon Musk, elle a reçu des milliards de dollars de soutien de Microsoft, et le gouvernement américain pourrait fondamentalement se soucier moins de ce qu’il fait en matière de réglementation et de surveillance.

Gardant à l’esprit qu’OpenAI seul but est de développer et de contrôler une AGI (c’est une IA capable de faire et d’apprendre tout ce qu’un humain pourrait, avec le même accès), c’est un peu effrayant que tout ce que l’entreprise a réussi à produire soit un LLM vraiment fantaisiste.

Ne vous méprenez pas, GPT-3 est impressionnant. En fait, c’est sans doute aussi impressionnant que le Gato de DeepMind, mais cette évaluation nécessite quelques nuances.

OpenAI a emprunté la voie LLM sur son chemin vers AGI pour une raison simple : personne ne sait comment faire fonctionner AGI.

Tout comme il a fallu du temps entre la découverte du feu et l’invention du moteur à combustion interne, comprendre comment passer de l’apprentissage en profondeur à l’IAG ne se fera pas du jour au lendemain.

GPT-3 est un exemple d’IA qui peut au moins faire quelque chose qui semble humain : elle génère du texte.

Ce que DeepMind a fait avec Gato est, eh bien, à peu près la même chose. Il a pris quelque chose qui fonctionne un peu comme un LLM et l’a transformé en un illusionniste capable de plus de 600 formes de prestidigitation.

Comme Mike Cook, du collectif de recherche Knives and Paintbrushes, dit récemment Kyle Wiggers de TechCrunch :

Cela semble excitant que l’IA soit capable d’effectuer toutes ces tâches qui semblent très différentes, car pour nous, il semble que l’écriture de texte soit très différente du contrôle d’un robot.

Mais en réalité, ce n’est pas trop différent de GPT-3 comprenant la différence entre le texte anglais ordinaire et le code Python.

Cela ne veut pas dire que c’est facile, mais pour l’observateur extérieur, cela peut sembler que l’IA peut aussi faire une tasse de thé ou apprendre facilement dix ou cinquante autres tâches, et elle ne peut pas le faire.

Fondamentalement, Gato et GPT-3 sont tous deux des systèmes d’IA robustes, mais aucun d’eux n’est capable d’intelligence générale.

Voici mon problème : À moins que votre jeu sur AGI n’émerge à la suite d’un acte de chance aléatoire – le film Court-circuit vient à l’esprit – il est probablement temps pour tout le monde de réévaluer leurs délais sur AGI.

Je ne dirais pas «jamais», car c’est l’un des seuls mots maudits de la science. Mais cela donne l’impression que l’AGI ne se produira pas de notre vivant.

DeepMind travaille sur AGI depuis plus d’une décennie et sur OpenAI depuis 2015. Et ni l’un ni l’autre n’a été en mesure de résoudre le tout premier problème sur la voie de la résolution d’AGI : construire une IA capable d’apprendre de nouvelles choses sans formation.

Je pense que Gato pourrait être le système d’IA multimodal le plus avancé au monde. Mais je pense aussi que DeepMind a pris la même chose concept sans issue pour AGI qu’OpenAI a et l’a simplement rendu plus commercialisable.

Dernières pensées: Ce que DeepMind a fait est remarquable et rapportera probablement beaucoup d’argent à l’entreprise.

Si je suis le PDG d’Alphabet (la société mère de DeepMind), soit je fais de Gato un produit pur, soit je pousse DeepMind vers plus de développement que de recherche.

Gato pourrait avoir le potentiel de fonctionner de manière plus lucrative sur le marché grand public qu’Alexa, Siri ou Google Assistant (avec le bon marketing et les cas d’utilisation applicables).

Mais, Gato et GPT-3 ne sont pas des points d’entrée plus viables pour AGI que les assistants virtuels mentionnés ci-dessus.

La capacité de Gato à effectuer plusieurs tâches ressemble plus à une console de jeu vidéo pouvant stocker 600 jeux différents qu’à un jeu auquel vous pouvez jouer de 600 façons différentes. Ce n’est pas une IA générale, c’est un tas de modèles étroits pré-formés soigneusement regroupés.

Ce n’est pas une mauvaise chose, si c’est ce que vous recherchez. Mais il n’y a tout simplement rien dans l’accompagnement de Gato document de recherche indiquer que c’est même un coup d’œil dans la bonne direction pour AGI, et encore moins un tremplin.

À un moment donné, la bonne volonté et le capital que des entreprises telles que DeepMind et OpenAI ont générés grâce à leur insistance impassible sur le fait qu’AGI était juste au coin de la rue devront montrer même le plus infime des dividendes.






Source link