Fermer

juin 5, 2022

Pour évoluer, l’IA doit faire face à ses limites7 minutes de lecture



De l’imagerie médicale et de la traduction linguistique à la reconnaissance faciale et aux voitures autonomes, les exemples d’intelligence artificielle (IA) sont partout. Et avouons-le : bien qu’elles ne soient pas parfaites, les capacités de l’IA sont assez impressionnantes.

Même quelque chose d’aussi simple et routinier qu’une recherche Google représente l’un des exemples les plus réussis d’IA, capable de rechercher beaucoup plus d’informations à un rythme beaucoup plus élevé qu’humainement possible et de fournir systématiquement des résultats qui sont (au moins la plupart du temps) exactement ce que vous nous recherchons.

Le problème avec tous ces exemples d’IA, cependant, est que l’intelligence artificielle exposée n’est pas vraiment intelligente. Alors que l’IA d’aujourd’hui peut faire des choses extraordinaires, la fonctionnalité sous-jacente à ses réalisations fonctionne en analysant des ensembles de données massifs et en recherchant des modèles et des corrélations. sans comprendre les données qu’il traite. En conséquence, un système d’IA reposant sur les algorithmes d’IA d’aujourd’hui et nécessitant des milliers d’échantillons marqués ne donne qu’une apparence d’intelligence. Il manque une véritable compréhension de bon sens. Si vous ne me croyez pas, posez simplement à un robot du service client une question hors script.

Salutations humanoïdes

Abonnez-vous maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA

La lacune fondamentale de l’IA remonte à l’hypothèse principale au cœur de la plupart des développements de l’IA au cours des 50 dernières années, à savoir que si des problèmes d’intelligence difficiles pouvaient être résolus, les problèmes d’intelligence simples se mettraient en place. Cela s’est avéré être faux.

En 1988, le roboticien de Carnegie Mellon, Hans Moravec, écrivait : « Il est relativement facile de faire en sorte que les ordinateurs présentent des performances de niveau adulte lors de tests d’intelligence ou de jeux de dames, et difficile, voire impossible, de leur donner les compétences d’un enfant d’un an lorsqu’il s’agit de perception et mobilité. En d’autres termes, les problèmes difficiles s’avèrent plus simples à résoudre et ce qui semble être des problèmes simples peut être d’une difficulté prohibitive.

Deux autres hypothèses qui ont joué un rôle de premier plan dans le développement de l’IA se sont également avérées fausses :

– Tout d’abord, on a supposé que si suffisamment applications d’IA étroites (c’est-à-dire des applications capables de résoudre un problème spécifique à l’aide de techniques d’IA) ont été créées, elles se développeraient ensemble en une forme de intelligence générale. Les applications d’IA étroites, cependant, ne stockent pas les informations sous une forme généralisée et ne peuvent pas être utilisées par d’autres applications d’IA étroites pour étendre leur portée. Ainsi, bien qu’il soit possible d’assembler des applications pour, par exemple, le traitement du langage et le traitement de l’image, ces applications ne peuvent pas être intégrées de la même manière qu’un enfant intègre l’ouïe et la vision.

– Deuxièmement, certains chercheurs en IA ont supposé que si un apprentissage automatique assez grand système doté d’une puissance informatique suffisante pourrait être construit, il manifesterait spontanément une intelligence générale. Comme les systèmes experts qui ont tenté de capturer les connaissances d’un domaine spécifique l’ont clairement démontré, il est tout simplement impossible de créer suffisamment de cas et d’exemples de données pour surmonter le manque de compréhension sous-jacent d’un système.

Si l’industrie de l’IA sait que les hypothèses clés qu’elle a formulées lors du développement se sont révélées fausses, pourquoi personne n’a-t-il pris les mesures nécessaires pour les dépasser d’une manière qui fait avancer la véritable réflexion sur l’IA ? La réponse se trouve probablement dans le principal concurrent d’IA : appelons-la Sally. Elle a environ trois ans et sait déjà beaucoup de choses qu’aucune IA ne sait et peut résoudre des problèmes qu’aucune IA ne peut résoudre. Quand on y pense, bon nombre des problèmes que nous avons avec l’IA aujourd’hui sont des choses que n’importe quel enfant de trois ans pourrait faire.

Pensez aux connaissances nécessaires à Sally pour empiler un groupe de blocs. À un niveau fondamental, Sally comprend que des blocs ou tout autre objet physique) existent dans un monde 3D. Elle sait qu’ils persistent même lorsqu’elle ne peut pas les voir. Elle sait de façon innée qu’ils ont un ensemble de propriétés physiques comme le poids, la forme et la couleur. Elle sait qu’elle ne peut pas empiler plus de blocs sur un rond et roulant. Elle comprend la causalité et le passage du temps. Elle sait qu’elle doit d’abord construire une tour de blocs avant de pouvoir la renverser.

Qu’est-ce que Sally a à voir avec l’industrie de l’IA ? Sally a ce qui manque à l’IA d’aujourd’hui. Elle possède connaissance de la situation et compréhension contextuelle. Le cerveau biologique de Sally est capable d’interpréter tout ce qu’il rencontre dans le contexte de tout ce qu’il a appris auparavant. Plus important encore, Sally, trois ans, deviendra quatre ans, cinq ans, 10 ans, et ainsi de suite. En bref, Sally, trois ans possède naturellement les capacités de grandir en un adulte pleinement fonctionnel et intelligent.

À l’opposé, l’IA analyse des ensembles de données massifs à la recherche de modèles et de corrélations sans comprendre aucune des données qu’elle traite. Même le récent puces « neuromorphes » s’appuyer sur des capacités absentes de la biologie.

Pour que l’IA d’aujourd’hui surmonte ses limites inhérentes et évolue vers sa prochaine phase – définie comme l’intelligence générale artificielle (AGI) – elle doit être capable de comprendre ou d’apprendre n’importe quelle tâche intellectuelle qu’un humain peut. Il doit atteindre la conscience. Cela lui permettra de développer constamment son intelligence et ses capacités de la même manière qu’un enfant de trois ans grandit pour posséder l’intelligence d’un enfant de quatre ans, et éventuellement d’un enfant de 10 ans, d’un enfant de 20 ans. -vieux, et ainsi de suite.

Malheureusement, il est très peu probable que la recherche nécessaire pour faire la lumière sur ce qui sera finalement nécessaire pour reproduire la compréhension contextuelle du cerveau humain, permettant à l’IA d’atteindre une véritable conscience, reçoive un financement. Pourquoi pas? Tout simplement, personne – du moins personne à ce jour – n’a été disposé à investir des millions de dollars et des années de développement dans une application d’IA capable de faire ce que n’importe quel enfant de trois ans peut faire.

Et cela nous ramène inévitablement à la conclusion que l’intelligence artificielle d’aujourd’hui n’est vraiment pas si intelligente que ça. Bien sûr, cela n’empêchera pas de nombreuses entreprises d’IA de se vanter que leurs applications d’IA « fonctionnent comme votre cerveau ». Mais la vérité est qu’ils seraient plus près de la vérité s’ils admettaient que leurs applications sont basées sur un seul algorithme – la rétropropagation – et représentent une puissante méthode statistique. Malheureusement, la vérité n’est tout simplement pas aussi intéressante que « fonctionne comme votre cerveau ».

Cet article a été initialement publié par Ben Dickson sur TechTalks, une publication qui examine les tendances de la technologie, comment elles affectent notre façon de vivre et de faire des affaires, et les problèmes qu’elles résolvent. Mais nous discutons également du côté pervers de la technologie, des implications les plus sombres des nouvelles technologies et de ce que nous devons surveiller. Vous pouvez lire l’article original ici.




Source link

0 Partages