4 idées sur l'IA que même les «experts» se trompent
L'histoire de l'intelligence artificielle a été marquée par des cycles répétés d'optimisme et de promesses extrêmes suivis de désillusions et déceptions . Les systèmes d'intelligence artificielle d'aujourd'hui peuvent effectuer des tâches complexes dans un large éventail de domaines, tels que les mathématiques, les jeux et la génération d'images photoréalistes. Mais certains des premiers objectifs de l'IA, comme les robots ménagers et les voitures autonomes, continuent de reculer à mesure que nous les approchons.
Une partie du cycle continu de manquer ces objectifs est due à des hypothèses incorrectes sur l'IA et l'intelligence naturelle, selon Melanie Mitchell, Davis Professor of Complexity au Santa Fe Institute et auteur de Artificial Intelligence: A Guide For Thinking Humans .
Dans un nouvel article intitulé « Why AI is Harder Than We Pensez », Mitchell expose quatre erreurs courantes à propos de l'IA qui provoquent des malentendus non seulement parmi le public et les médias, mais aussi parmi les experts. Ces erreurs donnent une fausse impression de confiance quant à la mesure dans laquelle nous sommes près d'atteindre l'intelligence artificielle générale, des systèmes d'IA qui peuvent correspondre aux compétences cognitives et générales de résolution de problèmes des humains.
L'IA étroite et l'IA générale sont pas à la même échelle
Le type d'IA que nous avons aujourd'hui peut être très efficace pour résoudre des problèmes étroitement définis . Ils peuvent surpasser les humains au Go et aux échecs, trouver des modèles cancéreux dans les images radiographiques avec une précision remarquable et convertir les données audio en texte. Mais concevoir des systèmes capables de résoudre des problèmes uniques ne nous rapproche pas nécessairement de la résolution de problèmes plus complexes. Mitchell décrit la première erreur comme suit: «L'intelligence étroite est sur un continuum avec l'intelligence générale.»
«Si les gens voient une machine faire quelque chose d'étonnant, bien que dans une zone étroite, ils supposent souvent que le champ est bien plus avancé vers l'IA générale. », Écrit Mitchell dans son article.
Par exemple, les systèmes actuels de traitement du langage naturel ont parcouru un long chemin vers la résolution de nombreux problèmes différents, tels que la traduction, [19659014] génération de texte et réponse aux questions sur des problèmes spécifiques. Dans le même temps, nous disposons de systèmes d'apprentissage en profondeur capables de convertir les données vocales en texte en temps réel. Derrière chacune de ces réalisations se cachent des milliers d'heures de recherche et développement (et des millions de dollars consacrés à l'informatique et aux données). Mais la communauté de l'IA n'a toujours pas résolu le problème de la création d'agents capables de s'engager dans des conversations ouvertes sans perdre de cohérence sur de longues périodes. Un tel système nécessite plus que la simple résolution de problèmes plus petits; cela nécessite du bon sens, l'un des principaux défis non résolus de l'IA.
Les choses faciles sont difficiles à automatiser
En ce qui concerne les humains, nous nous attendrions à ce qu'une personne intelligente fasse des choses difficiles qui demandent des années d'étude et de pratique. Des exemples peuvent inclure des tâches telles que résoudre des problèmes de calcul et de physique, jouer aux échecs au niveau de grand maître ou mémoriser de nombreux poèmes.
Mais des décennies de recherche sur l'IA ont prouvé que les tâches difficiles, celles qui nécessitent une attention consciente, sont plus faciles à automatiser . Ce sont les tâches faciles, les choses que nous tenons pour acquises, qui sont difficiles à automatiser. Mitchell décrit la deuxième erreur comme suit: «Les choses faciles sont faciles et les choses difficiles sont difficiles.»
«Les choses que nous, les humains, faisons sans trop y penser – regarder le monde et donner un sens à ce que nous voyons, mener une conversation, marcher sur un trottoir bondé sans heurter personne – s'avère être le défi le plus difficile pour les machines », écrit Mitchell. «Inversement, il est souvent plus facile de faire en sorte que les machines fassent des choses très difficiles pour les humains; par exemple, résoudre des problèmes mathématiques complexes, maîtriser des jeux comme les échecs et le go et traduire des phrases entre des centaines de langues se sont tous avérés relativement plus faciles pour les machines. Exemple. Pendant des milliards d'années, les organismes ont développé des appareils complexes pour traiter les signaux lumineux. Les animaux utilisent leurs yeux pour faire le point sur les objets qui les entourent, naviguer dans leur environnement, trouver de la nourriture, détecter les menaces et accomplir de nombreuses autres tâches vitales pour leur survie. Nous, les humains, avons hérité de toutes ces capacités de nos ancêtres et les utilisons sans pensée consciente. Mais le mécanisme sous-jacent est en effet plus compliqué que les grandes formules mathématiques qui nous frustrent au lycée et au collège.
Exemple: nous n'avons toujours pas de systèmes de vision par ordinateur qui sont presque aussi polyvalents que la vision humaine. Nous avons réussi à créer des réseaux de neurones artificiels qui imitent grossièrement des parties du système de vision animal et humain, comme la détection d'objets et la segmentation d'images. Mais ils sont fragiles, sensibles à de nombreux types de perturbations, et ils ne peuvent pas imiter l’ensemble des tâches que la vision biologique peut accomplir . C'est pourquoi, par exemple, les systèmes de vision par ordinateur utilisés dans les voitures autonomes doivent être complétés par des technologies avancées telles que les lidars et les données cartographiques.
Un autre domaine qui s'est avéré très difficile est celui des compétences sensori-motrices que les humains maîtrisent sans explication. formation. Pensez à la façon dont vous gérez les objets, marchez, courez et sautez. Ce sont des tâches que vous pouvez accomplir sans pensée consciente. En fait, en marchant, vous pouvez faire d'autres choses, comme écouter un podcast ou parler au téléphone. Mais ces types de compétences restent un défi important et coûteux pour les systèmes d'IA actuels.
«L'IA est plus difficile que nous ne le pensons, car nous sommes largement inconscients de la complexité de la nôtre.
Anthropomorphiser l'IA n'aide pas

Le domaine de l'IA regorge de vocabulaire qui met le logiciel au même niveau que l'intelligence humaine. Nous utilisons des termes tels que «apprendre», «comprendre», «lire» et «penser» pour décrire le fonctionnement des algorithmes d'IA. Bien que ces termes anthropomorphiques servent souvent de raccourcis pour aider à véhiculer des mécanismes logiciels complexes, ils peuvent nous induire en erreur en pensant que les systèmes actuels d'IA fonctionnent comme l'esprit humain.
Mitchell appelle cette erreur. «L'attrait des vœux pieux» et écrit: «Une telle sténographie peut induire en erreur le public qui tente de comprendre ces résultats (et les médias qui les rapportent), et peut également façonner inconsciemment la façon dont même les experts en IA pensent de leurs systèmes et comment Ces systèmes ressemblent étroitement à l'intelligence humaine. »
L'erreur mnémonique pieux a également conduit la communauté de l'IA à nommer des critères d'évaluation des algorithmes de manière trompeuse. Prenons, par exemple, le benchmark General Language Understanding Evaluation (GLUE) développé par certaines des organisations et institutions académiques les plus estimées en IA. GLUE fournit un ensemble de tâches qui aident à évaluer comment un modèle de langage peut généraliser ses capacités au-delà de la tâche pour laquelle il a été formé. Mais contrairement à ce que les médias décrivent, si un agent d'IA obtient un score GLUE plus élevé qu'un humain, cela ne signifie pas qu'il est meilleur dans la compréhension du langage que les humains. Les systèmes d'IA sont encore loin de correspondre aux capacités humaines plus générales que nous associons aux noms des benchmarks », écrit Mitchell.
Un exemple frappant de mnémoniques pieux est un projet de 2017 de Facebook Artificial Intelligence Research, dans lequel des scientifiques ont formé deux agents d'IA. pour négocier des tâches basées sur des conversations humaines. Dans leur article de blog les chercheurs ont noté que «la mise à jour des paramètres des deux agents a conduit à une divergence par rapport au langage humain, car les agents ont développé leur propre langage pour négocier [emphasis mine]. »
Cela a conduit à un flux d'articles sur les appâts cliquables qui mettaient en garde contre les systèmes d'IA qui devenaient plus intelligents que les humains et communiquaient dans des dialectes secrets. Quatre ans plus tard, les modèles de langage les plus avancés ont encore du mal à comprendre les concepts de base que la plupart des humains apprennent à un très jeune âge sans être instruits.
L'IA sans corps
L'intelligence peut-elle exister indépendamment d'une riche expérience physique du monde? C'est une question sur laquelle les scientifiques et les philosophes s'interrogent depuis des siècles.
Une école de pensée croit que l'intelligence est entièrement dans le cerveau et peut être séparée du corps, également connu sous le nom de « cerveau dans une cuve »théorie. Mitchell l'appelle l'erreur «L'intelligence est tout dans le cerveau». Avec les bons algorithmes et données, la pensée va, nous pouvons créer une IA qui vit dans des serveurs et correspond à l'intelligence humaine. Pour les partisans de cette façon de penser, en particulier ceux qui soutiennent les approches purement basées sur l'apprentissage profond atteindre l'IA générale dépend de la collecte de la bonne quantité de données et de la création de réseaux de neurones de plus en plus grands.
] Pendant ce temps, il y a de plus en plus de preuves que cette approche est vouée à l'échec. «Un nombre croissant de chercheurs remet en question la base du modèle de traitement de l'information« tout dans le cerveau »pour comprendre l'intelligence et pour créer l'IA», écrit-elle.
Les cerveaux humains et animaux ont évolué avec tous les autres organes du corps avec le objectif ultime d’améliorer les chances de survie. Notre intelligence est étroitement liée aux limites et aux capacités de notre corps. Et il existe un domaine en expansion de l'IA incarnée qui vise à créer des agents qui développent des compétences intelligentes en interagissant avec leur environnement à travers différents stimuli sensoriels.
Mitchell note que la recherche en neurosciences suggère que «Les structures neuronales contrôlant la cognition sont richement liées à celles contrôlant les systèmes sensoriels et moteurs, et cette pensée abstraite exploite les« cartes »neuronales basées sur le corps.» Et en fait, il y a de plus en plus de preuves et de recherches qui prouvent que les réactions des différentes zones sensorielles du cerveau affectent à la fois nos pensées conscientes et inconscientes.
Mitchell soutient l'idée que les émotions, les sentiments, les préjugés subconscients et l'expérience physique sont inséparables de l'intelligence. «Rien dans notre connaissance de la psychologie ou des neurosciences ne soutient la possibilité que la« rationalité pure »soit séparable des émotions et des préjugés culturels qui façonnent notre cognition et nos objectifs», écrit-elle. «Au lieu de cela, ce que nous avons appris de la recherche sur la cognition incarnée, c'est que l'intelligence humaine semble être un système fortement intégré avec des attributs étroitement interconnectés, y compris les émotions, les désirs, un fort sentiment de soi et d'autonomie, et une compréhension du monde sensée. Il n’est pas du tout clair que ces attributs puissent être séparés. »
Le bon sens en IA
Le développement de l’IA générale nécessite un ajustement à notre compréhension de l’intelligence elle-même . Nous avons encore du mal à définir ce qu'est l'intelligence et comment la mesurer chez les êtres artificiels et naturels.
«Il est clair que pour faire et évaluer les progrès de l'IA plus efficacement, nous devrons développer un meilleur vocabulaire pour parler de quelles machines peut faire », écrit Mitchell. «Et plus généralement, nous aurons besoin d'une meilleure compréhension scientifique de l'intelligence telle qu'elle se manifeste dans différents systèmes de la nature.»
Un autre défi abordé par Mitchell dans son article est celui du bon sens, qu'elle décrit comme «une sorte de parapluie pour ce qui manque aux systèmes d'intelligence artificielle de pointe d'aujourd'hui. »
Le bon sens comprend les connaissances que nous acquérons sur le monde et que nous l'appliquons chaque jour sans trop d'effort. On apprend beaucoup sans être explicitement instruit, en explorant le monde quand on est enfants. Ceux-ci incluent des concepts tels que l'espace, le temps, la gravité et les propriétés physiques des objets. Par exemple, un enfant apprend très jeune que lorsqu'un objet devient occlus derrière un autre, il n'a pas disparu et continue d'exister, ou lorsqu'une balle roule sur une table et atteint le rebord, elle doit tomber. Nous utilisons ces connaissances pour construire des modèles mentaux du monde, faire des inférences causales et prédire les états futurs avec une précision décente.
Ce type de connaissances fait défaut dans les systèmes d'IA actuels ce qui les rend imprévisibles et les données -faim. En fait, l'entretien ménager et la conduite, les deux applications d'IA mentionnées au début de cet article, sont des choses que la plupart des humains apprennent par le bon sens et un peu de pratique.
Le bon sens comprend également des faits de base sur la nature et la vie humaines, des choses que nous omettons dans nos conversations et dans nos écrits parce que nous savons que nos lecteurs et nos auditeurs les connaissent. Par exemple, nous savons que si deux personnes «parlent au téléphone», cela signifie qu'elles ne sont pas dans la même pièce. Nous savons également que si «John a cherché le sucre», cela signifie qu'il y avait un récipient contenant du sucre quelque part près de John. Ce type de connaissances est crucial pour des domaines tels que le traitement du langage naturel.
«Personne ne sait encore comment capturer ces connaissances ou capacités dans les machines. C'est la frontière actuelle de la recherche sur l'IA, et une façon encourageante d'aller de l'avant est d'exploiter ce que l'on sait sur le développement de ces capacités chez les jeunes enfants », écrit Mitchell.
Bien que nous ne connaissions toujours pas les réponses à beaucoup d'entre elles. questions, une première étape vers la recherche de solutions est de prendre conscience de nos propres pensées erronées. «Comprendre ces erreurs et leurs influences subtiles peut indiquer des directions pour créer des systèmes plus robustes, dignes de confiance et peut-être réellement intelligents AI », écrit Mitchell.
Cet article a été initialement publié par Ben Dickson sur TechTalks une publication qui examine les tendances technologiques, comment elles affectent la façon dont nous vivons et faisons des affaires, et les problèmes qu'elles résolvent. Mais nous discutons également du côté pervers de la technologie, des implications plus sombres des nouvelles technologies et de ce que nous devons surveiller. Vous pouvez lire l'article original ici .
Source link