La philosophie est cruciale à l’ère de l’IA

Les nouvelles connaissances scientifiques et techniques d’ingénierie ont toujours impressionné et effrayé. Nul doute qu’ils continueront à le faire. OpenAI a récemment annoncé que il anticipe la « superintelligence » — Une IA dépassant les capacités humaines — cette décennie. C’est en conséquence construire une nouvelle équipeet consacrer 20 % de ses ressources informatiques à garantir que le comportement de ces systèmes d’IA sera aligné sur les valeurs humaines.
Il semble qu’ils ne veulent pas que des IA superintelligentes malveillantes fassent la guerre à l’humanité, comme dans le thriller de science-fiction de James Cameron en 1984, Le terminateur (de façon inquiétante, Terminator d’Arnold Schwarzenegger est renvoyé dans le temps à partir de 2029). OpenAI fait appel aux meilleurs chercheurs et ingénieurs en apprentissage automatique pour les aider à résoudre le problème.
Mais les philosophes pourraient-ils avoir quelque chose à apporter ? Plus généralement, que peut-on attendre de cette discipline séculaire dans la nouvelle ère technologiquement avancée qui émerge ?
Pour commencer à répondre à cette question, il convient de souligner que la philosophie a joué un rôle déterminant dans IA depuis sa création. L’une des premières réussites de l’IA date de 1956. Programme d’ordinateur, surnommé le Théoricien de la Logique, créé par Allen Newell et Herbert Simon. Son travail consistait à prouver des théorèmes en utilisant les propositions des Principia Mathematica, un ouvrage en trois volumes de 1910 des philosophes Alfred North Whitehead et Bertrand Russell, visant à reconstruire toutes les mathématiques sur une base logique.
En effet, le accent précoce sur la logique dans l’IA doit beaucoup aux débats fondateurs menés par les mathématiciens et les philosophes.
Une étape importante a été le développement de la logique moderne par le philosophe allemand Gottlob Frege à la fin du XIXe siècle. Frege a introduit l’utilisation de variables quantifiables – plutôt que d’objets tels que des personnes – dans la logique. Sa démarche permet non seulement de dire par exemple « Joe Biden est président » mais aussi d’exprimer systématiquement des pensées générales telles que : « il existe un X tel que X soit président », où « il existe » est un quantificateur, et « X » est une variable.
D’autres contributeurs importants dans les années 1930 furent le logicien d’origine autrichienne Kurt Gödel, dont les théorèmes de complétude et d’incomplétude portent sur les limites de ce que l’on peut prouver, et la « preuve de l’indéfinissabilité de la vérité » du logicien polonais Alfred Tarski. Ce dernier a montré que la « vérité » dans tout système formel standard ne peut être définie au sein de ce système particulier, de sorte que la vérité arithmétique, par exemple, ne peut pas être définie au sein du système arithmétique.
Enfin, la notion abstraite de machine informatique créée en 1936 par le pionnier britannique Alan Turing s’est inspirée de ce développement et a eu un impact énorme sur les débuts de l’IA.
On pourrait cependant dire que même si un tel bon vieux jeu l’IA symbolique était redevable à une philosophie et une logique de haut niveau, l’IA « deuxième vague »basé sur l’apprentissage profond, dérive davantage du des prouesses d’ingénierie du béton associés au traitement de grandes quantités de données.
Pourtant, la philosophie a également joué un rôle ici. Prenez l’exemple de grands modèles linguistiques, comme celui qui alimente ChatGPT, qui produit du texte conversationnel. Ce sont d’énormes modèles, avec des milliards, voire des milliards de paramètres, formés sur de vastes ensembles de données (comprenant généralement une grande partie d’Internet). Mais au fond, ils suivent – et exploitent – les modèles statistiques d’utilisation de la langue. Quelque chose qui ressemble beaucoup à cette idée a été articulé » par le philosophe autrichien Ludwig Wittgenstein au milieu du XXe siècle : « Le sens d’un mot, disait-il, est son utilisation dans la langue. »
Mais la philosophie contemporaine, et pas seulement son histoire, est pertinente pour l’IA et son développement. Un LLM pourrait-il vraiment comprendre le langage qu’il traite ? Pourrait-il atteindre la conscience ? Ce sont des questions profondément philosophiques.
Jusqu’à présent, la science n’a pas été en mesure d’expliquer pleinement comment la conscience naît des cellules du cerveau humain. Certains philosophes pensent même qu’il s’agit d’un « problème tellement difficile » qu’il pourrait être au-delà du champ de la science et peut nécessiter un coup de main de la philosophie.
Dans le même ordre d’idées, on peut se demander si une IA génératrice d’images pourrait être véritablement créative. Margaret Boden, spécialiste britannique des sciences cognitives et philosophe de l’IA, affirme que même si l’IA sera capable de produire de nouvelles idées, il aura du mal à les évaluer comme le font les créatifs.
Elle anticipe également que seule une architecture hybride (neuro-symbolique) – une architecture qui utilise à la fois des techniques logiques et l’apprentissage en profondeur à partir de données – permettra d’atteindre l’intelligence artificielle générale.
Les valeurs humaines
Pour revenir à l’annonce d’OpenAI, lorsque nous avons été interrogés sur le rôle de la philosophie à l’ère de l’IA, ChatGPT nous a suggéré que (entre autres choses) cela « contribue à garantir que le développement et l’utilisation de l’IA sont alignés sur les valeurs humaines ».
Dans cet esprit, on peut peut-être être autorisé à proposer que, si l’alignement de l’IA est le problème sérieux qu’OpenAI considère, il ne s’agit pas seulement d’un problème technique à résoudre par des ingénieurs ou des entreprises technologiques, mais aussi d’un problème social. Cela nécessitera la contribution de philosophes, mais aussi de spécialistes des sciences sociales, d’avocats, de décideurs politiques, de citoyens utilisateurs et autres.
En effet, beaucoup de gens s’inquiètent du puissance et influence croissantes des entreprises technologiques et leur impact sur la démocratie. Certains soutiennent que nous avons besoin d’une toute nouvelle façon de penser l’IA, en tenant compte des systèmes sous-jacents qui soutiennent l’industrie. L’avocat et auteur britannique Jamie Susskind, par exemple, a soutenu qu’il était temps de construire un «république numérique» – un système qui rejette en fin de compte le système politique et économique qui a donné tant d’influence aux entreprises technologiques.
Enfin, demandons-nous brièvement : comment l’IA affectera-t-elle la philosophie ? La logique formelle en philosophie remonte en réalité aux travaux d’Aristote dans l’Antiquité. Au XVIIe siècle, le philosophe allemand Gottfried Leibniz suggérait que nous pourrions un jour avoir un «calculatrice de calcul» – une machine à calculer qui nous aiderait à trouver des réponses aux questions philosophiques et scientifiques de manière quasi-oraculaire.
Peut-être commençons-nous maintenant à réaliser cette vision, certains auteurs préconisant une «philosophie informatique» qui code littéralement des hypothèses et en tire des conséquences. Cela permet en fin de compte d’évaluer les résultats de manière factuelle et/ou axée sur les valeurs.
Par exemple, le projet PolyGraphs simule les effets du partage d’informations sur les réseaux sociaux. Cela peut ensuite être utilisé pour répondre informatiquement à des questions sur la manière dont nous devrions former nos opinions.
Certes, les progrès de l’IA ont donné matière à réflexion aux philosophes ; il se peut même qu’il ait commencé à apporter des réponses.
Anthony Graylingprofesseur de philosophie, Université du Nord-Est de Londres et Brian Ballprofesseur agrégé de philosophie IA et d’éthique de l’information, Université du Nord-Est de Londres
Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.
Source link