Site icon Blog ARC Optimizer

Un anthropologue linguistique explique comment les humains sont comme ChatGPT

Un anthropologue linguistique explique comment les humains sont comme ChatGPT


ChatGPT est un sujet brûlant dans mon université, où les membres du corps professoral sont profondément préoccupés par l’intégrité académique, tandis que Les administrateurs nous exhortent à « profiter des avantages » de cette « nouvelle frontière ». C’est un exemple classique de ce que mon collègue Celui de Mishra appelle le « cycle catastrophique » autour des nouvelles technologies. De même, la couverture médiatique de l’interaction homme-IA – qu’elle soit paranoïaque ou étoilée – a tendance à souligner sa nouveauté.

Dans un sens, c’est indéniablement nouveau. Les interactions avec ChatGPT peuvent sembler sans précédent, comme lorsqu’un technologie journaliste Je n’arrivais pas à empêcher un chatbot de lui déclarer son amour. À mon avis, cependant, la frontière entre les humains et les machines, en termes de manière dont nous interagissons les uns avec les autres, est plus floue que la plupart des gens voudraient l’admettre, et ce flou explique une grande partie du discours qui tourne autour de ChatGPT.

Lorsqu’on me demande de cocher une case pour confirmer que je ne suis pas un robot, je n’y réfléchis pas – bien sûr, je ne suis pas un robot. D’un autre côté, lorsque mon client de messagerie suggère un mot ou une phrase pour compléter ma phrase, ou lorsque mon téléphone devine le prochain mot que je m’apprête à envoyer, je commence à douter de moi. C’est ce que je voulais dire ? Cela me serait-il venu à l’esprit si l’application ne l’avait pas suggéré ? Suis-je en partie robot ? Ces grands modèles de langage ont été formés sur des quantités massives de langage humain « naturel ». Est-ce que cela rend les robots partiellement humains ?

Non, vous n’êtes pas un robot, mais votre langage n’est pas si différent de celui d’un chatbot IA. Ihor Reshetniak/iStock via Getty Images

IA Les chatbots sont nouveaux, mais les débats publics sur le changement de langage ne le sont pas. Comme un anthropologue linguistique, je trouve que les réactions humaines à ChatGPT sont la chose la plus intéressante. Un examen attentif de ces réactions révèle les croyances sur le langage qui sous-tendent la relation ambivalente, difficile et encore en évolution des gens avec les interlocuteurs de l’IA.

ChatGPT et autres sont un miroir du langage humain. Les humains sont à la fois très originaux et non originaux en matière de langage. Les chatbots reflètent cela, révélant des tendances et des modèles déjà présents dans les interactions avec d’autres humains.

Le

Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!

Créateurs ou imitateurs ?

Récemment, le célèbre linguiste Noam Chomsky et ses collègues ont soutenu que les chatbots sont «coincé dans une phase préhumaine ou non humaine de l’évolution cognitive» parce qu’ils ne peuvent que décrire et prédire, pas expliquer. Plutôt que de s’appuyer sur une capacité infinie pour générer de nouvelles phrases, ils compensent par d’énormes quantités d’entrées, ce qui leur permet de faire des prédictions sur les mots à utiliser avec un haut degré de précision.

Ceci est conforme à celui de Chomsky reconnaissance historique que le langage humain ne pouvait pas être produit simplement par l’imitation par les enfants de locuteurs adultes. La faculté du langage humain devait être générative, car les enfants ne reçoivent pas suffisamment d’informations pour rendre compte de toutes les formes qu’ils produisent, dont beaucoup n’avaient pas pu être entendues auparavant. C’est la seule façon d’expliquer pourquoi les humains – contrairement à d’autres animaux dotés de systèmes de communication sophistiqués – ont une capacité théoriquement infinie à générer de nouvelles phrases.

Noam Chomsky a développé la théorie générative de l’acquisition du langage.

Il y a cependant un problème avec cet argument. Même si les humains sont capables de générer de nouvelles chaînes de langage à l’infini, ce n’est généralement pas le cas. Les humains recyclent constamment des fragments de langage qu’ils ont déjà rencontrés et façonnent leur discours de manière à répondre – consciemment ou inconsciemment – ​​au discours des autres, présents ou absents.

Comme Mikhaïl Bakhtine – une figure à la manière de Chomsky pour les anthropologues linguistiques – le dit, « notre pensée elle-même », avec notre langage, « est né et façonné au cours du processus d’interaction et lutter avec la pensée des autres. Nos mots « goûtent » aux contextes dans lesquels nous et d’autres les avons rencontrés auparavant, c’est pourquoi nous luttons constamment pour les faire nôtres.

Même le plagiat est moins simple qu’il n’y paraît. Le concept de voler les mots de quelqu’un d’autre suppose que la communication a toujours lieu entre des personnes qui proposent indépendamment leurs propres idées et phrases originales. Les gens aiment peut-être se voir de cette façon, mais la réalité montre le contraire dans presque toutes les interactions – lorsque je répète une phrase de mon père à ma fille : ; lorsque le président prononce un discours rédigé par quelqu’un d’autre, exprimant le point de vue d’un groupe d’intérêt extérieur ; ou lorsqu’un thérapeute interagit avec son client selon les principes que ses professeurs lui ont appris à respecter.

Dans toute interaction donnée, le cadre de production – parler ou écrire – et de réception – écouter ou lire et comprendre – varie en termes de ce qui est dit, comment cela est dit, qui le dit et qui est responsable dans chaque cas.

Ce que l’IA révèle sur les humains

La conception populaire du langage humain considère la communication principalement comme quelque chose qui a lieu entre des personnes qui inventent de nouvelles expressions à partir de zéro. Cependant, cette hypothèse s’effondre lorsque Woebot, une application de thérapie par l’IA, est formé pour interagir avec des clients humains par des thérapeutes humains, en utilisant des conversations issues de séances de thérapie interhumaines. Cela s’effondre lorsqu’un de mes auteurs-compositeurs préférés, Colin Meloy de Les décembreistes, dit à ChatGPT écrire des paroles et des accords dans son propre style. Meloy a trouvé la chanson résultante « remarquablement médiocre » et manquant d’intuition, mais aussi étrangement dans la zone d’une chanson des décembreistes.

Cependant, comme le note Meloy, les progressions d’accords, les thèmes et les rimes des chansons pop écrites par des humains ont également tendance à refléter d’autres chansons pop, tout comme les discours des politiciens. dessiner librement des générations passées de politiciens et de militants, qui regorgeaient déjà de phrases tirées de la Bible. Les chansons pop et les discours politiques sont des illustrations particulièrement frappantes d’un phénomène plus général. Quand quelqu’un parle ou écrit, quelle quantité de nouveauté est générée à la Chomsky ? Quelle quantité est recyclée à la Bakhtine ? Sommes-nous en partie robots ? Les robots sont-ils en partie humains ?

Les gens comme Chomsky qui disent que les chatbots sont différents des locuteurs humains ont raison. Cependant, c’est également le cas de ceux qui, comme Bakhtine, soulignent que nous ne contrôlons jamais vraiment nos paroles – du moins, pas autant que nous l’imaginons. En ce sens, ChatGPT nous oblige à considérer à nouveau une question séculaire : quelle part de notre langue nous appartient réellement ?

Brendan H. O’Connorprofesseur agrégé, École d’études transfrontalières, Université de l’État d’Arizona

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.






Source link
Quitter la version mobile