Fermer

septembre 22, 2023

Un anthropologue linguistique explique comment les humains sont comme ChatGPT

Un anthropologue linguistique explique comment les humains sont comme ChatGPT


ChatGPT est un sujet brûlant dans mon université, où les membres du corps professoral sont profondément préoccupés par l’intégrité académique, tandis que Les administrateurs nous exhortent à « profiter des avantages » de cette « nouvelle frontière ». C’est un exemple classique de ce que mon collègue Celui de Mishra appelle le « cycle catastrophique » autour des nouvelles technologies. De même, la couverture médiatique de l’interaction homme-IA – qu’elle soit paranoïaque ou étoilée – a tendance à souligner sa nouveauté.

Dans un sens, c’est indéniablement nouveau. Les interactions avec ChatGPT peuvent sembler sans précédent, comme lorsqu’un technologie journaliste Je n’arrivais pas à empêcher un chatbot de lui déclarer son amour. À mon avis, cependant, la frontière entre les humains et les machines, en termes de manière dont nous interagissons les uns avec les autres, est plus floue que la plupart des gens voudraient l’admettre, et ce flou explique une grande partie du discours qui tourne autour de ChatGPT.

Lorsqu’on me demande de cocher une case pour confirmer que je ne suis pas un robot, je n’y réfléchis pas – bien sûr, je ne suis pas un robot. D’un autre côté, lorsque mon client de messagerie suggère un mot ou une phrase pour compléter ma phrase, ou lorsque mon téléphone devine le prochain mot que je m’apprête à envoyer, je commence à douter de moi. C’est ce que je voulais dire ? Cela me serait-il venu à l’esprit si l’application ne l’avait pas suggéré ? Suis-je en partie robot ? Ces grands modèles de langage ont été formés sur des quantités massives de langage humain « naturel ». Est-ce que cela rend les robots partiellement humains ?

Un message « captcha » typique comportant un carré à gauche, les mots « Je ne suis pas un robot » au milieu et trois flèches courbes interconnectées formant un demi-cercle.