Site icon Blog ARC Optimizer

Chatgpt nous rend vraiment stupides et paresseux?

Chatgpt nous rend vraiment stupides et paresseux?


Depuis les débuts de Chatgpt en 2022, génératif IA Entré rapidement notre travail, nos études et nos vies personnelles, aidant à accélérer la recherche, la création de contenu, et plus à un rythme sans précédent.

L’enthousiasme pour les outils d’IA génératifs a naturellement gagné du terrain vivre un taux d’adoption encore plus rapide que Internet ou PCSmais les experts avertissent que nous devrions procéder à la prudence. Comme pour chaque nouvelle technologie, l’IA génératrice peut lancer la société de plusieurs façons, mais elle peut également apporter des conséquences si elle n’est pas contrôlée.

L’une de ces voix est Natasha Govender-Ropert, chef de l’IA pour les délits financiers à Rabobank. Elle a rejoint le fondateur de TNW, Boris Veldhuijzen Van Zanten, dans le dernier épisode de «Kia’s Next Big Drive» pour parler de l’éthique, du biais de l’IA et si nous externalisons notre cerveau aux machines.

Découvrez l’interview complète – Enregistré en route vers TNW2025 dans EV9 tout électrique de Kia:

Une question qui devrait être dans nos esprits est, alors que nous nous tournons de plus en plus vers une IA générative pour les réponses, quel impact cette dépendance pourrait-elle avoir sur notre propre intelligence?

Un récent Étude par le MIT Dans l’utilisation de Chatgpt pour écrire des essais, s’est éteint dans une multitude de titres sensationnalistes, des «chercheurs disent que l’utilisation de chatgpt peut pourrir votre cerveau» à «Chatgpt pourrait vous rendre paresseux et stupide». Est que vraiment L’affaire?

Votre cerveau sur Gen Ai

Voici quoi en fait Arrivé: les chercheurs ont donné à 54 étudiants de la région de Boston une tâche d’essai. Un groupe a utilisé Chatgpt, un autre a utilisé Google (sans l’aide de l’IA), et le troisième a dû écrire en utilisant rien d’autre que leur cerveau. Pendant qu’ils écrivaient, leur activité cérébrale a été mesurée à l’aide d’électrodes.

Après trois séances, le groupe cerveau uniquement a montré les niveaux de connectivité mentale les plus élevés. Utilisateurs de ChatGpt? Le plus bas. Il semblait que les gens assistés par l’IA se sont navigués sur le pilote automatique tandis que les autres devaient réfléchir plus dur pour obtenir des mots sur la page.

Pour le quatrième tour, les rôles se sont inversés. Le groupe cerveau uniquement a pu utiliser Chatgpt cette fois, tandis que le groupe AI a dû aller en solo. Le résultat? Les premiers ont amélioré leurs essais. Ce dernier a eu du mal à se souvenir de ce qu’ils avaient écrit en premier lieu.

Dans l’ensemble, l’étude a révélé qu’au cours des quatre mois pendant lesquels il a été mené, les participants au cerveau ont surpassé les autres groupes en termes de niveaux neuronaux, linguistiques et comportementaux, tandis que ceux qui utilisent Chatgpt ont passé moins de temps sur leurs essais, simplement frapper la copie / coller à la place.

Les professeurs d’anglais qui ont examiné leur travail ont déclaré qu’il manquait de pensée originale et de «âme». Cela semble alarmant, non? Peut-être, mais la vérité est plus compliquée que les gros titres sensationnalistes ne le suggèrent.

Les résultats concernaient moins la désintégration du cerveau et plus les raccourcis mentaux. Ils ont montré que la surextente sur les LLM peut réduire l’engagement mental. Mais avec une utilisation active et réfléchie, ces risques peuvent être évités. Les chercheurs ont également souligné que, bien que l’étude ait soulevé des questions intéressantes pour des recherches plus approfondies, il était également beaucoup trop petit et simple pour tirer des conclusions définitives.

La mort de la pensée critique?

Bien que les résultats (qui doivent encore être évalués par des pairs) nécessitent certainement des recherches supplémentaires et une réflexion plus approfondie sur la façon dont nous devrions utiliser cet outil dans des contextes éducatifs, professionnels et personnels, ce qui pourrait réellement pourrir notre cerveau, ce sont les titres TLDR conçus pour les clics sur la précision.

Les chercheurs semblent partager ces préoccupations. Ils ont créé un Site Web avec une page FAQ où ils ont exhorté les journalistes à ne pas utiliser un langage inexact et sensationnalise les résultats.

Source: FAQ pour «Votre cerveau sur Chatgpt: Accumulation de dette cognitive lorsque vous utilisez un assistant AI pour la tâche d’écriture d’essais» https://www.brainonllm.com/faq

Ironiquement, ils ont attribué le «bruit» résultant aux journalistes utilisant les LLM pour résumer l’article et ajouté: «Votre commentaire humain est le bienvenu, si vous lisez l’article ou des parties de celui-ci. De plus, en rappel, l’étude a une liste de limitations que nous énumérons très clairement dans l’article et sur la page Web.»

Il y a deux conclusions que nous pouvons tirer en toute sécurité de cette étude:

  • Plus de recherches sur la façon dont les LLM doivent être utilisées dans des milieux éducatifs sont essentiels
  • Les étudiants, les journalistes et le public dans son ensemble doivent rester essentiels sur les informations que nous recevons, que ce soit des médias ou une IA générative

Des chercheurs de l’Université VU Amsterdam Craignent que, avec notre dépendance croissante à l’égard des LLM, ce qui pourrait vraiment être en danger est la pensée critique, ou notre capacité et notre volonté de remettre en question et de changer les normes sociales.

«Les élèves peuvent devenir moins susceptibles de mener des processus de recherche étendus ou complets eux-mêmes, car ils se remettent au ton faisant autorité et éclairé de la production Genai. Ils peuvent être moins susceptibles de remettre en question – ou même d’identifier – les perspectives non déclarées sous-jacentes à la production, n’ayant pas pris en compte de qui sont les perspectives.»

Ces risques indiquent un problème plus profond dans l’IA. Lorsque nous prenons ses sorties à valeur nominale, nous pouvons ignorer les biais intégrés et les hypothèses incontestées. S’attaquer à cela nécessite non seulement des correctifs techniques, mais une réflexion critique sur ce que nous entendons par biais en premier lieu.

Ces questions sont au cœur des travaux de Natasha Govender-Ropert, chef de l’IA pour les délits financiers à Rabobank. Son rôle se concentre sur la construction d’une IA responsable et digne de confiance en éliminant les préjugés. Mais comme elle l’a souligné au fondateur de TNW, Boris Veldhuijzen Van Zanten dans «Kia’s Next Big Drive», le biais est un terme subjectif et doit être défini pour chaque individu et chaque entreprise.

« Le biais n’a pas de définition cohérente. Ce que je considère comme biaisé ou impartial peut être différent de quelqu’un d’autre. C’est quelque chose que nous, en tant qu’humains et en tant qu’individus, devons décider. Nous devons faire un choix et dire que c’est la norme de principes que nous appliquerons lorsque nous examinerons nos données », a déclaré Govender-Ropert.

Les normes et les préjugés sociaux ne sont pas fixes mais en constante évolution. À mesure que la société évolue, les données historiques sur lesquelles nous formons nos LLM ne le font pas. Nous devons rester critiques et contester les informations que nous recevons, que ce soit de nos collègues humains ou de nos machines, pour construire une société plus juste et équitable.




Source link
Quitter la version mobile