OpenAI affirme que ChatGPT pourrait provoquer une dépendance émotionnelle : expert

Quand le dernière version de ChatGPT est sorti en mai, il était accompagné de quelques voix émotionnelles qui ont rendu le chatbot ça a l’air plus humain que jamais.
Les auditeurs ont appelé les voix « affectueux, » « humainement convaincante, » et « sexy. » Les utilisateurs des médias sociaux ont déclaré qu’ils étaient « tomber amoureux » avec ça.
Mais jeudi, le créateur de ChatGPT, OpenAI a publié un rapport confirmant que les améliorations de type humain de ChatGPT pourraient conduire à une dépendance émotionnelle.
« Les utilisateurs pourraient nouer des relations sociales avec l’IA, réduisant ainsi leur besoin d’interaction humaine, ce qui bénéficierait potentiellement aux individus seuls mais pourrait affecter des relations saines », indique le rapport.
ChatGPT peut désormais répondre aux questions voix à voix avec la possibilité de mémoriser les détails clés et de les utiliser pour personnaliser la conversation, a noté OpenAI. L’effet ? Parler à ChatGPT semble désormais très proche de parler à un être humain – si cette personne ne vous a pas jugé, ne vous a jamais interrompu et ne vous a pas tenu responsable de ce que vous avez dit.
Ces normes d’interaction avec une IA pourraient changer la façon dont les êtres humains interagissent les uns avec les autres et « influencer les normes sociales », selon le rapport.
Dites bonjour à GPT-4o, notre nouveau modèle phare qui peut raisonner en temps réel sur l’audio, la vision et le texte : https://t.co/MYHZB79UqN
La saisie de texte et d’images sera déployée aujourd’hui dans l’API et ChatGPT avec voix et vidéo dans les semaines à venir. pic.twitter.com/uuthKZyzYx
-OpenAI (@OpenAI) 13 mai 2024
OpenAI a déclaré que les premiers testeurs avaient parlé du nouveau ChatGPT d’une manière qui montrait qu’ils pouvaient établir un lien émotionnel avec lui. Les testeurs ont dit des choses telles que « C’est notre dernier jour ensemble », ce qui, selon OpenAI, exprime des « liens partagés ».
Les experts, quant à eux, se demandent s’il est temps de réévaluer le réalisme de ces voix.
« Est-il temps de faire une pause et de réfléchir à la manière dont cette technologie affecte les interactions et les relations humaines ? » Alon Yamin, cofondateur et PDG du vérificateur de plagiat AI Fuites de copiea déclaré à Entrepreneur.
« [AI] ne devrait jamais remplacer une véritable interaction humaine », a ajouté Yamin.
Pour mieux comprendre ce risque, OpenAI a déclaré que davantage de tests sur de plus longues périodes et des recherches indépendantes pourraient aider.
Un autre risque qu’OpenAI a souligné dans le rapport était Hallucinations de l’IA ou des inexactitudes. Une voix humaine pourrait inspirer davantage de confiance aux auditeurs, ce qui entraînerait moins de vérification des faits et davantage de désinformation.
En rapport: Les nouveaux résultats de recherche IA de Google sont déjà hallucinants
OpenAI n’est pas la première entreprise à commenter l’effet de l’IA sur les interactions sociales. La semaine dernière, Mark Zuckerberg, PDG de Meta a déclaré que Meta a vu de nombreux utilisateurs se tourner vers l’IA pour un soutien émotionnel. L’entreprise est également aurait essayé de payer des millions à des célébrités pour cloner leurs voix pour des produits d’IA.
La version GPT-4o d’OpenAI a déclenché une conversation sur la sécurité de l’IA, à la suite du démissions très médiatisées de chercheurs de premier plan comme l’ancien scientifique en chef Ilya Sutskever.
Cela a également conduit à Scarlett Johansson interpelle l’entreprise pour avoir créé une voix d’IA qui, dit-elle, sonnait « étrangement similaire » au sien.
Source link