Fermer

août 22, 2025

PDG de Microsoft AI: L’IA dangereuse et apparemment consciente est proche

PDG de Microsoft AI: L’IA dangereuse et apparemment consciente est proche


L’IA qui semble être consciente pourrait arriver dans les prochaines années, constituant une menace « dangereuse » pour la société, explique un chef d’IA.

Microsoft IA PDG Mustafafa Suleyman, 41 ans, a écrit dans un essai personnel Publié plus tôt cette semaine que l’IA apparemment consciente (SCAI), qui est l’intelligence artificielle si avancée qu’elle peut convaincre les humains qu’il est capable de formuler ses propres pensées et croyances, n’est qu’à quelques années.

En rapport: Microsoft affirme que son IA est meilleure que les médecins pour diagnostiquer les patients, mais «vous avez certainement besoin de votre médecin»

Même s’il y a « zéro preuve » que l’IA est consciente pour le moment, c’est « inévitable et importun » que Scai pourrait apparaître dans les deux à trois prochaines années, a écrit Suleyman.

L ‘ »inquiétude » centrale « de Suleyman est que Scai pourrait sembler empathique et agir avec une plus grande autonomie, ce qui conduirait les utilisateurs de SCAI à » commencer à croire en l’illusion de l’AIS en tant qu’entités conscientes « au point qu’ils plaident Droits d’IA et même la citoyenneté de l’IA. Cela marquerait un « tour dangereux » pour la société, où les gens s’attachent à l’IA et déconnectés de la réalité.

« Cette évolution sera un tournant dangereux dans les progrès de l’IA et mérite notre attention immédiate », a écrit Suleyman dans l’essai. Il a ajouté plus tard que l’IA « déconnecte les gens de la réalité, effilant les liens et les structures sociaux fragiles, déformant des priorités morales pressantes ».

En rapport: «  Beaucoup de place pour les startups  »: c’est là que les entrepreneurs devraient rechercher des opportunités commerciales dans l’IA, selon le PDG de l’IA de Microsoft

Suleyman a dit qu’il devenait « de plus en plus préoccupé » Psychose d’IAou les humains éprouvant de fausses croyances, des délires ou des sentiments paranoïaques après des interactions prolongées avec les chatbots d’IA. Des exemples de psychose de l’IA comprennent les utilisateurs qui forment une relation romantique avec un chatbot d’IA ou se sentant comme si elles ont des superpuissances après avoir interagi avec elle.

La psychose de l’IA s’appliquera à plus que de simples personnes qui risquent de problèmes de santé mentale, a prédit Suleyman. Il a dit que les utilisateurs devaient « de toute urgence » discuter « des garde-corps » autour de l’IA pour protéger les gens des effets négatifs de la technologie.

PDG de Microsoft AI, Mustafa Suleyman. Photographe: David Ryder / Bloomberg via Getty Images

Suleyman est devenu PDG de l’IA de Microsoft l’année dernière après avoir co-fondé et dirigé sa propre startup AI pendant deux ans appelée Inflexion AI, par Liendin. Microsoft est le deuxième plus précieuse Société dans le monde, avec une capitalisation boursière de 3,78 billions de dollars au moment de la rédaction.

En rapport: Le PDG de Microsoft AI dit que presque tout le contenu sur Internet est un jeu équitable pour la formation IA

Suleyman a également cofondé Deepmind, une société de recherche et développement de l’IA acquis par Google pour environ 600 millions de dollars en 2014.

Suleyman n’est pas le premier PDG à avertir des effets néfastes de l’IA. Dans une conférence dans une réserve fédérale conférence Le mois dernier, à Washington, DC, le PDG d’Openai, Sam Altman, a déclaré que la « dépassement émotionnel » sur Chatgpt le maintenait la nuit.

« Les gens comptent trop sur Chatgpt », « Altman dit à l’événement. « C’est vraiment mal avec moi. »




Source link