Fermer

juin 18, 2024

Qu’est-ce qui se cache derrière la nomination par OpenAI d’un ancien directeur de la NSA à son conseil d’administration

Qu’est-ce qui se cache derrière la nomination par OpenAI d’un ancien directeur de la NSA à son conseil d’administration



OpenAI a nommé un ancien directeur de la National Security Agency (NSA) des États-Unis à son conseil d’administration pour l’aider à superviser la sûreté et la sécurité.

La nomination par l’entreprise du général à la retraite de l’armée américaine Paul M. Nakasone est probablement motivée par la nécessité de générer des bénéfices, a déclaré un analyste de Gartner.

Avivah Litan, éminent analyste vice-président dont les principaux domaines de couverture incluent la sécurité de l’IA et la blockchain, n’a que des éloges pour son expérience, mais a prédit que son séjour dans l’entreprise ne durerait pas longtemps.

Nakasone a servi comme commandant du US Cyber ​​Command (USCYBERCOM), l’un des 11 commandements de combat unifiés du département américain de la Défense (DOD) ; en tant que directeur de la NSA ; et en tant que chef du Service central de sécurité de mai 2018 à février 2024.

En plus de siéger au conseil d’administration d’OpenAI, Nakasone sera également un membre clé du conseil d’administration récemment formé de la société. Comité de sûreté et de sécuritéun organe de gouvernance qui supervisera la sûreté et la sécurité de ses modèles d’IA, alors qu’il se lance dans le développement d’un successeur à GPT-4.

« La sécurité des systèmes OpenAI – de la protection des grands supercalculateurs de formation à l’IA que nous exploitons à la sécurisation de nos pondérations de modèles sensibles et des données qui nous sont confiées par les clients – est essentielle à la réalisation de notre mission. À mesure que la technologie de l’IA devient plus performante sur la voie de l’intelligence artificielle générale (AGI), nous devenons de plus en plus résilients face à des menaces de plus en plus sophistiquées au fil du temps », a déclaré la société dans un communiqué de presse.

Il ajoute que « les connaissances de Nakasone contribueront également aux efforts d’OpenAI pour mieux comprendre comment l’IA peut être utilisée pour renforcer la cybersécurité en détectant et en répondant rapidement aux menaces de cybersécurité ».

Cette nomination intervient à un moment où la controverse fait rage contre Sam Altman, le PDG de l’entreprise. Le 30 mai, Computerworld a demandé Sam Altman d’OpenAI devient-il un handicap pour Microsoft ?, notant que « la réputation d’Altman a été ternie par les affirmations selon lesquelles il aurait utilisé la voix de l’actrice Scarlett Johansson comme interface audio pour un assistant personnel d’IA (nommé Sky) sans sa permission. » Altman a nié les affirmations de Johannson, mais OpenAI a supprimé la voix de Sky sans aucune explication.

Un jour auparavant, Helen Toner, ancienne membre du conseil d’administration d’OpenAI jeter une nouvelle lumière sur le licenciement d’Altman l’année dernière. Toner était l’un des quatre membres du conseil d’administration à avoir voté pour Licenciement d’Altman en novembre 2023avant d’être elle-même évincée à son retour une semaine plus tard.

Litan de Gartner a déclaré qu’OpenAI « s’efforce de regagner la confiance des observateurs sceptiques, et pour cause. Dans quelle mesure se soucient-ils réellement de la confiance et de la sécurité ? Il est difficile de savoir ce qui est vrai et ce qui ne l’est pas. Une chose qui est toujours vraie est que la cupidité est généralement le principal motif de ces entreprises. Les hyperscalers, OpenAI et tous ces autres groupes ne font que s’avancer sur un territoire très dangereux. Ils disent : « Oh, gouvernement, vous devez vous en occuper ». Ils savent que cela ne marchera pas. Le gouvernement ne peut pas s’occuper des médias sociaux, alors comment va-t-il s’occuper de l’IA ?

L’essentiel, a-t-elle déclaré, est que l’entreprise veut « gagner de l’argent aux dépens de toutes ces inconnues et faire appel à Nakasone contribue à leur donner de la crédibilité. C’est une personne très crédible, et je suis franchement heureux qu’il soit là. Il a une grande expérience. Il comprend la cybersécurité, il comprend l’IA, il comprend la bureaucratie. Mais ce n’est pas assez. Il n’y en aura jamais assez.

Le train, a ajouté Litan, « est en marche et il n’y a aucun moyen de l’arrêter ».

Quant à la durée pendant laquelle Nakasone sera membre du conseil d’administration d’OpenAI, elle prédit probablement un ou deux ans et pas plus. « C’est bien de l’avoir là-bas, mais je doute qu’une personne expérimentée et très crédible puisse faire autant. »

Nakasone, a-t-elle dit, n’aura tout simplement pas « autant de pouvoir simplement parce qu’il fait partie du conseil d’administration et de ce comité. Les développeurs et les responsables des modèles d’IA ne vont pas toujours écouter leur conseil d’administration. Le conseil d’administration ne saura pas ce qui se passe la moitié du temps, si vous me le demandez. Les entreprises américaines font généralement très attention à ce qu’elles disent au conseil d’administration.

Litan a décrit le lancement du comité de sûreté et de sécurité et sa nomination comme « de belles initiatives sur le papier, mais je ne pense tout simplement pas qu’elles seront aussi efficaces. Le profit est ici le principal facteur de motivation.




Source link