Fermer

mai 22, 2024

Les nouveaux engagements mondiaux en matière de sécurité de l’IA font écho à l’approche fondée sur les risques de l’UE

Les nouveaux engagements mondiaux en matière de sécurité de l’IA font écho à l’approche fondée sur les risques de l’UE


La semaine a été chargée pour les décideurs politiques en matière d’IA. L’UE a conclu un accord sur sa loi sur l’IA. Pendant ce temps, à Séoul, en Corée du Sud, 16 entreprises de premier plan ont signé les « Frontier AI Safety Commitments » et un groupe de pays ont promis de travailler ensemble pour atténuer les risques associés à cette technologie.

Dire que l’année écoulée a été celle où le monde s’est réveillé IA serait un euphémisme. Le lancement de ChatGPT fin 2022 a catapulté une technologie auparavant en coulisses dans les conversations autour de la table des dîners et dans les salles parlementaires.

Et tout d’un coup, un avenir apocalyptique gouverné par les machines est passé du concept de science-fiction à un scénario potentiel du monde réel. Du moins si l’on en croit les nombreux chercheurs, groupes d’intérêt et même les PDG d’entreprises d’IA qui ont pétitions apocalyptiques signées ralentir le développement de la technologie jusqu’à ce que des garanties suffisantes puissent être mises en œuvre.

Cela ne veut pas dire que de telles préoccupations semblent avoir contribué à réduire la rapidité avec laquelle les entreprises technologiques s’incitent mutuellement à déployer de nouveaux produits d’IA.

Atténuer les risques liés à l’IA de nature variable

Le <3 de la technologie européenne

Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!

Au-delà de l’extinction par algorithme, il existe également des menaces plus immédiates liées à la prolifération de l’IA, telles que les préjugés, la surveillance et la diffusion massive de désinformations. À cet effet, les politiciens ont au moins tenté de réfléchir à ce qui peut réellement être fait pour contenir d’une manière ou d’une autre un cheval qui s’est déjà enfui, à en juger par les apparences.

À la suite du sommet AI de Séoul qui s’est tenu cette semaine en Corée du Sud, plusieurs pays ont signé aujourd’hui un accord pour travailler ensemble sur les seuils de risques graves liés à l’IA, y compris dans la fabrication d’armes biologiques et chimiques. Les signataires européens sont l’Allemagne, la France, l’Italie, l’Espagne, la Suisse, le Royaume-Uni, la Turquie et les Pays-Bas, ainsi que l’UE dans son ensemble.

Cet accord fait suite aux « Frontier AI Safety Commitments », auxquels ont adhéré mardi 16 des sociétés et organisations d’IA les plus influentes au monde. Les signataires, parmi lesquels figure la start-up française Mistral AI, s’engagent à identifier, évaluer et gérer volontairement (c’est-à-dire sans application) les risques tout au long du cycle de vie de l’IA.

Cela comprend la définition de seuils pour les risques intolérables, la mise en œuvre de mesures d’atténuation des risques et l’établissement de processus pour gérer les situations où les risques dépassent les seuils définis.

Les cycles de régulation de l’IA pourraient-ils s’accélérer ?

Le sommet AI de Séoul a lieu six mois après le sommet sur la sécurité de l’IA à Bletchley Park au Royaume-Uni. Paris accueillera le prochain rassemblement – ​​l’AI Action Summit – en février 2025. Abandonner la « sécurité » au profit de « l’action » pourrait avoir quelque chose à voir avec la volonté du président Macron de faire de Paris «la ville de l’intelligence artificielle

« Dans le contexte géopolitique actuel, les complexités de l’IA ne peuvent être séparées du débat réglementaire : elles doivent être abordées. La collaboration mondiale est cruciale pour garantir que l’IA soit déployée de manière sûre et responsable », a déclaré Mark Rodseth, vice-président de la technologie pour la région EMEA chez CI&T.

« Compte tenu des progrès rapides de l’IA, nous avons besoin de cycles de réglementation beaucoup plus courts. Cela sera un défi, car les gouvernements et les autorités de régulation devront accélérer leur rythme », ajoute-t-il.

C’est quelque chose qui pourrait s’avérer délicat pour l’UE en particulier, étant donné les cycles réglementaires du bloc axés sur le consensus. Néanmoins, cette semaine, les ministres de l’UE a signé la loi historique sur l’IAqui entrera en vigueur le mois prochain.

« Une grande distinction entre la loi européenne sur l’IA et les engagements Frontier AI Safety Commitments est que ces derniers permettent aux organisations de déterminer leurs propres seuils de risque », a déclaré à TNW Maria Koskinen, responsable des politiques d’IA chez Saidot, une start-up finlandaise de gouvernance de l’IA.

Cependant, étant donné que les entreprises sont invitées à expliquer comment elles catégorisent les risques qui seraient « jugés intolérables » en seuils et comment elles envisagent d’atténuer ces risques, cela semble signifier que les entreprises et les gouvernements du monde entier tirent des leçons de l’UE. L’approche basée sur les risques d’AI Act, a ajouté Koskinen.

S’ils réussiront dans leur quête, seul le temps nous le dira.




Source link