Fermer

octobre 30, 2023

Sommet sur la sécurité de l’IA : à quoi s’attendre alors que les dirigeants mondiaux se penchent sur la réglementation de l’IA

Sommet sur la sécurité de l’IA : à quoi s’attendre alors que les dirigeants mondiaux se penchent sur la réglementation de l’IA



Que faire face à ces risques, tant existentiels que quotidiens, est moins clair.

La première suggestion du gouvernement britannique est une « mise à l’échelle responsable des capacités » : demander à l’industrie de fixer ses propres seuils de risque, d’évaluer la menace que représentent ses modèles, de choisir de suivre des voies moins risquées et de préciser à l’avance ce qu’elle fera en cas de problème.

Au niveau national, le gouvernement britannique lui suggère, ainsi que d’autres pays, de surveiller ce que font les entreprises et peut-être d’exiger qu’elles obtiennent une licence pour certaines activités d’IA.

En ce qui concerne la collaboration et la réglementation internationales, des recherches supplémentaires sont nécessaires, affirme le gouvernement britannique. Il s’agit d’inviter d’autres pays à discuter de la manière dont ils peuvent travailler ensemble pour discuter des domaines de recherche les plus urgents et des domaines dans lesquels des idées prometteuses émergent déjà.

Qui participe au AI Safety Summit ?

Lorsque le gouvernement britannique a annoncé pour la première fois la tenue du sommet, son intention était d’inclure les « dirigeants des pays » des plus grandes économies du monde, aux côtés d’universitaires et de représentants d’entreprises technologiques à la pointe du développement de l’IA, en vue d’établir un nouvel agenda réglementaire mondial.

Cependant, une semaine ou deux avant le sommet, des rapports ont révélé que les dirigeants de plusieurs pays dotés d’une forte industrie de l’IA étaient peu susceptibles d’y assister, soulevant des doutes sur l’efficacité du sommet.

Le président français Emmanuel Macron ne sera pas là, et il est peu probable que le chancelier allemand Olaf Scholz se présente non plus, a rapporté le site d’information politique européen Politico.eu. Le président américain Joe Biden n’y participera pas non plus, mais la vice-présidente Kamala Harris pourrait le faire.

Même si certains des plus grands États membres de l’Union européenne se désengagent du sommet, le bloc dans son ensemble sera bien représenté. La présidente de la Commission européenne, Ursula von der Leyen, sera présente et, selon son calendrier officiel de fiançailles, elle prévoit de rencontrer le secrétaire général des Nations Unies, António Guterres, lors de l’événement.

Entre-temps, le calendrier de la vice-présidente de la Commission européenne, Věra Jourová, indique qu’elle y rencontrera le ministre sud-coréen des Sciences et des TIC, Lee Jong-ho.

Parmi la centaine de participants, Demis Hassabis, PDG de Google DeepMind, devrait figurer parmi la centaine de participants – une valeur sûre puisque la société a été fondée à Londres et y a son siège social.

Le gouvernement britannique a mis en avant les récentes décisions d’un certain nombre d’autres sociétés d’IA d’ouvrir des bureaux à Londres, notamment le développeur de ChatGPT OpenAI et Anthropic, dont le PDG Dario Amodei serait également présent. Palantir Technologies a également annoncé son intention de déplacer son siège européen au Royaume-Uni et enverrait un représentant à l’événement. Un représentant de Microsoft serait également présent, mais pas son PDG.

Où d’autre les orientations de l’IA sont-elles définies ?

L’AI Safety Summit du Royaume-Uni est loin d’être le seul lieu où les gouvernements et les entreprises tentent d’influencer la politique et le développement de l’IA.

L’une des premières grandes tentatives d’engagement en faveur d’une IA éthique dans l’entreprise a été la Appel à Rome. En 2020, Microsoft et IBM ont signé une initiative non confessionnelle du Vatican pour promouvoir six principes du développement de l’IA : transparence, inclusion, responsabilité, impartialité, fiabilité et sécurité/confidentialité.

Depuis, les initiatives législatives, réglementaires, industrielles et de la société civile se sont multipliées. Le La loi globale sur l’intelligence artificielle de l’Union européenne semblait en avance sur son temps et plein de bonnes intentions, mais a suscité des critiques et des appels à une action plus forte de la part des groupes de la société civile, notamment Surveillance d’État et syndicat des travailleurs des services UniEurope.

La Maison Blanche a également obtenu engagements volontaires envers les normes de sécurité de l’IA de sept des plus grands développeurs d’IA, le Administration du cyberespace de Chine a publié des réglementations sur la formation à l’IA générative, et La ville de New York a fixé des règles sur l’utilisation de l’IA lors du recrutement.

Même le Conseil de sécurité des Nations Unies a débattu de la question.

Les développeurs de logiciels s’y joignent également. Le Frontier Model Forum est la tentative de l’industrie de devancer les contrôles étatiques ou internationaux en démontrant que ses membres – notamment Microsoft, Google, Anthropic et OpenAI – peuvent être de bons citoyens du monde grâce à l’autorégulation.

Toute cette activité place le UK AI Safety Summit dans un environnement hautement compétitif, où les législateurs rivalisent d’une part pour créer un environnement sûr pour leurs citoyens, libre de la menace d’une discrimination automatisée opaque ou même – si l’on veut que les critiques les plus alarmistes soient ce que l’on croit – l’extinction mondiale, tout en permettant aux entreprises d’innover et de bénéficier des augmentations de productivité que l’IA peut permettre.

Il est peu probable que la décision soit prise de si tôt, et encore moins cette semaine.




Source link

octobre 30, 2023