Dans le cadre de l’accord de principe de l’UE sur une première réglementation mondiale sur l’IA

Après des discussions marathon la semaine dernière, l’Union européenne a obtenu un accord de principe sur les termes de la loi sur l’IA, rapprochant ainsi la réglementation historique de sa promulgation.
Bien qu’ils n’aient pas respecté la date limite initiale de mercredi, les législateurs ont réussi à conclure un accord vendredi soir, juste à temps pour le week-end. S’ils ne l’avaient pas fait, la loi aurait été reportée à l’année prochaine, potentiellement après les élections européennes de juin.
Il n’a pas été facile d’essayer d’atteindre une cible mouvante.
Présentée comme la première législation complète au monde sur l’intelligence artificielle, la loi a été proposée pour la première fois en 2021. Au cours des années qui ont suivi, le développement rapide de l’IA a provoqué diverses divisions dans les plans réglementaires du bloc.
La dernière fracture est apparue après le lancement explosif de ChatGPT l’année dernière. Le OpenAI Le chatbot a suscité la panique et l’enthousiasme quant à la puissance des modèles de base, parfois appelés systèmes d’IA « à usage général ». Les pays de l’UE étaient divisés sur la meilleure manière de les superviser.
La France, l’Allemagne et l’Italie se sont opposées aux projets de règles contraignantes, craignant qu’elles n’entravent l’innovation et leurs entreprises nationales. Le trio a proposé de suivre plutôt des codes de conduite.
Un autre point de friction était les restrictions sur la surveillance biométrique. Les législateurs européens voulaient une interdiction pure et simplealors que les gouvernements avaient demandé une exemption en matière de sécurité nationale.
Approche basée sur le risque des systèmes d’IA
À la dernière minute, les législateurs ont conclu un accord provisoire sur les principes de la loi, centré sur ce qu’ils appellent une approche basée sur les risques. Cela suit une structure de catégories à plusieurs niveaux :
- Risque minimal — stels que les systèmes de recommandation basés sur l’IA ou les filtres anti-spam. Pass gratuit et absence d’obligations.
- Risque élevé — des systèmes tels que infrastructures critiques, dispositifs médicaux, accès aux établissements d’enseignement ou pour le recrutement de personnes, forces de l’ordre, etc. Doit se conformer à des exigences telles que des systèmes d’atténuation des risques, des ensembles de données de haute qualité, la journalisation des activités, une documentation détaillée, une surveillance humaine et un haut niveau de robustesse et de cybersécurité.
- Risque inacceptable — la loi interdira systèmes considérés comme une menace évidente pour les droits fondamentaux des personnes. Cela inclut « les systèmes ou applications d’IA qui manipulent le comportement humain pour contourner le libre arbitre des utilisateurs ». Par exemple, la notation sociale des gouvernements ou des entreprises, ou les systèmes permettant de « catégoriser les personnes en temps réel ». Il existe cependant une « exception étroite » pour l’identification biométrique à distance à des fins répressives.
- Risque spécifique de transparence — les utilisateurs doivent être conscients qu’ils interagissent avec l’IA, et les deep fakes ou le contenu généré par l’IA doivent être étiquetés comme tels.
Comme d’habitude pour les réglementations technologiques européennes, de lourdes amendes seront infligées à ceux qui ne s’y conforment pas. Ces montants iront de 35 millions d’euros (ou 7 % du chiffre d’affaires annuel mondial, selon le montant le plus élevé) pour les violations sur les applications interdites, à 7,5 millions d’euros (ou 1,5 %) pour la fourniture d’informations incorrectes.
En outre, la loi introduit des règles spécifiques pour modèles d’IA à usage général. Pour les modèles très puissants susceptibles de présenter des risques systémiques, il y aura des « obligations contraignantes supplémentaires » qui seront « opérationnalisées par le biais de codes de pratiques élaborés par l’industrie, la communauté scientifique, la société civile et d’autres parties prenantes en collaboration avec la Commission ».
Nouveau bureau européen de l’IA
Même si l’application relèvera de la responsabilité de chaque État membre, la loi détermine également l’établissement d’un nouveau Bureau européen de l’IA au sein de la Commission européenne. Dans le même temps, le chef de l’industrie du bloc, Thierry Breton, a déclaré que la loi n’était pas seulement un règlement, mais une « rampe de lancement permettant aux startups et aux chercheurs européens de mener la course mondiale à l’IA ».
Historique!
L’UE devient le tout premier continent à fixer des règles claires pour l’utilisation de l’IA 🇪🇺
Le #AIAct est bien plus qu’un livre de règles : c’est une rampe de lancement permettant aux startups et aux chercheurs européens de mener la course mondiale à l’IA.
Le meilleur est à venir! 👍 pic.twitter.com/W9rths31MU
-Thierry Breton (@ThierryBreton) 8 décembre 2023
La disposition nécessitera désormais de nouvelles négociations… et il est encore temps de faire davantage de lobbying. Mais il existe désormais de fortes chances de parvenir à un accord complet avant les élections parlementaires européennes de l’année prochaine.
Il est toutefois peu probable que la loi entre en vigueur avant au moins 18 mois. À ce stade, le monde de l’IA pourrait être très différent.
Source link
