Fermer

avril 15, 2024

Légiférer ou ne pas légiférer ? Comment l’UE et le Royaume-Uni diffèrent dans leur approche de l’IA

Légiférer ou ne pas légiférer ?  Comment l’UE et le Royaume-Uni diffèrent dans leur approche de l’IA



Le boom de intelligence artificielle a déclenché une frénésie réglementaire à travers le monde – et L’Europe  est à l’avant-garde des évolutions.

L’UE et le ROYAUME-UNI tentent de trouver l’équilibre insaisissable entre tirer parti de la croissance de l’IA et atténuer les risques potentiels – mais leurs approches diffèrent considérablement.

Le premier a opté pour une approche concrète et basée sur les risques, tandis que le second a promis une position « pro-innovation ». Cependant, avec l’annonce selon laquelle le gouvernement britannique est en train d’élaborer de nouvelles règles pour réglementer la technologie, cela pourrait être sur le point de changer.

L’approche plus stricte et plus prudente de l’UE apparaît clairement dans la Loi sur l’IAla première loi globale au monde sur l’intelligence artificielle.

L’approche descendante et horizontale de la Loi établit des obligations claires de conformité dans toutes les applications et tous les secteurs. Il établit également le Parlement européen IA Bureau, qui supervisera la mise en œuvre de la loi.

En revanche, le Royaume-Uni n’a pas encore opté pour une législation sur mesure. Au lieu de cela, il a proposé un cadre d’orientation pour les organismes de réglementation existants. Pour cette raison, le gouvernement a promis 10 millions de livres sterling pour préparer et perfectionner les régulateurs afin qu’ils puissent évaluer les opportunités et les risques associés à cette technologie.

Le Royaume-Uni suit également une stratégie verticale. Son objectif est d’évaluer les risques secteur par secteur selon cinq principes :

  • Sûreté, sécurité et robustesse.
  • Transparence et explicabilité appropriées.
  • Justice.
  • Responsabilité et gouvernance.
  • Contestabilité et réparation.

« En adoptant une approche agile et spécifique à un secteur, nous avons commencé à maîtriser immédiatement les risques, ce qui à son tour ouvre la voie au Royaume-Uni pour devenir l’un des premiers pays au monde à récolter les bénéfices de l’IA en toute sécurité », Michelle Donelan, secrétaire d’État chargé de la Science, de l’Innovation et de la Technologie, dit en février.

L’approche européenne fondée sur les risques

Les législateurs européens estiment en revanche qu’il s’agit d’une approche basée sur les risques et que faire pression pour une IA digne de confiance cela libérera l’avantage compétitif de l’Europe.

Les règles du bloc ciblent les systèmes d’IA en fonction des niveaux de risque : risque inacceptable, élevé, limité et minimal. Les outils d’IA qui menacent la sécurité et les droits de l’homme, comme le score social, sont considérés comme inacceptables et sont donc totalement interdits.

Pour les autres catégories, le concept est simple : plus le risque est élevé, plus les règles sont strictes. Les systèmes à haut risque, par exemple, incluent des technologies d’IA qui peuvent être utilisées dans les domaines de l’application de la loi, des soins de santé et des infrastructures critiques.

La loi sur l’IA s’applique à toutes les sociétés d’IA (au sein ou en dehors de l’UE) exerçant leurs activités dans le bloc. Les violations des règles peuvent entraîner des amendes pouvant aller jusqu’à 7 % du chiffre d’affaires global d’une entreprise.

En revanche, le Royaume-Uni vise actuellement des accords volontaires sur la sécurité de l’IA avec des entreprises et des pays clés.

Légiférer ou ne pas légiférer ?

Les critiques ont exprimé leurs inquiétudes concernant la loi sur l’IA, craignant que les règles strictes pourraient entraver l’innovation. Les entreprises européennes ont également soulevé des objectionsavertissant que l’UE pourrait perdre sa compétitivité dans ce domaine.

Mais le Royaume-Uni pourrait également s’écarter d’ici peu de sa stratégie pro-innovation et de laissez-faire.

Le gouvernement commence à rédiger sa propre législation sur l’intelligence artificielle, selon des sources proches du dossier a déclaré au Financial Times. Le règlement limiterait très probablement le développement de grands modèles linguistiques (LLM) et obligerait les entreprises développant une IA avancée à partager leurs algorithmes avec le gouvernement.

Les préoccupations connexes vont de l’abus potentiel à la manipulation du marché.

« Le défi essentiel auquel nous sommes confrontés est de savoir comment exploiter cette technologie extrêmement passionnante pour le bénéfice de tous, tout en nous protégeant contre l’exploitation potentielle du pouvoir de marché et contre les conséquences imprévues. » dit Sarah Cardell, PDG de l’Autorité britannique de la concurrence et des marchés (CMA).

L’un des thèmes de la conférence TNW de cette année est Ren-AI-ssance : la renaissance alimentée par l’IA. Si vous souhaitez approfondir tout ce qui concerne l’intelligence artificielle, ou simplement vivre l’événement (et saluer notre équipe éditoriale), nous avons quelque chose de spécial pour nos fidèles lecteurs. Utilisez le code TNWXMEDIA à la caisse pour obtenir 30 % de réduction sur votre carte d’affaires, passe investisseur ou des packages de démarrage (Amorcer & Augmenter).




Source link