Fermer

août 1, 2024

Loi européenne sur l’IA : garde-fou judicieux ou tueur d’innovation ?

Loi européenne sur l’IA : garde-fou judicieux ou tueur d’innovation ?



La réglementation de l’IA dans l’Union européenne devient sérieuse. Le texte de la loi européenne sur l’IA a été publié au Journal officiel de l’UE le 12 juillet 2024, et l’ensemble des règles relatives au développement et à l’utilisation des outils d’IA est officiellement entré en vigueur début août. Les mesures entrent en vigueur par étapes : les entreprises concernées doivent respecter les premières règles en seulement six mois.

Dans le secteur, la réglementation de l’IA suscite des sentiments mitigés. Même si certains accueillent favorablement garde-fous pour une utilisation correcte des outils d’IA, d’autres mettent en garde contre un monstre bureaucratique qui y est associé et craignent que les règles ne ralentissent la poursuite de l’innovation. Lisez les premiers commentaires sur le lancement de l’AI Act ici.

Bitkom : la loi sur l’IA ne doit pas devenir une impasse

Pour Ralf Wintergerst, président de l’association numérique allemande Bitkom, de nombreuses questions restent sans réponse même après l’entrée en vigueur de la loi, tant au niveau national qu’européen. « Que l’Allemagne et l’Europe deviennent des pôles d’innovation en matière d’intelligence artificielle ou soient à la traîne dépend essentiellement de la conception et de la mise en œuvre ultérieures de la loi sur l’IA. La mise en œuvre ne doit pas devenir une impasse pour les entreprises : Une longue insécurité juridique, des responsabilités floues et des processus bureaucratiques complexes dans la mise en œuvre de la loi sur l’IA entraveraient l’innovation européenne en matière d’IA. L’objectif doit être de faire progresser systématiquement l’utilisation de l’IA, tant dans les entreprises et l’administration que dans la société. Cela ne peut réussir que si la mise en œuvre est effectuée avec peu de bureaucratie et de manière pratique », a-t-il déclaré.

Wintergerst appelle le gouvernement fédéral allemand à soumettre prochainement une proposition de loi nationale d’application de la loi sur l’IA. Les entreprises doivent savoir à quoi s’attendre. Concrètement, le président de Bitkom exige : « En plus de la nomination d’une autorité nationale centrale, il faut que les responsabilités soient également clairement définies entre les organismes nationaux de surveillance du marché et d’évaluation de la conformité. En outre, toutes les autorités compétentes doivent disposer de suffisamment de personnel et de ressources pour mener à bien leurs tâches. Enfin et surtout, les PME et les startups en particulier devraient être soutenues par une conception sur mesure des laboratoires d’IA du monde réel prévus et par une assistance pratique des autorités dans la gestion de la loi sur l’IA.

TÜV : De meilleures opportunités pour l’IA made in Europe

L’association TÜV, qui se concentre sur le développement de normes de sécurité numérique, salue l’entrée en vigueur de la loi européenne sur l’IA et souligne que les règles créeront un cadre juridique pour une IA sûre et fiable. « L’AI Act offre la possibilité de se protéger contre les effets négatifs de l’intelligence artificielle et en même temps de promouvoir l’innovation. Cela peut contribuer à créer un marché mondial leader pour une « IA fabriquée en Europe » sûre », déclare Joachim Bühler, directeur général de l’association TÜV. « Il est désormais important de rendre la mise en œuvre efficace et non bureaucratique. Les organismes indépendants jouent un rôle essentiel à cet égard, non seulement en ce qui concerne les exigences contraignantes, mais également sur le marché des tests volontaires d’IA.»

Selon Bühler, les entreprises feraient bien de se familiariser dès maintenant avec les exigences, notamment en ce qui concerne les périodes de transition. « Il est important d’évaluer comment et où la loi sur l’IA affecte leurs activités. » En outre, du point de vue du TÜV, une interprétation uniforme et une application cohérente de l’approche basée sur les risques sont cruciales pour que la loi sur l’IA soit efficace dans la pratique : « C’est là que les États membres sont sollicités », a déclaré Bühler.

Comme Bitkom, l’association TÜV réclame également une mise en œuvre la plus efficace et la moins bureaucratique possible des réglementations. Cela nécessite des responsabilités claires et des organismes responsables pour mettre en œuvre les réglementations dans la pratique. En conséquence, des lignes directrices de mise en œuvre pour la classification des systèmes d’IA à haut risque devraient être publiées dès que possible par l’Office de l’IA afin d’assurer une sécurité juridique aux petites et moyennes entreprises (PME). En outre, il est important de garder un œil sur les nouveaux risques liés à l’IA et sur le développement de risques systémiques liés à des modèles d’IA généralistes particulièrement puissants, ainsi que de favoriser le développement d’un reporting systématique des dommages causés par l’IA.

GI : les nouveaux défis sociétaux posés par l’IA

La Gesellschaft für Informatik eV (GI), une association professionnelle d’informaticiens, souhaite mettre en lumière les conséquences de la loi sur l’IA sous différents angles à travers diverses prises de position. En principe, une réglementation dans le domaine de l’intelligence artificielle est la bienvenue, a souligné la présidente du GI, Christine Regitz, soulignant que l’informatique porte une responsabilité sociale. « Dans le domaine de l’intelligence artificielle, nous constatons que les personnes concernées par de tels systèmes ont besoin de soutien et que des règles sont nécessaires pour le développement et l’utilisation des systèmes d’IA », a-t-elle déclaré. « De nombreuses règles utiles et nécessaires pour une utilisation sûre de l’IA entrent en vigueur avec la loi sur l’IA. L’informatique joue désormais un rôle important dans la mise en œuvre de ces règles et dans la résolution des lacunes.

Les responsables de GI évoquent avant tout la dimension morale de l’AI Act. «Les systèmes d’IA posent des défis qualitativement nouveaux à notre société», déclare Christine Hennig, porte-parole du département GI d’informatique et de société. Ces questions doivent être discutées non seulement sur le plan technique, mais également en termes juridiques, éthiques et sociaux. « La question de l’évaluation technologique est au cœur de cette démarche », déclare Hennig, qui se demande : « Dans quel monde transformé numériquement voulons-nous vivre à l’avenir ? »

Il n’est pas facile de répondre. Le contexte social de l’utilisation d’un système d’IA par l’homme doit encore être analysé et évalué, conclut Ralf Möller, porte-parole du département IA du GI. Möller critique à cet égard le rôle des régulateurs. « Limiter les performances de la technologie ou faire de l’architecture d’un système la base de la réglementation ne semble ni opportun ni globalement possible. »

La feuille de route de l’AI Act

Des périodes de transition échelonnées s’appliquent à la mise en œuvre de la loi sur l’IA. À partir de début 2025, les systèmes d’IA utilisant par exemple des techniques de manipulation ou de tromperie seront interdits. À partir du 1er août 2025, des codes de conduite pour certains modèles d’IA à usage général entreront en vigueur. Les États membres de l’UE doivent également désigner des autorités nationales pour la surveillance du marché. Des audits obligatoires pour l’IA à haut risque dans des domaines tels que les prêts, les ressources humaines ou l’application de la loi seront requis à partir d’août 2026. Ils concernent non seulement les développeurs d’IA, mais également les fournisseurs et les opérateurs d’IA. À partir de 2027, les exigences relatives à l’IA dans les produits soumis à des tests tiers entreront en vigueur.

Le cadre réglementaire de l’UE divise les applications d’IA en différentes classes de risques. Les systèmes à haut risque utilisés dans des domaines tels que la médecine, les infrastructures critiques ou la gestion des ressources humaines sont soumis à des réglementations strictes et doivent répondre à des exigences complètes en matière de transparence, de sécurité et de surveillance. Les systèmes à risque limité, tels que chatbots, doivent simplement répondre à des exigences de transparence, tandis que les systèmes à risque minimal, tels que les simples jeux vidéo, ne sont pas du tout réglementés. Les violations peuvent entraîner des amendes allant jusqu’à 15 millions d’euros ou jusqu’à trois pour cent du chiffre d’affaires annuel mondial.




Source link