Fermer

mars 13, 2024

Le Parlement européen approuve la loi européenne sur l’IA : quel impact sur l’entreprise ?

Le Parlement européen approuve la loi européenne sur l’IA : quel impact sur l’entreprise ?



Après des mois de querelles, le Parlement européen a approuvé la première loi globale au monde régissant l’intelligence artificielle (IA).

Les députés du Parlement européen (eurodéputés) ont voté par 523 voix pour, 46 contre, avec 49 abstentions, approuvant un texte qui avait déjà fait l’objet d’un accord de principe par les 27 États membres de l’Union européenne en décembre 2023.

Selon le texte final, le règlement vise à promouvoir « l’adoption d’une IA fiable et centrée sur l’humain, tout en garantissant un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux et de la protection de l’environnement contre les effets néfastes des systèmes d’intelligence artificielle ».

Presque après coup, cela « soutient également l’innovation ».

Des sanctions sévères

La loi s’appliquera à toutes les entreprises exerçant leurs activités dans l’UE et prévoit des sanctions pouvant aller jusqu’à 7 % du chiffre d’affaires mondial ou 35 millions d’euros, selon le montant le plus élevé, pour celles qui ne contrôlent pas leur utilisation de l’IA.

Une grande partie du débat public a porté sur les limites qu’elle impose à l’utilisation des systèmes d’identification biométrique par les forces de l’ordre, mais les applications commerciales de l’IA se heurtent à des interdictions en matière de notation sociale et d’utilisation de l’IA pour manipuler ou exploiter les vulnérabilités des utilisateurs.

La loi consacre également le droit des consommateurs de déposer des plaintes concernant l’utilisation inappropriée de l’IA par les entreprises et de recevoir des explications significatives sur les décisions prises par une IA qui affectent leurs droits.

L’explication significative du texte final définit une IA comme « un système basé sur une machine conçu pour fonctionner avec différents niveaux d’autonomie et qui peut faire preuve d’adaptabilité après le déploiement et qui, pour des objectifs explicites ou implicites, déduit, à partir des informations qu’il reçoit, comment générer des résultats tels que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels.

Les législateurs ont adopté une approche basée sur les risques, ce qui a conduit à certaines pratiques interdites dans le texte final. Il sera interdit de récupérer des images faciales sur Internet ou des caméras de vidéosurveillance pour créer des bases de données de reconnaissance faciale, des scores sociaux et une IA qui manipule le comportement humain ou exploite les vulnérabilités des personnes.

D’autres domaines d’utilisation de l’IA à haut risque comprennent les infrastructures critiques, l’éducation et la formation professionnelle, l’emploi, les services essentiels tels que les soins de santé ou les banques, ainsi que l’application de la loi, la gestion des migrations et des frontières, la justice et les processus démocratiques.

Limites de l’IA sur le lieu de travail

En raison du « déséquilibre des pouvoirs », des dispositions explicites sont prévues pour garantir également une meilleure protection des salariés. Les systèmes d’IA ne pourront pas être utilisés pour reconnaître les émotions sur le lieu de travail ou dans l’éducation.

« La nature intrusive de ces systèmes… pourrait conduire à un traitement préjudiciable ou défavorable à l’égard de certaines personnes physiques ou de groupes entiers de celles-ci. Par conséquent, la mise sur le marché, la mise en service ou l’utilisation de systèmes d’IA destinés à détecter l’état émotionnel d’individus dans des situations liées au travail et à l’éducation devraient être interdites. Cette interdiction ne doit pas couvrir les systèmes d’IA mis sur le marché uniquement pour des raisons médicales ou de sécurité, comme les systèmes destinés à un usage thérapeutique », précise la loi.

L’eurodéputé chargé de piloter la loi par l’intermédiaire de la commission du marché intérieur du Parlement, le co-rapporteur Brando Benifei, a déclaré : « Les travailleurs et les syndicats devront être informés de l’utilisation de l’intelligence artificielle sur eux, et tout contenu généré par l’IA sera clairement indiqué. . Enfin, les citoyens auront droit à une explication et à recourir à la procédure de recours collectif, tandis que les déployeurs seront obligés d’évaluer l’impact du système d’IA sur les droits fondamentaux des personnes concernées.

L’intérêt des grandes technologies

Cependant, tout le monde n’était pas content. Le groupe de gauche des députés a déclaré que la réglementation avait été précipitée et que la loi « donne la priorité aux intérêts des grandes technologies plutôt qu’à la sécurité des citoyens », soulignant l’absence de restrictions significatives sur ce que les entreprises peuvent faire.

« Les entreprises devront auto-évaluer si les systèmes d’IA qu’elles mettent sur le marché présentent ou non un risque élevé. La réglementation sur l’IA doit être profondément améliorée pour donner la priorité aux intérêts des citoyens lorsqu’il s’agit de produits dangereux », a déclaré le groupe.

La loi finale contient des mesures visant à soutenir l’innovation et les petites et moyennes entreprises, telles que des bacs à sable réglementaires et des tests réels qui seront établis au niveau national et rendus accessibles aux PME et aux start-ups, pour développer et former l’IA avant sa mise sur le marché.

Loin d’apaiser les critiques, cette mesure a alarmé l’eurodéputée de gauche Kateřina Konečná. « Le règlement donne aux entreprises développant des systèmes d’IA la liberté de tester leurs produits, sous certaines conditions, dans des contextes réels, comme dans nos rues ou en ligne. Le règlement met ainsi de côté la sécurité des citoyens et place l’intérêt des méga-riches au centre », a-t-elle déclaré.

Pour devenir une loi européenne, le texte final doit encore être formellement adopté par le Conseil européen, composé des chefs d’État ou de gouvernement des 27 États membres de l’UE. La loi entrera alors en vigueur 20 jours après sa publication au Journal officiel de l’UE. Toutefois, toutes ses dispositions n’entreront pas en vigueur immédiatement à cette date. Les interdictions des pratiques interdites entreront en vigueur six mois plus tard ; les codes de bonnes pratiques, neuf mois plus tard ; des règles d’IA à usage général, 12 mois plus tard ; et obligations pour les systèmes à haut risque, 36 mois plus tard.

Entre-temps, un « AI Office » spécial sera créé pour aider les entreprises à commencer à se conformer aux règles avant leur entrée en vigueur. Les recrutements ont déjà commencé.

Intelligence artificielle, IA générative




Source link