Fermer

avril 30, 2024

Ce que les responsables informatiques doivent savoir sur la loi européenne sur l’IA

Ce que les responsables informatiques doivent savoir sur la loi européenne sur l’IA



Pourtant, les organisations ne peuvent pas simplement ignorer la révolution de l’IA pour contourner les réglementations, ajoute Carlsson. « L’utilisation de ces technologies n’est pas facultative, et chaque organisation doit accroître son recours à l’IA pour survivre et prospérer », déclare-t-il.

Qu’y a-t-il dans la législation ?

Le La loi européenne sur l’IA est largecomprenant 458 pages, mais il couvre trois grands domaines :

Utilisations interdites de l’IA : La réglementation interdit les applications d’IA qui menacent les droits de l’homme, notamment les systèmes de catégorisation biométrique basés sur des caractéristiques physiques sensibles. La récupération non ciblée d’images faciales sur Internet ou de séquences de sécurité pour créer des bases de données de reconnaissance faciale est également interdite.

La loi interdirait également les systèmes d’IA qui surveillent les émotions des employés ou des étudiants, effectuent des évaluations sociales ou s’engagent dans une police prédictive basée sur le profil ou les caractéristiques d’une personne. Sont également interdits les systèmes d’IA qui manipulent le comportement humain ou exploitent les vulnérabilités des personnes.

Obligations pour les systèmes d’IA à haut risque : Les organisations utilisant des outils d’IA qui créent des dommages potentiels importants à la santé, à la sécurité, aux droits de l’homme, à l’environnement, à la démocratie et à l’État de droit sont également réglementées. Ils doivent procéder à des évaluations des risques, prendre des mesures pour réduire les risques, tenir des journaux d’utilisation, se conformer aux exigences de transparence et assurer une surveillance humaine. Les résidents de l’UE auront le droit de déposer des plaintes concernant les systèmes d’IA à haut risque et de recevoir des explications sur les décisions.

Parmi les exemples de systèmes à haut risque figurent les IA utilisées dans les infrastructures critiques, l’éducation et la formation professionnelle, les décisions en matière d’emploi, les soins de santé, les banques et celles qui pourraient influencer les élections. Certaines utilisations de l’IA par les forces de l’ordre et les agences de contrôle des frontières seront réglementées.




Source link