Fermer

juin 18, 2024

Ce que les développeurs/concepteurs Web doivent savoir sur la loi sur l’IA

Ce que les développeurs/concepteurs Web doivent savoir sur la loi sur l’IA


Il est trop risqué de permettre à l’IA de se développer sans surveillance ni contrôle. C’est à cela que sert la loi européenne sur l’IA. Dans cet article, nous examinerons ce que cela implique et comment cela va affecter le développement Web à l’avenir.

L’Union européenne a officiellement adopté la loi sur l’intelligence artificielle (IA). Comme nous l’avons vu avec le règlement général sur la protection des données (RGPD), ce ne sont pas seulement les nations et les consommateurs de l’UE qui sont concernés par la législation et les réglementations locales. Alors, lorsque cela entrera en vigueur à l’été 2024, qu’est-ce que cela signifiera pour ceux d’entre nous qui développent des produits numériques ?

Ce guide couvrira ce que fait la loi sur l’IA, qui elle affecte, les sanctions qui y sont associées, comment les risques liés à l’IA sont évalués et comment s’y préparer si vous travaillez dans la conception ou le développement de sites Web.

Qu’est-ce que la loi européenne sur l’IA ?

La loi sur l’IA est une nouvelle loi adoptée dans l’Union européenne. La loi sur l’IA vise à atteindre trois objectifs :

  1. Protégez les consommateurs des risques et des menaces associés à l’IA.
  2. Empêchez les entreprises de créer ou d’utiliser des technologies basées sur l’IA qui font courir de grands risques à leur organisation ou à leurs utilisateurs finaux.
  3. Renforcez l’innovation en matière d’IA, mais orientez-la dans une direction éthique et responsable.

Bien que ce règlement soit intitulé IA Agir, c’est plutôt un droits humains acte. L’objectif premier est d’assurer la sécurité des personnes.

Et pour ceux d’entre vous qui ont utilisé des plateformes comme ChatGPT ou des chatbots Web et pensent que la technologie est inoffensive, c’est le cas… pour l’instant. Mais ces technologies se développent à un rythme rapide. Même si nous les utilisons pour l’instant à des fins pour la plupart inoffensives, qui sait à quoi ils serviront à l’avenir.

Les considérations que nous avons prises en compte lors de l’adoption initiale de l’IA peuvent ne pas s’appliquer à d’autres cas d’utilisation ou secteurs. C’est pourquoi des réglementations sont nécessaires, afin que nous puissions évaluer l’évolution des risques au fil du temps et contribuer à assurer la sécurité des utilisateurs.

Comment la législation nous aidera-t-elle à y parvenir ?

Les lignes directrices de la loi visent à maintenir sur le marché des technologies d’IA sûres, traçables et transparentes, tout en étant étroitement surveillées. Tout ce qui pourrait potentiellement conduire à un résultat néfaste sera interdit.

Il y aura aussi des sanctions sévères pour toutes les entreprises qui enfreignent la loi. Une entreprise jugée non conforme peut être condamnée à une amende pouvant aller jusqu’à 35 000 000 EUR ou 7 % de ses bénéfices de l’année précédente, en fonction de la gravité de l’infraction.

Gardez à l’esprit que ce n’est pas seulement Fournisseursles entreprises qui créent des systèmes d’IA, sont passibles d’amendes. Importateurs et Distributeurs qui aident à vendre des systèmes d’IA et Déployeurs qui utilisent l’IA dans leur travail (comme les développeurs Web) le sont également.

La loi sur l’IA affectera-t-elle uniquement l’UE ?

Bref, non.

La loi sur l’IA pourrait être une loi européenne. Cependant, le RGPD n’était qu’une loi européenne et avait des implications mondiales. Si vous créez des produits numériques dotés de capacités d’IA et que ces produits seront utilisés par une entreprise ou un consommateur dans l’UE, vous êtes alors soumis aux lignes directrices et aux sanctions décrites par la loi sur l’IA.

De plus, l’UE n’est pas le premier organisme gouvernemental à tenter de réglementer l’IA. Cela dit, c’est le premier à adopter une telle législation définissant ce qu’est l’IA et à tenter d’interdire l’entrée sur le marché ou l’utilisation d’IA dangereuses par les entreprises.

D’autres pays et régions du monde ont leurs propres réglementations en matière d’IA en préparation. Par exemple:

En Amérique du Sud, Brésil tente depuis 2019 d’adopter une législation qui minimiserait les dommages causés par l’IA. L’Argentine et la Colombie ont toutes deux publié des cadres pour l’utilisation éthique de l’IA.

En 2023, Chine règles publiées pour les plateformes d’IA générative comme ChatGPT. Ils se concentrent fortement sur la sécurité de l’IA et surveillent leurs algorithmes pour détecter les capacités influentes.

Bien que Australie n’a encore rien mis en œuvre, les réglementations qu’elle propose ressemblent à la loi européenne sur l’IA. C’est la même chose pour Afrique.

Ainsi, même si vous n’êtes pas actuellement concerné par cette loi européenne, une nouvelle législation est prévue pour différents marchés à travers le monde. À un moment donné dans le futur, l’utilisation de l’IA par vos produits numériques pourrait enfreindre les nouvelles réglementations en matière d’IA. Et, plus important encore, mettez vos utilisateurs en danger.

Évaluer les risques de l’IA

Toutes les IA ne sont pas égales au regard de l’AI Act. Certaines applications de l’IA seront laissées de côté une fois la loi entrée en vigueur. Ils seront surveillés, mais ils ne seront pas interdits.

Abordons les quatre niveaux de risque de l’IA afin que vous sachiez quel impact cette loi aura sur les produits que vous construisez.

Risque inacceptable

Les IA considérées comme une menace pour les humains seront purement et simplement interdites. Intelligence artificielle interdite comprend les éléments suivants :

  • Les IA qui manipulent ou trompent les gens de manière subliminale ou ouverte et les amènent à entreprendre une action qui pourrait entraîner de graves dommages.
  • Des IA qui exploitent les faiblesses de certains groupes de personnes dans le but de les pousser à agir d’une manière contraire à leur propre intérêt et à leur sécurité.
  • Des IA qui utilisent un score social qui conduit à un traitement injustifié et défavorable de certaines personnes.
  • Des IA qui utilisent la biométrie en temps réel à des fins d’application de la loi dans les espaces publics. Il existe certaines exceptions, comme dans la recherche des victimes de la traite des êtres humains.
  • Des IA qui utilisent l’évaluation des risques et le profilage pour prédire si quelqu’un commettra un crime.
  • Des IA qui créent une base de données de reconnaissance faciale en récupérant le Web ou les images de vidéosurveillance pour les photos des personnes.
  • Des IA utilisées dans les établissements d’enseignement ou sur les lieux de travail qui déduisent les émotions des personnes présentes dans ces bâtiments.

Certaines de ces IA interdites n’auront probablement pas beaucoup d’effet sur le travail que vous effectuez sur le Web (celles en italique ci-dessus). Les premiers, cependant, sont tout à fait pertinents et ressemblent aux raisons pour lesquelles procès à motifs sombres sont en hausse.

Cela dit, il est important de comprendre tous les types d’IA qui sont désormais considérés comme illégaux. Parce qu’à mesure que la technologie et ce que vous en faites sur le Web progressent, ces applications peuvent devenir applicables au travail que vous effectuerez ultérieurement.

Risque élevé

Les applications d’IA qui violent ou affectent négativement les droits humains fondamentaux ou la sécurité sont considérées comme à haut risque en vertu de cette loi. Il existe deux types de produits d’IA considérés comme à haut risque.

Les premiers sont les IA qui violent les lois européennes sur la sécurité des produits. Les produits soumis à cette loi comprennent des éléments tels que les dispositifs médicaux, les voitures et les jouets.

Les secondes concernent les IA utilisées dans des produits ou des industries qui doivent être enregistrées au sein de l’UE. Il s’agit notamment de secteurs tels que les infrastructures, l’éducation, la gestion de l’immigration et l’application de la loi.

Pour mettre l’un de ces produits ou services sur le marché, ils devront d’abord être évalués quant aux risques liés à l’IA. Ils feront également l’objet d’une surveillance continue.

Note: La principale catégorie qui me préoccuperait est celle des jouets. Même si les applications mobiles destinées aux enfants ne sont pas techniquement considérées actuellement comme des jouets, elles pourraient le devenir prochainement. Et cela dépend de la fonction de l’IA.

Ainsi, si vous développez des applications de jeu, des applications éducatives ou tout autre objet avec lequel les enfants « jouent », gardez un œil sur les modifications ou les clarifications apportées à cette loi pour voir si elles ont un impact sur ce que vous construisez.

Risque limité

Les IA avec lesquelles les gens interagissent directement sont généralement classées comme présentant un risque limité. Les chatbots et les moteurs de recherche basés sur l’IA entrent dans cette catégorie.

Bien que les risques soient moindres avec ce type d’IA, les fournisseurs et les déployeurs sont désormais tenus de divulguer quand le contenu a été créé par l’IA. Si vous n’informez pas les utilisateurs qu’ils interagissent avec une IA ou que le contenu a été manipulé, vous risquez des sanctions.

Le Les obligations de transparence de l’AI Act nécessitent maintenant les éléments suivants :

Règle 1: Si un utilisateur interagit directement avec un système d’IA, il doit être évident à 100 % qu’il s’agit d’une intelligence artificielle. Si ce n’est pas le cas, le système doit indiquer qu’il s’agit d’une IA.

Règle n°2 : Les systèmes d’IA qui produisent du texte, des images, des vidéos ou du son doivent fournir des résultats pouvant être détectés comme synthétiques et manipulés artificiellement. Il doit également être lisible par machine.

Règle n°3 : Si une IA est utilisée pour détecter des émotions ou catégoriser des données biométriques, les utilisateurs doivent en être informés. Les données personnelles doivent également être traitées conformément à la loi.

Règle n°4 : Lorsque vous utilisez une IA pour créer un deep fake, vous devez alerter les utilisateurs que le contenu a été généré artificiellement. Si le contenu fait partie d’une œuvre d’art, d’une conception ou d’une histoire plus vaste, vous n’avez pas besoin de perturber l’expérience avec la divulgation. Cependant, il doit être inclus quelque part à proximité (comme en bas de la page).

Règle n°5 : Les utilisateurs doivent être avertis la première fois qu’ils interagissent avec un système d’IA ou voient du contenu généré artificiellement.

Risque minimal

Les IA à ce niveau présentent peu ou pas de risques. Même si les utilisateurs les rencontreront, il y a peu ou pas de chance que des dommages, des manipulations ou des tromperies se produisent. Un exemple de ceci est un filtre anti-spam alimenté par l’IA.

Même si ce sont les seuls types d’IA que vous utilisez lors du développement de produits numériques, vous pouvez quand même décider de respecter les réglementations et règles énoncées dans la loi sur l’IA.

Quel est l’impact de la loi sur l’IA sur le développement Web ?

Contrairement au RGPD, nous n’avons pas d’années pour devenir conforme à la nouvelle réglementation. Nous aurons six mois. C’est donc quelque chose sur lequel commencer à travailler maintenantque vous construisiez vos propres produits d’IA ou que vous intégriez ces systèmes dans les sites Web et les applications que vous créez.

Une autre différence avec le RGPD est que cela nécessitera un engagement continu. Il n’existe pas de simple avis de consentement aux cookies que vous pouvez publier sur votre site Web et en finir avec celui-ci.

Voici ce que vous devez faire pour vous préparer à faire face à la loi sur l’IA à l’avenir :

Tout d’abord, déterminez si cela va vous affecter. Si vous créez des sites Web ou des applications (ou l’avez fait dans le passé) qui touchent des clients dans l’UE, alors oui, vous êtes responsable de la surveillance et de la gestion de votre IA.

Ensuite, vous devrez modifier votre stratégie actuelle de conception et de développement. Tenez compte des éléments suivants lorsque vous modifiez votre approche du développement de produits numériques :

  • Si vous créez vos propres IA, examinez les niveaux de risque pour déterminer celui auquel elles appartiennent. Suivez ensuite les directives qui y correspondent.
  • Si vous déployez des IA, choisissez judicieusement vos fournisseurs d’IA. Réévaluez régulièrement le fournisseur et examinez les actualités le concernant afin d’éviter que des problèmes de conformité ne surviennent.
  • Si vous déployez un système d’IA tiers sur un site Web ou une application, examinez les niveaux de risque pour déterminer celui auquel il appartient. Assurez-vous que le fournisseur est conforme.
  • Surveillez régulièrement tout système d’IA intégré à vos produits.
  • Lorsque vous utilisez du contenu ou des systèmes générés par l’IA sur votre site Web ou votre application, indiquez-le comme tel s’il n’est pas évident pour quiconque le rencontre.
  • Ajoutez un avis AI Act à votre page Politique de confidentialité. Faites savoir aux utilisateurs comment l’IA a été utilisée et ce que vous faites pour assurer leur sécurité.
  • Considérez d’autres problèmes posés par l’IA en plus du simple risque de menace humaine.
  • Faire de l’éthique une priorité dans la conception et le développement de sites Webmême si vos IA ne présentent pas de risque sérieux ou si vous n’utilisez pas du tout la technologie de l’IA.

Avec la loi européenne sur l’IA désormais en vigueur, toutes les personnes impliquées dans le déploiement de l’intelligence artificielle auprès du grand public sont responsables de ce qui en résulte.

C’est comme si vous intégriez un site Web à une application tierce et que celle-ci était piratée. Si les données personnelles de vos clients sont volées, ce n’est pas seulement votre partenaire tiers qui est responsable de la perte de données, d’argent, de confidentialité, etc. Vous serez également responsable et passible d’amendes associées à l’infraction.

Même si la loi sur l’IA est basée dans l’UE, c’est quelque chose que tout développeur Web doit prendre au sérieux. Vous n’aurez peut-être pas besoin d’ajouter des avis de consentement à l’IA sur vos sites et applications comme vous l’avez fait avec le RGPD, mais la transparence continue, l’utilisation responsable et la sécurité des données sont désormais très importantes.


Les informations fournies sur ce blog ne constituent pas et ne sont pas destinées à constituer des conseils juridiques. Tout lecteur ayant besoin de conseils juridiques doit contacter son avocat pour obtenir des conseils sur toute question juridique particulière. Aucun lecteur, utilisateur ou navigateur de ce contenu ne doit agir ou s’abstenir d’agir sur la base des informations contenues dans le présent document sans demander au préalable un avis juridique à un avocat de sa juridiction concernée.




Source link