Fermer

avril 5, 2024

La mosaïque complexe de la réglementation américaine sur l’IA est déjà arrivée

La mosaïque complexe de la réglementation américaine sur l’IA est déjà arrivée



La deuxième catégorie se concentre sur des secteurs spécifiques, en particulier les utilisations à haut risque de l’IA pour déterminer ou aider à prendre des décisions liées à l’emploi, au logement, aux soins de santé et à d’autres problèmes majeurs de la vie. Par exemple, Loi locale 144 de la ville de New York, adoptée en 2021, interdit aux employeurs et aux agences pour l’emploi d’utiliser un outil d’IA pour les décisions d’emploi à moins qu’il n’ait été audité au cours de l’année précédente. Une poignée d’États, dont New York, le New Jersey et le Vermont, semblent avoir calqué leur législation sur celle de la ville de New York, explique Mahdavi.

La troisième catégorie de projets de loi sur l’IA couvre des projets de loi généraux sur l’IA, souvent axés sur la transparence, la prévention des préjugés, l’exigence d’une évaluation d’impact, la possibilité de non-participation des consommateurs et d’autres questions. Ces projets de loi ont tendance à imposer des réglementations à la fois aux développeurs et aux déployeurs d’IA, explique Mahdavi.

Faire face à l’impact

La prolifération des lois étatiques réglementant l’IA pourrait amener les organisations à repenser leurs stratégies de déploiement, en veillant à leur conformité, explique Reade Taylor, fondateur du fournisseur de solutions informatiques Cyber ​​Command.

« Ces lois mettent souvent l’accent sur l’utilisation éthique et la transparence des systèmes d’IA, notamment en ce qui concerne la confidentialité des données », explique-t-il. « L’obligation de divulguer la manière dont l’IA influence les processus décisionnels peut amener les entreprises à repenser leurs stratégies de déploiement, en s’assurant qu’elles respectent à la fois les considérations éthiques et les exigences légales. »

Mais une mosaïque de lois étatiques aux États-Unis crée également un environnement difficile pour les entreprises, en particulier les petites et moyennes entreprises qui ne disposent peut-être pas des ressources nécessaires pour surveiller plusieurs lois, ajoute-t-il.

Un nombre croissant de lois étatiques « peuvent soit décourager l’utilisation de l’IA en raison du fardeau perçu en matière de conformité, soit encourager une approche plus réfléchie et responsable de la mise en œuvre de l’IA », explique Taylor. « Au cours de notre parcours, la priorité accordée à la conformité et aux considérations éthiques a non seulement contribué à atténuer les risques, mais nous a également positionné comme un partenaire de confiance dans le domaine de la cybersécurité. »

Le nombre de lois étatiques axées sur l’IA a des effets positifs et potentiellement négatifs, ajoute Adrienne Fischer, avocate chez Basecamp Legal, un cabinet d’avocats de Denver qui surveille les projets de loi des États sur l’IA. Du côté positif, de nombreux projets de loi d’État promeuvent les meilleures pratiques en matière de confidentialité et de sécurité des données, dit-elle.

« D’un autre côté, la diversité des réglementations d’un État à l’autre constitue un défi, susceptible de décourager les entreprises en raison de la complexité et du coût de leur mise en conformité », ajoute Fischer. «Cet environnement réglementaire fragmenté souligne la nécessité de normes ou de lois nationales pour fournir un cadre cohérent pour l’utilisation de l’IA.»

Les organisations qui surveillent et respectent de manière proactive les exigences juridiques en constante évolution peuvent acquérir un avantage stratégique. « Garder une longueur d’avance sur la courbe législative minimise non seulement les risques, mais peut également favoriser la confiance des consommateurs et des partenaires en démontrant un engagement envers des pratiques éthiques en matière d’IA », déclare Fischer.

Mahdavi recommande également aux organisations de ne pas attendre que le paysage réglementaire se stabilise. Les entreprises devraient d’abord dresser un inventaire des produits d’IA qu’elles utilisent. Les organisations doivent évaluer le risque de chaque IA qu’elles utilisent, en se concentrant sur les produits qui prennent des décisions basées sur les résultats en matière d’emploi, de crédit, de santé, d’assurance et d’autres domaines à fort impact. Les entreprises devraient alors établir un plan de gouvernance de l’utilisation de l’IA.

« Vous ne pouvez vraiment pas comprendre votre position en matière de risque si vous ne comprenez pas quels outils d’IA vous utilisez », dit-elle.




Source link