Fermer

mars 28, 2024

La Maison Blanche exige que les agences créent des garanties en matière d’IA et nomment des CAIO

La Maison Blanche exige que les agences créent des garanties en matière d’IA et nomment des CAIO



L’impact de l’IA sur la sécurité publique

La politique définit plusieurs utilisations de l’IA qui pourraient avoir un impact sur la sécurité publique et les droits de l’homme, et elle exige que les agences mettent en place des garanties d’ici le 1er décembre. Les garanties doivent inclure des moyens d’atténuer les risques de discrimination algorithmique et d’assurer au public une transparence dans le gouvernement. Utilisation de l’IA.

Les agences doivent cesser d’utiliser des IA qui ne peuvent pas respecter les garanties. Ils doivent informer le public de toute IA exemptée du respect de la politique de l’OMB et en expliquer les justifications.

Les IA qui contrôlent les barrages, les réseaux électriques, les systèmes de contrôle de la circulation, les véhicules et les systèmes robotiques sur les lieux de travail relèvent des IA ayant un impact sur la sécurité. Pendant ce temps, les IA qui bloquent ou suppriment les paroles protégées, produisent des évaluations des risques des individus pour les forces de l’ordre et effectuent une identification biométrique sont classées comme ayant un impact sur les droits. Les décisions de l’IA concernant les soins de santé, le logement, l’emploi, le diagnostic médical et le statut d’immigration entrent également dans la catégorie ayant un impact sur les droits.

La politique de l’OMB appelle également les agences à publier le code, les modèles et les données d’IA appartenant au gouvernement, lorsque ces publications ne présentent pas de risque pour le public ou les opérations gouvernementales.

La nouvelle politique a reçu des critiques mitigées de la part de certains groupes de défense des droits de l’homme et des droits numériques. L’Union américaine des libertés civiles a qualifié cette politique d’étape importante vers la protection des résidents américains contre les abus liés à l’IA. Mais cette politique présente des failles majeures, notamment de larges exceptions pour les systèmes de sécurité nationale et les agences de renseignement, a noté l’ACLU. La politique prévoit également des exceptions pour les informations sensibles des forces de l’ordre.

« Les utilisations fédérales de l’IA ne devraient pas être autorisées à porter atteinte aux droits et à la sécurité, mais les utilisations nuisibles et discriminatoires de l’IA par les agences de sécurité nationale, les gouvernements des États et bien d’autres restent largement incontrôlées », a déclaré Cody Venzke, conseiller politique principal de l’ACLU, dans un communiqué. déclaration. « Les décideurs politiques doivent intervenir pour combler ces lacunes et créer les protections que nous méritons. »




Source link