Réserve fédérale / Blogs / Perficient

L’intelligence artificielle (IA) est sur le point d’affecter tous les aspects de l’économie mondiale et de jouer un rôle important dans le système financier mondial, ce qui amène les régulateurs financiers du monde entier à prendre diverses mesures pour faire face à l’impact de l’IA dans leurs domaines de responsabilité. Les risques économiques de l’IA pour les systèmes financiers vont du potentiel de fraude des consommateurs et des institutions à la discrimination algorithmique et aux risques de cybersécurité liés à l’IA. Les impacts de l’IA sur les consommateurs, les banques, les institutions financières non bancaires et la stabilité du système financier sont autant de préoccupations qui doivent être étudiées et potentiellement traitées par les régulateurs.
L’objectif des consultants en services financiers de Perficient est d’aider les dirigeants de services financiers, qu’ils dirigent des banques, des succursales bancaires, des sociétés de portefeuille bancaires, des courtiers, des conseillers financiers, des compagnies d’assurance ou des sociétés de gestion d’investissement, à acquérir les connaissances nécessaires pour connaître l’état de la réglementation de l’IA. et le risque et la tendance réglementaire de la réglementation de l’IA, non seulement aux États-Unis, mais dans le monde entier, où leurs entreprises sont susceptibles d’avoir des opérations d’investissement et de commerce.
Réserve fédérale
La plus grande des agences bancaires fédérales, la Réserve fédérale dispose de quatre banques régionales de réserve fédérales (Atlanta, Boston, New York et San Francisco) qui ont ouvert des bureaux pour étudier l’innovation financière avec l’IA. Ces efforts visent à se concentrer sur la manière dont les régulateurs peuvent utiliser l’IA pour aider à réglementer les institutions financières ainsi qu’à mieux comprendre comment les banques utilisent l’IA dans leurs activités.
Bien que la FRB n’ait pas adopté de réglementation spécifique à l’IA, un directeur de l’IA a été nommé, une politique en matière d’IA a été approuvée et un examen basé sur les risques des programmes et activités d’IA a été établi et les résultats seront publiés et partagés avec le public.
Comme l’a noté au niveau de la Banque centrale de réserve fédérale le directeur de l’intelligence artificielle (« CAIO »), Anderson Monken, la FRB s’engage dans un programme d’intelligence artificielle (IA) pour le personnel de la FRB (« Conseil ») qui :
- Favorise l’utilisation responsable de l’IA et permet l’innovation liée à l’IA
- Atténue les risques associés à l’utilisation de l’IA grâce à une gouvernance solide et à de solides pratiques de gestion des risques
- Conforme à toutes les exigences fédérales applicables liées à l’utilisation de l’IA par les agences fédérales
Comme indiqué dans le plan de conformité du système de la Réserve fédérale pour le mémorandum M-24-10 de l’OMB, le Conseil reconnaît la valeur d’une approche globale de gestion des risques d’entreprise pour garantir une innovation sûre et responsable en matière d’IA.
Déterminer quelle utilisation de l’IA est présumée avoir un impact sur la sécurité ou sur les droits
Le Conseil d’administration a mis en œuvre sa politique d’IA à l’échelle de l’entreprise et le processus d’examen correspondant pour déterminer quels cas d’utilisation de l’IA, actuels ou prévus, sont jugés avoir un impact sur la sécurité ou les droits.
- Processus de révision. Chaque cas d’utilisation de l’IA, actuel ou prévu, fait l’objet d’un examen et d’une évaluation approfondis par le CAIO et l’équipe du programme d’IA afin de déterminer si le cas d’utilisation répond à la définition de l’IA ayant un impact sur la sécurité ou les droits, telle que définie dans la section 6 de l’OMB M-24-10. .
- Critères d’évaluation. Les critères d’évaluation du FRB sont basés sur les définitions de l’IA ayant un impact sur la sécurité et les droits et sur des exemples d’IA présumées avoir un impact sur la sécurité ou les droits dans la section 6 et l’annexe I de l’OMB M-24-10, respectivement. Ces critères incluent la question de savoir si les résultats de l’IA serviraient de base principale à une décision ou à une action et des considérations concrètes sur les dommages potentiels aux populations, entités et ressources protégées ou autrement critiques.
- Critères supplémentaires. Le Conseil peut intégrer des critères d’examen supplémentaires pour évaluer les considérations liées à la sécurité et aux droits en matière d’IA en réponse à des développements internes ou externes.
Mise en œuvre de pratiques de gestion des risques et cessation des IA non conformes
- Politique en matière d’IA et processus de révision. La politique et le processus d’examen de la FRB en matière d’IA interdisent toute utilisation de l’IA considérée comme ayant un impact sur la sécurité ou les droits sans l’approbation du CAIO, la renonciation à une ou plusieurs pratiques de gestion des risques ou l’extension approuvée de l’OMB, pour répondre aux exigences de gestion des risques. Tous les cas d’utilisation de l’IA ayant un impact sur la sécurité ou les droits sont soumis à une évaluation complète de l’impact des risques, y compris la validation de toutes les pratiques de gestion des risques définies dans la section 5(iv) de l’OMB M-24-10.
- Force exécutoire et sanctions. L’utilisation non autorisée ou inappropriée de l’IA peut entraîner la perte ou la limitation de l’utilisation des ressources informatiques du Conseil et des mesures disciplinaires ou autres, pouvant aller jusqu’à la cessation d’emploi. Plan de conformité du Conseil des gouverneurs du système de la Réserve fédérale pour le mémorandum M-24-10 de l’OMB
- Contrôles techniques. Le Conseil dispose de contrôles techniques en place pour dissuader, détecter et remédier aux violations des politiques. Ces contrôles incluent la possibilité de mettre fin aux instances d’IA non conformes sur les ressources informatiques de bord.
- Communication et formation. L’équipe du programme d’IA du Conseil publie et gère la politique en matière d’IA via un site intranet régulièrement mis à jour. Le site fournit des conseils sur la politique en matière d’IA, le processus de soumission d’un cas d’utilisation et les critères permettant de déterminer l’admissibilité d’un cas d’utilisation. Le site propose également du matériel de formation non technique et technique sur l’IA, une liste de bonnes pratiques pour une utilisation responsable de l’IA et des réponses aux FAQ politiques.
Pratiques minimales de gestion des risques pour les utilisations ayant un impact sur la sécurité ou les droits
- Le Conseil met en œuvre un environnement complet de contrôles pour englober les pratiques de gestion des risques requises par l’OMB M-24-10. L’équipe du CAIO et du programme d’IA est chargée de veiller à ce que ces contrôles soient conçus et fonctionnent efficacement pour fournir une assurance suffisante que le Conseil peut atténuer les risques liés aux utilisations non conformes de l’IA.
- Évaluation des impacts. Chaque cas d’utilisation de l’IA présumé avoir un impact sur la sécurité ou les droits fait l’objet d’une évaluation complète de l’impact des risques, qui comprend un examen des contrôles et des processus respectant ou dépassant les pratiques minimales de gestion des risques définies dans les sections 5 de l’OMB M-24-10 ( c)(iv) et 5(c)(v). Le processus d’examen évalue la qualité et la pertinence des cas d’utilisation de l’IA, toutes les données prises en compte pour ces cas d’utilisation, le but de l’utilisation et les dommages potentiels à la santé, à la sûreté, à la vie privée, à la sécurité, aux droits et aux opportunités, comme indiqué dans les critères d’évaluation du Conseil. Les considérations relatives aux ressources, aux contrôles de sécurité, aux tests et aux plans de validation sont également examinées.
- Processus de détermination. Le CAIO, en collaboration avec l’équipe du programme d’IA et, le cas échéant, avec des hauts responsables du Conseil d’administration, examinera si le cas d’utilisation de l’IA, ainsi que son évaluation d’impact, satisfait aux définitions d’impact sur la sécurité ou sur les droits de la section 6 de l’OMB M-. 24h-10. Le CAIO détermine si le cas d’utilisation de l’IA correspond à la définition d’une atteinte à la sécurité ou aux droits après avoir examiné les conditions et le contexte du cas d’utilisation et si l’IA sert de base principale à une décision ou une action.
- Processus de renonciation. Dans des circonstances limitées, des dérogations aux pratiques minimales de gestion des risques peuvent être accordées conformément à la section 5(c)(iii) de l’OMB M-24-10. Le programme d’IA élaborera des critères pour guider la prise de décision cohérente permettant au CAIO de renoncer aux pratiques de gestion des risques, en garantissant que les dérogations ne sont accordées que lorsque cela est nécessaire. Toute décision d’accorder ou de révoquer une dérogation nécessitera une documentation sur la portée, la justification et les preuves à l’appui. L’équipe du programme d’IA établira des procédures pour délivrer, refuser et révoquer les dérogations, sous la supervision du CAIO et du groupe de travail sur l’activation de l’IA.
- Documentation et validation. Le CAIO est chargé de documenter et de valider que les pratiques de gestion des risques actuelles et prévues pour tous les cas d’utilisation de l’IA ayant un impact sur la sécurité et les droits sont conçues et fonctionnent efficacement. L’équipe du programme d’IA tient des registres détaillés de tous les cas d’utilisation de gestion des risques liés à l’utilisation de l’intelligence artificielle et des décisions d’extension, de renonciation et de détermination pour soutenir des examens cohérents, permettre une conformité et des rapports efficaces et promouvoir la transparence et la responsabilité.
- Publication et certification annuelle des actions de renonciation et de détermination. Tous les documents liés à une renonciation ou à une action de détermination seront signalés à l’OMB dans les 30 jours. Un processus annuel de certification de la validité continue des dérogations et des déterminations sera mené par le CAIO, l’équipe du programme IA et les propriétaires des cas d’utilisation de l’IA pertinents. L’équipe du programme AI élaborera des procédures pour certifier toutes les dérogations et déterminations. Un résumé des résultats du processus de certification annuel, détaillant les renonciations et déterminations individuelles ainsi que la justification, sera partagé avec l’OMB et le public conformément à la section 5(a)(ii) de l’OMB M-24-10. S’il n’y a aucune détermination ou renonciation active, ces informations seront partagées avec le public et signalées à l’OMB.
- Mise en œuvre et surveillance. L’équipe du programme AI dispose d’un axe de travail dédié chargé de la mise en œuvre et de la surveillance des pratiques de gestion des risques. Le groupe de travail comprend des membres spécialisés dans les fonctions de mission et de conformité pertinentes, notamment la technologie, la sécurité, la confidentialité, les aspects juridiques, les données et la gestion des risques d’entreprise, et représente une diversité de perspectives d’entreprise. Le groupe est chargé de promouvoir une gestion cohérente et complète des risques liés à l’IA à travers les processus d’examen des cas d’utilisation et d’évaluation d’impact. Ce flux de travail est également responsable de la tenue d’un registre des risques liés à l’IA d’entreprise et des mesures d’atténuation associées afin de promouvoir une gestion active et la responsabilité au sein de la FRB.
Source link