L’intelligence artificielle (IA) est sur le point d’affecter tous les aspects de l’économie mondiale et de jouer un rôle important dans le système financier mondial, ce qui amène les régulateurs financiers du monde entier à prendre diverses mesures pour faire face à l’impact de l’IA dans leurs domaines de responsabilité. Les risques économiques de l’IA pour les systèmes financiers vont du potentiel de fraude des consommateurs et des institutions à la discrimination algorithmique et aux risques de cybersécurité liés à l’IA. Les impacts de l’IA sur les consommateurs, les banques, les institutions financières non bancaires et la stabilité du système financier sont autant de préoccupations qui doivent être étudiées et potentiellement traitées par les régulateurs.
L’objectif des consultants en services financiers de Perficient est d’aider les dirigeants de services financiers, qu’ils dirigent des banques, des succursales bancaires, des sociétés de portefeuille bancaires, des courtiers, des conseillers financiers, des compagnies d’assurance ou des sociétés de gestion d’investissement, à acquérir les connaissances nécessaires pour connaître l’état de la réglementation de l’IA. et le risque et la tendance réglementaire de la réglementation de l’IA, non seulement aux États-Unis, mais dans le monde entier, où leurs entreprises sont susceptibles d’avoir des opérations d’investissement et de commerce.
CFTC
La Commodity Futures Trading Commission (« CFTC »), qui réglemente l’activité des marchés dérivés, et non des technologies particulières, a publié en janvier 2024 un appel à commentaires sur les utilisations et les risques actuels et potentiels de l’IA sur les marchés dérivés réglementés par la CFTC. Après avoir reçu d’importants commentaires de la part de l’industrie, en mai 2024, le Comité consultatif technologique de la CFTC a publié un rapport sur l’intelligence artificielle responsable sur les marchés financiers.
Le rapport recommande à l’agence d’élaborer un cadre de gestion des risques liés à l’IA spécifique au secteur. Le rapport appelle également la CFTC à collaborer avec l’industrie et à élaborer des normes de gouvernance au niveau des entreprises pour les systèmes d’IA. Le même rapport a exhorté l’agence à dresser un inventaire des réglementations existantes liées à l’IA et à l’utiliser pour identifier les risques et opportunités potentiels en matière d’élaboration de règles, puis a encouragé une approche stricte en matière de réglementation, insistant sur le fait que les sanctions en cas d’inconduite liée à l’IA devraient être suffisamment élevées pour dissuader. les entités de considérer les récompenses potentielles comme étant supérieures aux risques.
Au quatrième trimestre 2024, aucune règle ou réglementation spécifique liée à l’IA n’avait été proposée ou adoptée par la CFTC.
FDIC
La Federal Deposit Insurance Corporation (FDIC), qui est le principal régulateur fédéral pour les banques assurées à charte d’État qui ne sont pas membres de la Réserve fédérale, était le principal régulateur bancaire lorsqu’en juin 2021, elle a publié une demande d’informations sollicitant des commentaires et des informations sur l’utilisation de l’IA par les institutions financières qu’elle réglemente. Outre la FDIC, le Conseil des gouverneurs de la Réserve fédérale, le Bureau du contrôleur de la monnaie, le Bureau de protection financière des consommateurs et la National Credit Union Administration ont également distribué la même RFI aux institutions financières qu’ils réglementent. Ensemble, les régulateurs fédéraux ont cherché publiquement à mieux comprendre :
- l’utilisation de l’IA par les institutions financières ;
- une gouvernance, une gestion des risques et des contrôles appropriés sur l’IA ;
- les défis liés au développement, à l’adoption et à la gestion de l’IA ;
- et si des éclaircissements seraient utiles.
À l’époque, les agences avaient indiqué qu’elles soutenaient l’innovation responsable de la part des institutions financières, car l’utilisation de l’IA avait le potentiel d’augmenter la prise de décision et d’améliorer les services offerts aux consommateurs et aux entreprises. Ils ont également noté que, comme pour toute activité ou processus dans lequel une banque s’engage, l’identification et la gestion des risques sont essentielles.
Après la collecte des résultats de la RFI, la FDIC a créé FDITech, un laboratoire technologique axé sur tous les domaines technologiques, y compris, mais sans s’y limiter, l’IA. Cependant, en 2024, la FDIC a réduit son rôle auprès du public.
Bien que la FDIC n’ait pas publié de réglementation spécifique sur l’IA, la FDIC réglemente l’utilisation de l’IA par les institutions financières qu’elle réglemente de plusieurs manières, notamment :
- Respect des lois en vigueur
- Les banques doivent utiliser l’IA conformément aux lois en vigueur, notamment en matière de protection des consommateurs, de sécurité et de solidité.
- Gestion des risques de modèle
- Les banques devraient consulter les directives de surveillance de la FDIC sur la gestion des risques liés aux modèles, qui décrivent l’approche de l’agence en matière de modèles quantitatifs, y compris ceux utilisant l’IA.
- IA explicable
- Les systèmes d’IA qui font partie des modèles de gestion des risques des banques doivent être explicables.
- Rapports
- Les lignes hiérarchiques et les formats doivent être structurés pour garantir que la communication est adaptée au risque.
- L’évaluation des risques
- Une évaluation documentée des risques doit être effectuée en cas de recours à des services tiers.
- Haute direction
- La haute direction doit posséder une expertise technique suffisante et être responsable de toutes les décisions commerciales importantes.
Comme l’a noté le président de la FDIC lors d’une conférence industrielle en janvier 2024 : « Peu importe l’étiquette que vous y apposez et la technique sous-jacente. Les institutions financières et les banques comprennent ce qu’est la gestion des risques liés aux modèles et comment elles sont censées la mettre en œuvre. S’ils commencent à utiliser de nouvelles techniques d’intelligence artificielle, notamment des modèles d’apprentissage des langues, ils doivent alors s’assurer que ceux-ci sont conformes aux attentes en matière de gestion des risques des modèles.
Source link