Site icon Blog ARC Optimizer

CFPB / Blogs / Compléter

CFPB / Blogs / Compléter


L’intelligence artificielle (IA) est sur le point d’affecter tous les aspects de l’économie mondiale et de jouer un rôle important dans le système financier mondial, ce qui amène les régulateurs financiers du monde entier à prendre diverses mesures pour faire face à l’impact de l’IA dans leurs domaines de responsabilité. Les risques économiques de l’IA pour les systèmes financiers vont du potentiel de fraude des consommateurs et des institutions à la discrimination algorithmique et aux risques de cybersécurité liés à l’IA. Les impacts de l’IA sur les consommateurs, les banques, les institutions financières non bancaires et la stabilité du système financier sont autant de préoccupations qui doivent être étudiées et potentiellement traitées par les régulateurs.

L’objectif des consultants en services financiers de Perficient est d’aider les dirigeants de services financiers, qu’ils dirigent des banques, des succursales bancaires, des sociétés de portefeuille bancaires, des courtiers, des conseillers financiers, des compagnies d’assurance ou des sociétés de gestion d’investissement, à acquérir les connaissances nécessaires pour connaître l’état de la réglementation de l’IA. et le risque et la tendance réglementaire de la réglementation de l’IA, non seulement aux États-Unis, mais dans le monde entier, où leurs entreprises sont susceptibles d’avoir des opérations d’investissement et de commerce.

CFPB

Le 24 juin 20024, le Bureau de protection financière des consommateurs (CFPB) a approuvé un nouvelle règle pour aborder les applications actuelles et futures des algorithmes complexes et de l’intelligence artificielle utilisés pour estimer la valeur d’une maison.

Comme l’a noté le CFPB, lors de l’achat ou de la vente d’une maison, une évaluation précise de la maison est essentielle. Les prêteurs hypothécaires utilisent cette évaluation collatérale pour déterminer combien ils prêteront sur une propriété. Sur les sites immobiliers populaires, de nombreuses personnes suivent même la valeur de leur propre maison générée par ces outils d’évaluation basés sur l’IA.

La règle du CFPB impose aux entreprises qui utilisent ces outils d’évaluation algorithmique de :

  1. mettre en place des mesures de protection pour garantir un niveau élevé de confiance dans les estimations de la valeur des maisons ;
  2. se protéger contre la manipulation des données ;
  3. éviter les conflits d’intérêts; et
  4. respecter les lois applicables en matière de non-discrimination.

En plus de sa propre règle, le CFPB a souligné à l’OCC dans sa demande d’informations de 2024 discutée ci-dessous un certain nombre de publications et de documents d’orientation du CFPB concernant les problèmes de protection des consommateurs qui peuvent être impliqués par l’utilisation de l’IA, notamment :

  • Chatbots
    • Les chatbots et autres technologies de service client automatisé construites sur de grands modèles de langage peuvent :
      • fournir des informations inexactes et augmenter le risque d’actes et de pratiques déloyaux, trompeurs et abusifs en violation de la loi sur la protection financière des consommateurs (CFPA) ;
      • ne pas reconnaître quand les consommateurs invoquent les droits statutaires en vertu du règlement E et du règlement Z ; et
      • augmentent les risques en matière de confidentialité et de sécurité, ce qui entraîne un risque accru de non-conformité pour les institutions.
    • Il est interdit aux prêteurs de faire preuve de discrimination et doivent satisfaire à l’obligation de fournir aux consommateurs des informations sur les mesures défavorables prises à leur encontre, comme l’exige la loi sur l’égalité des chances en matière de crédit (ECOA). Le CFPB a noté que les tribunaux ont déjà jugé que la décision d’une institution d’utiliser l’IA comme outil de prise de décision automatisée peut en soi être une politique qui produit un biais en vertu de la théorie de la responsabilité des impacts disparates.
    • Dépistage de la fraude. Le commentaire souligne que l’utilisation d’outils de détection de fraude, tels que ceux proposés par des fournisseurs tiers qui génèrent des services à risque de fraude, doit être proposée conformément à l’ECOA et à la CFPA. En outre, étant donné qu’un tel contrôle est souvent utilisé pour évaluer la solvabilité en déterminant qui se voit proposer ou approuver un produit financier ou à un taux spécial, les institutions qui compilent et fournissent ces informations sont donc probablement soumises aux exigences du Fair Credit Reporting Act.






Source link
Quitter la version mobile