L’intelligence artificielle (IA) est sur le point d’affecter tous les aspects de l’économie mondiale et de jouer un rôle important dans le système financier mondial, ce qui amène les régulateurs financiers du monde entier à prendre diverses mesures pour faire face à l’impact de l’IA dans leurs domaines de responsabilité. Les risques économiques de l’IA pour les systèmes financiers vont du potentiel de fraude des consommateurs et des institutions à la discrimination algorithmique et aux risques de cybersécurité liés à l’IA. Les impacts de l’IA sur les consommateurs, les banques, les institutions financières non bancaires et la stabilité du système financier sont autant de préoccupations qui doivent être étudiées et potentiellement traitées par les régulateurs.
L’objectif des consultants en services financiers de Perficient est d’aider les dirigeants de services financiers, qu’ils dirigent des banques, des succursales bancaires, des sociétés de portefeuille bancaires, des courtiers, des conseillers financiers, des compagnies d’assurance ou des sociétés de gestion d’investissement, à acquérir les connaissances nécessaires pour connaître l’état de la réglementation de l’IA. et le risque et la tendance réglementaire de la réglementation de l’IA, non seulement aux États-Unis, mais dans le monde entier, où leurs entreprises sont susceptibles d’avoir des opérations d’investissement et de commerce.
Le Japon n’a pas encore adopté de loi ou de réglementation spécifiquement destinée à réglementer l’utilisation de l’IA dans les sociétés de services financiers. Actuellement, le gouvernement japonais et les régulateurs adoptent une approche indirecte consistant à soutenir un objectif politique consistant à donner la priorité à l’innovation tout en minimisant les dommages prévisibles.
Le 19 avril 2024, le gouvernement japonais a publié de nouvelles « Lignes directrices sur l’IA pour les entreprises version 1.0 » (les « Lignes directrices »). Bien qu’elles ne soient pas juridiquement contraignantes, les lignes directrices devraient soutenir et inciter les développeurs, les fournisseurs et les utilisateurs professionnels de systèmes d’IA à faire des efforts volontaires en se conformant aux principes d’IA généralement reconnus. Elles sont similaires aux réglementations de l’UE évoquées précédemment dans la mesure où elles proposent une approche basée sur les risques. approche.
Comme indiqué à la page 26 de la version anglaise des lignes directrices, les lignes directrices promeuvent une « gouvernance agile » dans laquelle « plusieurs parties prenantes exécutent continuellement et rapidement un cycle comprenant l’analyse de l’environnement et des risques, la définition d’objectifs, la conception du système, l’exploitation puis l’évaluation dans divers domaines de gouvernance. systèmes dans les entreprises, les réglementations, les infrastructures, les marchés, les codes sociaux, etc.
Outre les lignes directrices, un Conseil stratégique de l’IA, un organisme consultatif gouvernemental, a été créé pour examiner les approches permettant de maximiser le potentiel de l’IA tout en minimisant les risques potentiels pour le système financier. Le 22 mai 2024, le Conseil a soumis un projet de points de discussion concernant l’opportunité et la portée potentielle d’une éventuelle réglementation future.
Enfin, un groupe de travail du Parlement japonais a proposé la première réglementation japonaise spécifique à l’IA, « la loi fondamentale sur la promotion d’une IA responsable », qui propose une approche juridique stricte pour réglementer certains modèles fondamentaux d’IA générative. S’il est adopté tel quel, le gouvernement japonais désignerait les systèmes et les développeurs d’IA soumis à la réglementation ; leur imposer des obligations en matière de contrôle, d’exploitation et de production des systèmes ; et exiger des rapports périodiques concernant les systèmes d’IA.
Les obligations proposées fourniraient un cadre général, tandis que les groupes industriels des sociétés de services financiers travailleraient avec l’Agence japonaise des services financiers (« JFSA ») pour établir les normes spécifiques auxquelles les sociétés se conformeraient. On pense en outre que le gouvernement aurait le pouvoir de surveiller les développeurs d’IA et d’imposer des amendes et des pénalités en cas de violation des obligations de déclaration et/ou du respect du contenu de la loi.
Source link