Fermer

avril 3, 2019

AI dans le secteur financier: l'éthique des algorithmes (1ère partie)


Première partie d'une série en deux parties expliquant comment la gestion de la durabilité peut promouvoir la confiance dans l'utilisation de l'intelligence artificielle

Le potentiel de marché de l'intelligence artificielle (IA) est énorme. Le produit intérieur brut (PIB) allemand devrait augmenter de 11,3% d'ici 2030, du simple fait de l'influenza aviaire, qui se chiffre à environ 430 milliards d'euros. Le cabinet de conseil PwC prédit que les secteurs de la santé, de l’automobile et de la finance constituent les opportunités de développement les plus prometteuses, le secteur bancaire étant également considéré comme l’un des principaux candidats à la croissance. Par exemple, le Boston Consulting Group a calculé qu’Amnesty International pourrait augmenter le revenu d’exploitation des dix plus grandes institutions financières du monde jusqu’à 220 milliards de dollars par an.

Un large éventail d’applications potentielles

l'application révèle un spectre particulièrement large, notamment dans le secteur financier. Cela inclut le service client et le marketing, ainsi que la gestion d'actifs, la gestion de portefeuille, la trésorerie et le négoce de titres, par exemple via l'optimisation automatisée des portefeuilles d'actions. En outre, il existe des gains d’efficacité potentiels dans la gestion de la sécurité informatique et de la conformité. Dans les deux cas, l'intelligence artificielle est très prometteuse pour répondre à la croissance rapide des besoins.

Dans ce contexte, il ne faut toutefois pas oublier que l'intelligence artificielle – comme pour toutes les nouvelles technologies – pose des risques considérables qui doivent être gérés avec précaution. Cela est particulièrement évident dans le négoce de titres, dont l’histoire de l’IA remonte aux années 1990. Même à cette époque, les sociétés de gestion de fonds mettaient déjà en œuvre des modèles de calcul automatisés analysant de grandes quantités d’informations en temps réel afin d’exploiter les déséquilibres les plus minimes des marchés. La difficulté à contrôler le trading haute fréquence qui en a résulté est devenue une évidence en mai 2010, lorsque le Dow Jones a perdu plus de 1000 points d’indice à la Bourse de New York en quelques minutes.

Corrélations statistiques et biais insidieux

Contrairement au jugement humain et à la pondération des faits, l'IA est basée sur des relations statistiques détectées à l'aide de grandes quantités de données, puis appliquées avec précision, fiabilité et uniformité. Cela entraîne des risques dans des domaines où les conséquences indésirables d'une prise de décision purement algorithmique sont beaucoup moins évidentes que dans le cas d'un krach boursier. Un bon exemple est le biais humain qui déforme les données – consciemment ou non – conduisant à des formes de discrimination qui peuvent se développer, sans moyen de reconstruire ou même de détecter les motifs. Lorsque des groupes de postulants présentant certaines caractéristiques biologiques, biographiques ou socioculturelles ne sont plus convoqués à des entretiens d'embauche, ou que les gens de métier issus de quartiers défavorisés se voient refuser un prêt, un sentiment d'impuissance se répand rapidement chez les personnes concernées.

justifié? Le cadre actuel de réglementation et de surveillance ne suffit-il plus pour orienter les solutions d'IA dans la direction souhaitée par l'économie et la société nationales? Clairement, cette question ne peut pas encore être répondu. Ceci est illustré par une étude pratique approfondie présentée par l'autorité fédérale allemande de surveillance financière (BaFin), le Boston Consulting Group, l'institut Fraunhofer pour l'analyse intelligente et les systèmes d'information, et le cabinet de conseil Partnerschaft Deutschland, à l'été 2018.

L'étude propose de nombreux scénarios sur l'influence possible de l'IA et du Big Data sur le marché financier, avec des suggestions de discours qui seront vraisemblablement en cours. Dans l'avant-propos de l'étude, Felix Hufeld, président du BaFin, a déclaré sans équivoque: «Compte tenu de la numérisation en progression rapide, l'autorité de surveillance doit se demander à plusieurs reprises si sa pratique suit le rythme. Il en va de même pour ses outils et sa réglementation. ”

Les échanges exploratoires avec l’industrie, la recherche et d’autres autorités de réglementation sont donc toujours en cours. Néanmoins, dans un communiqué de presse, BaFin souligne au monde de l'entreprise que «la direction ne peut ni automatiser ni externaliser ses responsabilités. Les modèles complexes ne doivent pas donner lieu à des décisions opaques et faire obstacle à une bonne organisation des affaires. ”

Où réside le problème: avec les entreprises

La balle est donc carrément dans le camp du commerce et de l'industrie. Ne rien faire et attendre les directives du gouvernement et des autorités de réglementation n’est pas une option. Au contraire: c’est précisément parce que les institutions de l’État sont encore en train de se découvrir que des initiatives proactives sont en ordre. Étant donné que des impacts massifs sont attendus dans tous les secteurs d'activité, la gouvernance de l'IA deviendra une priorité absolue pour la gestion de la durabilité, d'autant plus que de plus en plus d'investisseurs commencent à se demander comment les entreprises entendent gérer les opportunités et les risques de l'IA.

La deuxième partie de cette série exposera les concepts clés et une ligne de conduite claire pour résoudre le problème du déploiement de l'IA.

Cet article a été initialement publié dans B örsen-Zeitung et est republié par autorisation.

Suivez SAP Finance en ligne: @SAPFinance (Twitter) | LinkedIn | Facebook | YouTube




Source link