Fermer

décembre 7, 2020

Comment les banques utilisent l'IA pour attraper les criminels et détecter les préjugés


Imaginez un algorithme qui examine des milliers de transactions financières chaque seconde et signale les frauduleuses. C'est quelque chose qui est devenu possible grâce aux progrès de l'intelligence artificielle ces dernières années, et c'est une proposition de valeur très intéressante pour les banques qui sont inondées d'énormes quantités de transactions quotidiennes et un défi croissant de lutte contre la criminalité financière, le blanchiment d'argent, le financement terrorisme et corruption.

Cependant, les avantages de l'intelligence artificielle ne sont pas totalement gratuits. Les entreprises qui utilisent l'IA pour détecter et prévenir la criminalité sont également confrontées à de nouveaux défis, tels que le biais algorithmique, un problème qui se produit lorsqu'un algorithme d'IA cause un désavantage systémique pour un groupe d'un sexe, d'une ethnie ou d'une religion spécifiques. Ces dernières années, un biais algorithmique qui n'a pas été bien contrôlé a endommagé la réputation des entreprises qui l'utilisent. Il est extrêmement important d'être toujours attentif à l'existence d'un tel biais.

Par exemple, en 2019, l'algorithme exécutant la carte de crédit d'Apple s'est avéré biaisé contre les femmes ce qui a provoqué un contrecoup des relations publiques contre l'entreprise. En 2018, Amazon a dû fermer un outil de recrutement basé sur l'IA qui montrait également des préjugés contre les femmes.

Les banques sont confrontées à des défis similaires, et voici comment elles combattent la criminalité financière avec l'IA tout en évitant les écueils.

Attraper les criminels

La lutte contre la criminalité financière implique de surveiller un grand nombre de transactions. Par exemple, ABN AMRO, basée aux Pays-Bas, compte actuellement environ 3400 employés impliqués dans le filtrage et le contrôle des transactions.

Le contrôle traditionnel repose sur des systèmes basés sur des règles qui sont rigides et omettent de nombreuses menaces financières émergentes telles que le financement du terrorisme, le trafic illégal et la fraude à la faune et aux soins de santé. Pendant ce temps, ils créent beaucoup de faux positifs, des transactions légitimes qui sont signalées comme suspectes. Cela rend très difficile pour les analystes de suivre le déluge de données dirigées vers eux.

C'est le principal domaine où les algorithmes d'IA peuvent aider. Les algorithmes d'IA peuvent être formés pour détecter les valeurs aberrantes, les transactions qui s'écartent du comportement normal d'un client. L'équipe de science des données de l'unité Innovation et Design d'ABN AMRO, dirigée par Malou van den Berg, a construit des modèles qui aident à trouver l'inconnu dans les transactions financières.

L'équipe a très bien réussi à trouver des transactions frauduleuses tout en réduisant les faux positifs. «Nous voyons aussi des modèles et des choses que nous n'avions pas vu auparavant», explique Van der Berg.

Au lieu de règles statiques, ces Les algorithmes peuvent s'adapter aux habitudes changeantes des clients et également détecter les nouvelles menaces qui émergent à mesure que les modèles financiers changent progressivement.

«Si notre IA signale une transaction comme s'écartant du modèle normal d'un client, nous découvrons pourquoi. Sur la base des informations disponibles, nous vérifions si la transaction s'écarte du schéma normal d'un client. Si l'enquête ne permet pas de clarifier le paiement, nous pouvons nous renseigner auprès du client », déclare van den Berg.

ABN AMRO utilise l'apprentissage automatique non supervisé, une branche de l'IA qui peut examiner d'énormes quantités de données non étiquetées et trouver des modèles pertinents qui peuvent indiquer des transactions sûres et suspectes. L'apprentissage automatique non supervisé peut aider à créer des systèmes dynamiques de détection de la criminalité financière. Mais comme d'autres branches de l'IA, les modèles d'apprentissage automatique non supervisés peuvent également développer des biais cachés qui peuvent causer des dommages indésirables s'ils ne sont pas traités correctement.

Suppression des biais indésirables

Les équipes de science des données et d'analyse des banques doivent trouver le bon équilibre là où leur Les algorithmes d'IA peuvent dénicher des transactions frauduleuses sans enfreindre les droits de quiconque. Les développeurs de systèmes d'IA veillent à éviter d'inclure des variables problématiques telles que le sexe, la race et l'ethnicité dans leurs modèles. Mais le problème est que d'autres informations peuvent servir de proxy pour ces mêmes éléments, et les scientifiques de l'IA doivent s'assurer que ces proxies n'affectent pas la prise de décision de leurs algorithmes. Par exemple, dans le cas de l'algorithme d'embauche défectueux d'Amazon, alors que le sexe n'était pas explicitement pris en compte dans les décisions d'embauche, l'algorithme avait appris à associer des scores négatifs aux CV avec des noms féminins ou des termes tels que «club d'échecs féminin».

«Pour Par exemple, lorsque des techniques d'IA doivent être utilisées pour identifier des clients soupçonnés d'activités criminelles, il faut d'abord montrer que cette IA traite tous les clients équitablement en ce qui concerne les caractéristiques sensibles (comme l'endroit où ils sont nés) », déclare van den Berg. [19659002] Lars Haringa, un data scientist dans l'équipe de van den Berg, explique: «Le data scientist qui construit le modèle d'IA doit non seulement démontrer les performances du modèle, mais aussi justifier éthiquement son impact. Cela signifie qu'avant la mise en production d'un modèle, le data scientist doit garantir la conformité en matière de confidentialité, d'équité et de partialité. Un exemple est de s'assurer que les employés ne développent pas de préjugés à la suite de l'utilisation de systèmes d'IA, en mettant en place des sauvegardes statistiques qui garantissent aux employés des sélections impartiales par les outils d'IA. "

Le service responsable du résultat des analyses de suivi des transactions assume également la responsabilité du traitement équitable. Ce n'est que lorsqu'ils acceptent le travail et les analyses du data scientist que le modèle peut être utilisé en production sur les données client.

L'équipe de surveillance des transactions d'ABN AMRO mesure les biais potentiels dès le départ et périodiquement pour éviter ces effets négatifs. «Chez ABN AMRO, les scientifiques des données travaillent avec les services juridiques et de protection de la vie privée pour garantir la protection des droits des clients et des employés», explique van der Berg à TNW.

Coopération équilibrée

L'un des défis auxquels sont confrontées les entreprises utilisant des algorithmes d'IA est décider de la quantité de détails à révéler sur leur IA. D'une part, les entreprises veulent tirer pleinement parti du travail conjoint sur les algorithmes et la technologie, tandis que d'autre part, elles veulent empêcher les acteurs malveillants de les jouer. Et ils ont également l'obligation légale de protéger les données des clients.

«Pour préserver l'efficacité des algorithmes, comme tous les autres modèles au sein des banques, il y a plusieurs parties prenantes critiques dans l'approbation du modèle: outre l'initiateur du modèle et les développeurs, il y a la validation du modèle (indépendant examen technique de tous les aspects du modèle), conformité (par exemple application de la réglementation), juridique, confidentialité et audit (vérification indépendante de tous les processus appropriés, y compris l'intégrité de toute la chaîne de modélisation et d'application) », explique van der Berg. «C'est une pratique courante pour toutes les banques.»

ABN AMRO ne publie pas les détails de ses efforts de lutte contre la criminalité, mais il existe une forte culture de partage des connaissances, dit van der Berg, où différents départements mettent leurs algorithmes et techniques. à la disposition de chacun pour obtenir de meilleurs résultats. Mais en même temps, il existe de fortes restrictions sur l'utilisation des données et des statistiques client. ABN AMRO partage également ses connaissances avec d'autres banques avec les mêmes restrictions. Lorsqu'il est nécessaire de partager des données, les données sont anonymisées pour éviter que l'identité des clients ne soit révélée à des tiers.

La banque, comme de nombreux autres secteurs, est réinventée et redéfinie par l'intelligence artificielle. À mesure que les criminels financiers deviennent plus sophistiqués dans leurs méthodes et leurs tactiques, les banquiers auront besoin de toute l'aide possible pour protéger leurs clients et leur réputation. La coopération sectorielle sur les technologies intelligentes de lutte contre la criminalité financière qui respectent les droits de tous les clients peut être l'un des meilleurs alliés des banquiers du monde entier.

Quelle que soit votre spécialité, avec ABN AMRO, votre talent et votre créativité contribueront à bâtir la banque du futur. Apprenez-en davantage sur leurs opportunités d'emplois technologiques passionnantes ici.

Publié le 7 décembre 2020 – 14:27 UTC




Source link