Fermer

octobre 30, 2023

Biais involontaires dans le Big Data : le cas des prêts bancaires et des assurances

Biais involontaires dans le Big Data : le cas des prêts bancaires et des assurances


Les calculs de souscription, de prêt et de prime d’assurance sont quelques exemples de cas où les secteurs de la finance et de l’assurance doivent garder un œil vigilant sur les biais de données.

Le Big Data promet beaucoup, mais l’un de ses principaux L’un des pièges est de pouvoir perpétuer involontairement des préjugés injustes.

Disons qu’une banque collecte des données sur ses clients depuis des décennies et décide ensuite d’utiliser ces données pour créer un modèle permettant de déterminer qui est admissible à des prêts. Si les données prises en compte reflètent des biais historiques, le modèle apprendra et appliquera ces mêmes biais.

Pour cette raison, les candidats qualifiés peuvent se voir refuser à tort des prêts ou une couverture d’assurance, les privant ainsi de la possibilité de protéger leurs actifs ou de se développer. Leurs affaires. Dans cet article, nous explorerons comment les biais se retrouvent dans les modèles Big Data pour les prêts et les assurances, examinerons des exemples concrets et verrons ce qui peut être fait pour résoudre ce problème.

L’automatisation n’exclut pas la discrimination

La première chose à comprendre est que l’automatisation n’est pas une baguette magique qui résout et rationalise chaque cas d’utilisation. Cela s’applique particulièrement aux décideurs du secteur des banques et des assurances.

Voici quelques cas :

Souscription

La souscription automatisée est un processus utilisé dans les secteurs des prêts hypothécaires et des assurances pour évaluer les risques et déterminer s’il convient d’approuver ou de refuser une demande. Il utilise l’intelligence artificielle (IA) et l’apprentissage automatique (ML) pour prendre des décisions basées sur des données telles que les cotes de crédit, l’effet de levier et d’autres facteurs de risque observables pour les candidats. Bien que l’IA/ML offre de nombreux avantages, des préjugés peuvent affecter ces systèmes, entraînant des disparités raciales dans les taux d’approbation. Par exemple, ceci des recherches ont montré que les candidats issus de minorités sont moins susceptibles de recevoir l’approbation algorithmique des systèmes de souscription automatisés (AUS) gouvernementaux aveugles à la race en raison de scores de crédit inférieurs et d’un effet de levier plus élevé.

Prêts

La discrimination en matière de prêt a été un problème persistant dans le passé, certains groupes étant injustement exclus de l’accès au crédit et aux services financiers. D’après HBR, l’IA peut être utilisée pour inverser la discrimination passée en matière de prêt, mais elle peut également perpétuer les préjugés existants si elle n’est pas conçue et testée avec soin. Ces modèles présentent des biais qui découlent de leur programmation et de leurs sources de données, entraînant des pratiques discriminatoires et un traitement injuste d’autres groupes de personnes.

Fred Winchar, PDG de MaxCash, estime que les femmes, depuis très longtemps, ont toujours été victimes de biais dans les données en raison de décisions de prêt inconscientes. Par exemple, Une étude réalisée par les auteurs Astrid Kunze et Amalia R. Miller a montré que les femmes ont 2,9 % moins de chances d’obtenir une promotion que les hommes. Ce qui est intéressant à propos de cette étude, c’est qu’elle a été réalisée à partir de données provenant de Norvège, l’un des pays les plus égalitaires au monde.

Calculs des primes d’assurance

Selon un rapport, les consommateurs noirs paient souvent des primes plus élevées en raison de règles d’assurance historiquement biaisées telles que les primes d’assurance basées sur la race et de subtiles approximations pour une discrimination injuste. ProPublica a mené une étude à l’échelle nationale qui a révélé que les quartiers à prédominance afro-américaine paient en moyenne 70 % de plus pour les primes d’assurance automobile que les autres régions. Cela montre comment la discrimination historique, l’utilisation de variables proxy et le manque de diversité dans le domaine technologique peuvent conduire à des préjugés raciaux involontaires dans le Big Data et les algorithmes utilisés par les compagnies d’assurance.

Comment remédier à ces préjugés

Audit régulier

Les compagnies d’assurance devraient être en mesure d’auditer et de valider leurs algorithmes pour détecter les biais émergents. Cela inclut la surveillance des impacts disparates ou des résultats inégaux entre les groupes.

Équité et transparence

Les développeurs doivent prendre en compte les questions d’équité et d’éthique dès le début de la création de modèles d’IA. Cela implique de prendre en compte des facteurs tels que la race, le sexe et le statut socio-économique, qui peuvent tous être utilisés pour discriminer injustement certains groupes de personnes.

Si un groupe a été historiquement mal desservi en raison de facteurs sociétaux, le modèle peut les considèrent comme « plus risqués » ; emprunteurs simplement en raison d’un manque de données. Cela crée un cercle vicieux dans lequel le groupe continue d’être mal desservi.

Selon Jack Prenter, PDG de DollarWise :

«Afin de garantir l’équité et la transparence, les assureurs doivent comprendre parfaitement pourquoi ils évaluent les risques d’une certaine manière. Cela va devenir plus difficile à mesure que de plus en plus de décisions seront prises à l’aide de modèles IA/ML. Jusqu’à ce qu’une percée massive dans l’espace ML nous permette de procéder à l’ingénierie inverse des décisions de modèles tels que Deep Neural Nets, la transparence ne sera pas possible. Et sans transparence, il est difficile de garantir l’équité. Les assureurs doivent prendre des mesures massives pour s’assurer qu’ils « nettoient » leurs dépenses. les données qu’ils saisissent de manière aussi approfondie que possible pour éliminer les biais, de sorte qu’ils puissent être sûrs que les résultats de ces modèles sont aussi justes que possible.»

Données diverses et représentatives

Il est important de garantir que les données utilisées pour la formation sont diverses et représentent équitablement tous les groupes. Les caractéristiques ou attributs utilisés dans le modèle doivent être soigneusement sélectionnés, en tenant compte de la manière dont différents groupes peuvent être affectés. Les caractéristiques étroitement corrélées aux attributs protégés doivent être évitées. Le choix de l’algorithme peut également avoir un impact sur les biais, avec une boîte opaque ou noire. algorithmes qui rendent plus difficile la détection et le traitement des biais.

Le rôle des logiciels et des algorithmes d’IA/ML

Les principaux avantages des systèmes d’IA sont la rapidité et l’efficacité. Ils aident à évaluer les demandes de prêt et à les évaluer ainsi que la solvabilité du demandeur en temps réel, ce qui facilite l’approbation des prêts, la détection des fraudes et permet d’économiser du temps et des efforts.

Cependant, Prenter estime que cela est essentiel. pour surveiller ces systèmes afin d’éviter la discrimination et de garantir l’exactitude, car bon nombre de ces modèles ML sont des « boîtes noires ». modèles, dans la mesure où il est difficile de savoir pourquoi il génère une certaine réponse, ce qui peut rendre très difficile la suppression des biais indésirables.

Comment Progress Corticon peut aider

Progress Corticon Système de gestion des règles métier (BRMS) offre des avantages significatifs aux personnes impliquées dans les décisions de prêt et d’assurance. Dans le secteur de l’assurance, où les décisions représentent une grande partie des tâches opérationnelles, Corticon permet aux entreprises d’automatiser efficacement les décisions opérationnelles récurrentes. En automatisant les règles qui déterminent les décisions et en les déployant sous forme de services, Corticon améliore les temps de réponse, augmente la cohérence des décisions et réduit les coûts en éliminant les étapes manuelles inutiles. Il permet également aux équipes informatiques de se concentrer sur l’innovation plutôt que sur le codage des mises à jour.

Les principaux assureurs ont déjà bénéficié des avantages de Corticon, notamment une réduction des coûts d’acquisition de clients, des tâches de souscription rationalisées et la transition des tâches de modélisation des décisions et de maintenance. à l’équipe commerciale.

Découvrez comment Progress Corticon accélère les processus d’assurance.




Source link