Les responsables informatiques doivent mesurer et équilibrer l'équité des modèles d'IA, déclare Forrester

Le biais dans le développement de l'intelligence artificielle est une préoccupation croissante à mesure que son utilisation augmente à travers le monde. Mais malgré les efforts déployés pour créer des normes d'IAil appartient en fin de compte aux organisations et aux responsables informatiques d'adopter les meilleures pratiques et d'assurer l'équité tout au long du cycle de vie de l'IA afin d'éviter tout impact désastreux sur la réglementation, la réputation et les revenus, selon un nouveau rapport de Forrester Research.
Bien qu'une élimination à 100 % des biais dans l'IA soit impossible, les DSI doivent déterminer quand et où l'IA doit être utilisée et quelles pourraient être les ramifications de son utilisation, a déclaré Brandon Purcell, vice-président de Forrester.
Les préjugés sont devenus si inhérents aux modèles d'IA que les entreprises envisagent de faire appel à un nouveau cadre supérieur appelé le directeur de l'éthique chargé de naviguer dans les implications éthiques de l'IA, a déclaré Purcell. Salesforce, Airbnb et Fidelity ont déjà des responsables de l'éthique et d'autres devraient suivre, a-t-il déclaré à CIO.com. l'équité, a-t-il dit, même s'il y a un manque de lignes directrices réglementaires dictant les spécificités de l'équité.
La première étape, a déclaré Purcell, est de s'assurer que le modèle lui-même est équitable. Il a recommandé d'utiliser un critère d'équité basé sur la précision [GG3] qui optimise l'égalité, un critère d'équité basé sur la représentation qui optimise l'équité et un critère d'équité basé sur l'individu. Les entreprises doivent rassembler plusieurs critères d'équité pour vérifier l'impact sur les prédictions du modèle.
Alors que le critère d'équité basé sur l'exactitude garantit qu'aucun groupe de l'ensemble de données ne bénéficie d'un traitement préférentiel, le critère d'équité basé sur l'équité garantit que le modèle offre des résultats équitables basés sur les ensembles de données.
« La parité démographique, par exemple, vise à garantir que des proportions égales de différents groupes sont sélectionnés par un algorithme. Par exemple, un algorithme d'embauche optimisé pour la parité démographique embaucherait une proportion de candidats masculins et féminins représentative de la population globale (probablement 50:50 dans ce cas), indépendamment des différences potentielles de qualifications », a déclaré Purcell.
Un exemple de biais dans l'IA était le modèle Apple Card AI qui attribuait plus de crédit aux hommes, comme cela a été révélé fin 2019. Le problème est apparu lorsque le modèle a proposé au cofondateur d'Apple, Steve Wozniak, une limite de crédit qui était 10 fois supérieur à celui de sa femme, même s'ils partagent les mêmes actifs.
Équilibrer l'équité dans l'IA
Il est important d'équilibrer l'équité de l'IA tout au long de son cycle de vie pour s'assurer que la prédiction d'un modèle est proche d'être exempte de biais .
Pour ce faire, les entreprises devraient chercher à solliciter les commentaires des parties prenantes pour définir les besoins de l'entreprise, rechercher des données de formation plus représentatives lors de la compréhension des données, utiliser des étiquettes plus inclusives lors de la préparation des données, par exemple expérience avec l'inférence causale et l'IA contradictoire dans la phase de modélisation, et la prise en compte de l'intersectionnalité dans la phase d'évaluation, a déclaré Purcell. « L'intersectionnalité » fait référence à la façon dont divers éléments de l'identité d'une personne se combinent pour aggraver les effets des préjugés ou des privilèges. "Pour surmonter ce problème, certaines entreprises commencent à appliquer des techniques d'inférence causale, qui identifient les relations de cause à effet entre les variables et éliminent ainsi les corrélations discriminatoires." D'autres entreprises expérimentent l'apprentissage contradictoire, une technique d'apprentissage automatique qui optimise deux fonctions de coût qui sont contradictoires. les deux optimisent la détection du vol et découragent le modèle de faire des prédictions basées sur des attributs sensibles, tels que la race et le sexe. Lors de l'évaluation de l'équité des systèmes d'IA, se concentrer uniquement sur une classification telle que le sexe peut masquer les préjugés qui se produisent à un niveau plus granulaire pour les personnes appartenant à deux ou plusieurs populations historiquement privées de leurs droits, telles que les femmes non blanches. »
Il a donné l'exemple de l'article phare de Joy Buolamwini et Timnit Gebru sur le biais algorithmique dans la reconnaissance faciale, qui a révélé que le taux d'erreur du système de classification par sexe de Face++ était de 0,7 % pour les hommes et de 21,3 % pour les femmes, toutes races confondues, et que le taux d'erreur est passé à 34,5 % pour les femmes à la peau foncée.
Plus de façons d'ajuster l'équité dans l'IA
Il existe quelques autres méthodes que les entreprises pourraient utiliser pour garantir l'équité dans l'IA, notamment le déploiement de différents modèles pour différents groupes dans la phase de déploiement et le crowdsourcing avec des primes de biais – où les utilisateurs qui détectent les biais sont récompensés – dans la phase de surveillance.
"Il est parfois impossible d'acquérir suffisamment de données de formation sur les groupes sous-représentés. Quoi qu'il en soit, le modèle sera dominé par la tyrannie de la majorité. D'autres fois, les préjugés systémiques sont tellement ancrés dans les données qu'aucune quantité de magie des données ne pourra les extirper. Dans ces cas, il peut être nécessaire de séparer les groupes en différents ensembles de données et de créer des modèles distincts pour chaque groupe », a déclaré Purcell.
Source link