Les 3 principes de la construction d'une IA anti-biais

Les avis exprimés par les contributeurs de Entrepreneur sont les leurs.
Vous lisez Entrepreneur United States, une franchise internationale d'Entrepreneur Media.
En avril 2021, la Commission fédérale du commerce des États-Unis — dans son rapport « Viser la vérité, l'impartialité et l'équité dans l'utilisation de l'IA par votre entreprise » — a lancé un avertissement clair aux acteurs de l'industrie technologique employant intelligence artificielle : " Tenez-vous pour responsable, ou soyez prêt à ce que la FTC le fasse pour vous. " De même, la Commission européenne a proposé de nouvelles règles d'IA pour protéger les citoyens contre la discrimination fondée sur l'IA. Ces avertissements et les règlements imminents sont justifiés.
L'apprentissage automatique (ML), un type courant d'IA, imite les modèles, les attitudes et les comportements qui existent dans notre monde imparfait et, par conséquent, il codifie souvent les biais inhérents et le racisme systémique . Les préjugés inconscients sont particulièrement difficiles à surmonter, car ils existent, par définition, sans la conscience humaine. Cependant, l'IA a également le pouvoir de faire exactement le contraire : supprimer les préjugés humains inhérents et introduire une plus grande justice, équité et opportunités économiques pour les individus à l'échelle mondiale. En termes simples, l'IA a le potentiel de vraiment démocratiser le monde.
Réputation de l'IA pour refléter les préjugés humains
Tout comme un enfant observe son environnement, voit des modèles et des comportements et les imite, l'IA est susceptible de refléter les préjugés humains. Ainsi, les entreprises technologiques, comme les parents, ont la lourde responsabilité de veiller à ce que les pensées racistes, sexistes et autres préjugés ne soient pas perpétuées par les applications d'IA.
Malheureusement, la réputation peu recommandable d'IA à cet égard a été méritée à juste titre. Par exemple, en janvier 2021, l'ensemble du gouvernement néerlandais a démissionné après qu'il a été révélé qu'il utilisait un algorithme biaisé pour prédire quels citoyens seraient les plus susceptibles de réclamer à tort des allocations familiales, ce qui a forcé 26 000 parents (beaucoup sélectionnés en raison de leur double nationalité) de rembourser les prestations à l'administration fiscale sans droit de recours.
D'autres recherches, menées par le Gender Shades Project (une organisation à but non lucratif axée sur la discrimination fondée sur le sexe), ont révélé que l'apprentissage automatique de la reconnaissance faciale est notoirement mauvais pour identifier avec précision les personnes de couleur. Certains des impacts des applications associées ont été catastrophiques, comme l'identification d'une personne innocente en tant que criminel dans une file d'attente virtuelle. À l'été 2020, le chef de la police de Détroit a avoué que la technologie de reconnaissance faciale utilisée par son département avait mal identifié environ 96% des suspects, ce qui a permis à des innocents d'être identifiés comme des criminels potentiels. Plus récemment, Amazon a prolongé son interdiction d'utiliser son logiciel de reconnaissance faciale dans les services de police en raison de préoccupations concernant l'identification raciale erronée.
Connexe : Ces entrepreneurs adoptent des biais dans l'intelligence artificielle
Principes de la construction d'une IA anti-biais
Mais il n'est pas nécessaire que ce soit ainsi. L'IA peut être créée non seulement pour être impartiale, mais aussi pour lutter contre les inégalités liées à la race, au sexe, etc., et ironiquement, la seule vraie solution aux biais de l'IA est l'intervention humaine. Pour aider à informer cette pratique, il est essentiel de disposer d'une boucle de rétroaction constante de critiques et de commentaires d'utilisateurs aux antécédents, aux expériences et aux données démographiques divers. Cette méthode donne un effet de réseau, permettant aux développeurs de proposer des mises à jour continues des algorithmes et des pratiques. Les développeurs qui utilisent des principes et des pratiques diligents peuvent garantir que leur technologie est impartiale et peut être appliquée à un large éventail de scénarios.
Certaines valeurs directrices à cette fin :
1. Concevoir des processus de développement de systèmes d'IA/ML en gardant à l'esprit la suppression des biais . Le développement de systèmes d'IA/ML comporte plusieurs étapes, et le biais ne doit pas être une réflexion après coup ; les équipes doivent commencer par réfléchir à tous les biais possibles qui pourraient exister dans ce qu'elles construisent, puis résoudre les problèmes quant à la manière dont ils seront traités à chaque étape du processus. Il est essentiel pour cela de s'assurer que ces équipes sont diversifiées dans leur processus de réflexion, ce qui contribue à garantir que l'IA sera une collaboration d'horizons différents. 2. Assurez-vous que les ensembles de données utilisés pour enseigner les algorithmes reflètent la vraie diversité (globale) et n'introduisent pas involontairement de biais contre des groupes individuels. L'IA est conçue pour suivre les règles qui lui sont imposées, elle doit donc être entraînée avec des données impartiales. Sans considérations appropriées lors des étapes de collecte et de préparation des données, des biais involontaires peuvent s'infiltrer dans les algorithmes, qui peuvent ensuite devenir coûteux à supprimer, à la fois du point de vue du temps et des coûts. Les données de test de pression et l'examen des modèles à l'intérieur aideront les équipes à voir à la fois les conséquences apparentes et imprévues des ensembles de données.3. Assurez une approche rigoureuse pour éliminer les biais tout au long du cycle de développement
Peu importe le degré de prudence ou de diversité de votre équipe ou de vos données, les biais humains peuvent toujours passer à travers les mailles du filet, donc la prochaine tâche critique consiste à utiliser des principes anti-biais pour empêcher les biais humains d'entrer dans la technologie. Cela inclut de s'assurer que le cycle de ML (pré-formation, formation et post-formation) est activement surveillé pour les repérer. Cela peut être fait en déclenchant des alarmes pour les paramètres sensibles et en créant des expulsions et des inclusions répétées dans les résultats. Un autre aspect important pour minimiser les biais à travers de tels processus est de définir des mesures d'équité pertinentes ; il n'existe pas de définition universelle de l'équité, et il existe de nombreuses définitions, chacune offrant un compromis différent entre l'équité et d'autres objectifs.
Connexe : Découvrez comment l'apprentissage automatique peut aider votre entreprise
Final frontier
Enfin, les recherches en cours sur le problème du biais par procuration, à savoir l'explicabilité dans les systèmes d'IA, pourraient finalement conduire la communauté AI/ML à construire des systèmes sans biais, ou plutôt des systèmes qui peuvent être sondés et tenus responsables des décisions qu'ils prennent. Créer un monde plus équitable ne concerne pas seulement l'IA ou l'innovation technologique. Bien qu'ils jouent un rôle, le vrai changement peut et doit commencer par chacun de nous.
Source link