Fermer

octobre 23, 2021

Comment adopter une approche consciente de l'IA réduit les ensembles de données biaisés8 minutes de lecture



Les solutions basées sur l'IA ont besoin d'ensembles de données pour être efficaces. Et la création de ces ensembles de données est lourde d'un problème de biais implicite à un niveau systématique. Toutes les personnes souffrent de préjugés (conscients et inconscients). Les préjugés peuvent prendre plusieurs formes : géographiques, linguistiques, socio-économiques, sexistes et racistes. Et ces biais systématiques sont intégrés dans les données, ce qui peut entraîner des produits d'IA qui perpétuent et amplifient les biais. Les organisations ont besoin d'une approche consciente pour atténuer les biais qui s'infiltrent dans les ensembles de données. favorisaient les candidats masculins par rapport aux femmes. En effet, les ensembles de données de l'outil de recrutement ont été élaborés à partir de curriculum vitae de la dernière décennie, alors que la majorité des candidats étaient des hommes. Les données étaient biaisées et les résultats reflétaient ce biais.

Autre exemple largement rapporté : lors de la conférence annuelle des développeurs Google I/O, Google a partagé un aperçu d'un outil d'assistance dermatologique basé sur l'IA qui aide les gens à comprendre ce qui se passe avec les problèmes liés à leur peau, leurs cheveux et leurs ongles. L'assistant en dermatologie souligne l'évolution de l'IA pour aider aux soins de santé, mais il a également souligné le potentiel de biais de l'IA à la suite des critiques selon lesquelles l'outil n'est pas adapté aux personnes de couleur.

Lorsque Google a annoncé l'outil, la société a noté :

Pour nous assurer que nous construisons pour tout le monde, notre modèle prend en compte des facteurs tels que l'âge, le sexe, la race et les types de peau, de la peau pâle qui ne bronze pas à la peau brune qui brûle rarement.

Google, Utilisation de l'IA pour aider à trouver des réponses aux affections cutanées courantes

Mais un article de Vice a déclaré que Google n'avait pas utilisé un ensemble de données inclusif :

Pour accomplir la tâche, les chercheurs ont utilisé un ensemble de données d'entraînement de 64 837 images de 12 399 patients situé dans deux états. Mais sur les milliers d'affections cutanées illustrées, seulement 3,5% provenaient de patients présentant les types de peau Fitzpatrick V et VI, ceux représentant respectivement la peau brune et la peau brun foncé ou noire. 90 pour cent de la base de données était composée de personnes à la peau claire, à la peau blanche plus foncée ou à la peau brun clair, selon l'étude. En raison de l'échantillonnage biaisé, les dermatologues affirment que l'application pourrait finir par sur- ou sous-diagnostiquer les personnes qui ne sont pas blanches.

Vice, la nouvelle application de dermatologie de Google n'a pas été conçue pour les personnes à la peau plus foncée

Google a répondu en disant qu'il affinerait l'outil avant de le publier officiellement :

Notre outil d'assistance dermatologique alimenté par l'IA est l'aboutissement de plus de trois ans de recherche. Depuis que notre travail a été présenté dans Nature Medicine, nous avons continué à développer et à affiner notre technologie en incorporant des ensembles de données supplémentaires qui incluent des données données par des milliers de personnes et des millions d'autres images de problèmes de peau sélectionnées.

Google, Using AI pour aider à trouver des réponses aux affections cutanées courantes

Autant que nous puissions espérer que les programmes d'IA et d'apprentissage automatique pourraient corriger ces biais, la réalité demeure : ils sont aussi intelligents que leurs ensembles de données sont propres. Dans une mise à jour du vieil adage de programmation garbage in/garbage outles solutions d'IA ne sont aussi solides que la qualité de leurs ensembles de données dès le départ. Sans une correction de la part des programmeurs, ces ensembles de données n'ont pas l'expérience de base pour se corriger eux-mêmes – car ils n'ont tout simplement aucun autre cadre de référence.

Construire des ensembles de données de manière responsable est au cœur de toute intelligence artificielle éthique. Et les gens sont au cœur de la solution.

L'IA consciente est une IA éthique

Les préjugés ne se produisent pas dans le vide. Les ensembles de données contraires à l'éthique ou biaisés proviennent d'une mauvaise approche au cours de la phase de développement. Le moyen de lutter contre les erreurs de biais est d'adopter une approche responsable, centrée sur l'humain, que de nombreux acteurs de l'industrie appellent Mindful AI. Mindful AI a trois composants essentiels :

1. L'IA consciente est centrée sur l'humain

Dès le début du projet d'IA, dans les étapes de planification, les besoins des personnes doivent être au centre de chaque décision. Et cela signifie tout le monde – pas seulement un sous-ensemble. C'est pourquoi les développeurs doivent s'appuyer sur une équipe diversifiée de personnes basées dans le monde pour former des applications d'IA inclusives et sans biais.

Le crowdsourcing des ensembles de données auprès d'une équipe mondiale et diversifiée garantit que les biais sont identifiés et filtrés tôt. Ceux d'origines ethniques, de groupes d'âge, de genres, de niveaux d'éducation, de milieux socio-économiques et de lieux différents peuvent plus facilement repérer les ensembles de données qui favorisent un ensemble de valeurs par rapport à un autre, éliminant ainsi les biais involontaires.

Jetez un œil aux applications vocales. . Lorsqu'ils appliquent une approche d'IA consciente et tirent parti de la puissance d'un vivier mondial de talents, les développeurs peuvent prendre en compte des éléments linguistiques tels que différents dialectes et accents dans les ensembles de données.

Il est essentiel d'établir dès le départ un cadre de conception centré sur l'humain. Cela contribue grandement à garantir que les données générées, conservées et étiquetées répondent aux attentes des utilisateurs finaux. Mais il est également important de tenir les humains au courant tout au long du cycle de développement du produit.

Les humains dans la boucle peuvent également aider les machines à créer une meilleure expérience d'IA pour chaque public spécifique. Chez Pactera EDGE, nos équipes de projet de données d'IA, situées dans le monde entier, comprennent comment différentes cultures et contextes peuvent avoir un impact sur la collecte et la conservation de données de formation en IA fiables. Ils disposent des outils nécessaires pour signaler les problèmes, les surveiller et les résoudre avant qu'une solution basée sur l'IA ne soit mise en service.

L'IA humaine dans la boucle est un projet « filet de sécurité » qui combine les forces des personnes. – et leurs origines diverses avec la puissance de calcul rapide des machines. Cette collaboration humaine et IA doit être établie dès le début des programmes afin que les données biaisées ne constituent pas une base dans le projet.

2. L'IA consciente est responsable

Être responsable, c'est s'assurer que les systèmes d'IA sont exempts de préjugés et qu'ils sont fondés sur l'éthique. Il s'agit de savoir comment, pourquoi et où les données sont créées, comment elles sont synthétisées par les systèmes d'IA et comment elles sont utilisées pour prendre une décision, décisions qui peuvent avoir des implications éthiques. Une façon pour une entreprise de le faire est de travailler avec des communautés sous-représentées pour être plus inclusive et moins biaisée. Dans le domaine des annotations de données, de nouvelles recherches mettent en évidence comment un modèle multi-tâches multi-annotateur qui traite les étiquettes de chaque annotateur comme une sous-tâche distincte peut aider à atténuer les problèmes potentiels inhérents aux méthodes typiques de vérité terrain où les désaccords des annotateurs peuvent être dus à des sous-représentations et peuvent être ignorés dans l'agrégation des annotations en une seule vérité terrain.

3. Digne de confiance

La fiabilité vient d'une entreprise qui est transparente et explicable dans la façon dont le modèle d'IA est formé, comment il fonctionne et pourquoi ils recommandent les résultats. Une entreprise a besoin d'une expertise en localisation d'IA pour permettre à ses clients de rendre leurs applications d'IA plus inclusives et personnalisées, en respectant les nuances critiques de la langue locale et des expériences utilisateur qui peuvent faire ou défaire la crédibilité d'une solution d'IA d'un pays à l'autre . Par exemple, une entreprise doit concevoir ses applications pour des contextes personnalisés et localisés, y compris les langues, les dialectes et les accents dans les applications vocales. De cette façon, une application apporte le même niveau de sophistication de l'expérience vocale à chaque langue, de l'anglais aux langues sous-représentées.

Équité et diversité

En fin de compte, l'IA consciente garantit que les solutions sont construites sur des ensembles de données justes et diversifiés où le les conséquences et l'impact de résultats particuliers sont surveillés et évalués avant que la solution ne soit commercialisée. En étant attentifs et en incluant les humains dans chaque partie du développement de la solution, nous aidons à garantir que les modèles d'IA restent propres, peu biaisés et aussi éthiques que possible.




Source link

0 Partages