Garantir la diversité et lutter contre les préjugés dans le développement de données et de logiciels

Les organisations se concentrent de plus en plus sur la diversité, l’équité et l’inclusion dans leurs pratiques d’embauche et leur culture d’entreprise, non seulement parce que c’est la bonne chose à faire, mais en ne le faisant pas, cela peut nuire à l’entreprise.
Avec les logiciels au cœur de chaque entreprise et les organisations tirant plus de valeur et d’informations de leurs données collectées par le logiciel, le fait d’avoir des ensembles de données et des logiciels non diversifiés peut aboutir à des produits et services qui ne s’adressent qu’à un groupe spécifique de personnes et sous- sert un autre, ou pire, lui fait du mal. La réalité est que les développeurs et les scientifiques des données encodent leurs croyances, leurs convictions et leurs préjugés – le plus souvent inconsciemment – dans leurs données et lorsqu’ils conçoivent des logiciels.
Nous avons déjà vu dans la vraie vie les impacts négatifs du moment où la science des données et le développement de logiciels ne sont pas contrôlés sans tenir compte de DE&I. Par exemple, au début tentative d’Amazon de concevoir un programme informatique pour guider ses décisions d’embauche, l’entreprise a utilisé les CV soumis de la décennie précédente comme données de formation. Parce que la plupart de ces CV provenaient d’hommes, le programme s’est appris que les candidats masculins étaient préférables aux femmes. Bien qu’Amazon ait réalisé cette tendance très tôt et n’ait jamais utilisé le programme pour évaluer les candidatsl’exemple montre comment s’appuyer sur des données biaisées peut renforcer les inégalités.
En fin de compte, ces problèmes ne sont pas dus à une intention malveillante, mais plutôt au fait d’être « aveugles » ou ignorants de tous les points de vue et des résultats potentiels que des groupes de personnes vivent différemment. La meilleure façon d’atténuer et d’éviter le problème est d’avoir une équipe avec une représentation diversifiée couvrant divers milieux professionnels, sexes, races, ethnies, etc. Une équipe diversifiée peut examiner chaque étape de la création et de la gestion des pipelines de données (collecte, nettoyage, etc.) et le processus de livraison du logiciel en tenant compte de toutes sortes de résultats.
Alors que nous constatons des développements et des améliorations dans la diversité croissante des rôles en science des données et en logiciels, il reste encore beaucoup à faire. Un 2020 étude in AI suggère que si la science des données est un domaine plutôt nouveau et qu’il faudra du temps pour répondre aux initiatives de diversité, certains des efforts visant à accroître la diversité dans d’autres domaines technologiques pourraient réussir. Au cours des dernières années, de nombreuses conférences et événements de codage divers ont été développés, avec des taux de participation en croissance rapide.
L’un des premiers points de départ consiste à s’engager à embaucher des candidats diversifiés et à favoriser une culture de travail inclusive qui retient et assure le développement continu d’équipes diversifiées. De même, les managers doivent veiller à créer une culture inclusive et ouverte qui donne une voix aux talents sous-représentés.
À partir de là, la garantie de l’intégrité des données de votre organisation et la livraison des logiciels peuvent commencer à prendre forme.
Comment assurer l’intégrité de vos données et de ses résultats
Comme nous le savons, les ramifications des données biaisées peuvent avoir un impact sur la société dans son ensemble, il est donc important d’avoir le bon ensemble de données et de l’appliquer correctement. Sur le plan programmatique, les équipes logicielles suivent un cycle de vie : collecte des données, nettoyage et classification, puis écriture de code qui utilise ces données et test pour obtenir des résultats qui répondent aux besoins de l’entreprise et des clients. Avoir un ensemble diversifié de personnes travaillant à chaque étape du cycle de vie aidera les organisations à éviter certains des pièges mentionnés précédemment.
Passer du temps à définir ce qu’est un « bon » ensemble de données qui fournira des résultats équitables est essentiel pour garantir l’intégrité de vos données. Plus précisément, lorsqu’elles examinent un ensemble de données, les équipes doivent se demander si le résultat peut être préjudiciable ou s’il y a quelque chose à en tirer. Ils devraient poser des questions telles que, à quoi ressemble le bien, où pourrait-il y avoir des préjugés, quelles populations peuvent en être affectées ? Si les données ne représentent pas la population, vous pouvez vous attendre à obtenir de mauvais résultats ou résultats à partir de cet ensemble de données. Tout au long du processus de collecte de données, assurez-vous de recueillir tous les points de vue, de ne pas jeter d’informations critiques et d’alimenter les données avec la notion de ce qui se traduira par de « bons » résultats.
La nature itérative du développement de logiciels donne également aux équipes la possibilité de corriger en permanence leur trajectoire lorsqu’elles détectent des problèmes dans les données, où les données peuvent être « contaminées » par des préjugés personnels, et de s’ajuster constamment.
La résolution des problèmes de biais inconscients à chaque étape du cycle de vie du produit, de la stratégie à la définition du produit, aux exigences, à l’expérience utilisateur, à l’ingénierie et au marketing du produit, garantira que les organisations fournissent des logiciels qui répondent à davantage de besoins. De même, diverses équipes travaillant sur des ensembles de données et des logiciels équitables et plus inclusifs peuvent stimuler l’innovation qui crée un avantage concurrentiel, améliore l’expérience client et améliore la qualité du service, ce qui peut conduire à de meilleurs résultats commerciaux.
Pour en savoir plus, rendez-nous visite ici.
Source link