Une nouvelle étude de l'Université de Melbourne a démontré comment les algorithmes d'embauche peuvent amplifier les préjugés sexistes humains contre les femmes.
Des chercheurs de l'Université de Melbourne ont donné à 40 recruteurs des CV réels pour des emplois chez UniBank , qui a financé l'étude. Les curriculum vitae concernaient des postes d'analyste de données, d'agent financier et d'agent de recrutement, qui, d'après les données du Bureau australien des statistiques, sont respectivement des postes à prédominance masculine, à parité hommes-femmes et à prédominance féminine. curriculum vitae avec le sexe déclaré du candidat. L'autre moitié a reçu exactement les mêmes curriculum vitae, mais avec des noms traditionnellement féminins et masculins interchangés. Par exemple, ils pourraient changer «Mark» en «Sarah» et «Rachel» en «John».
Les panélistes ont alors reçu pour instruction de classer chaque candidat et de choisir collectivement les trois CV du haut et du bas pour chaque rôle. Les chercheurs ont ensuite revu leurs décisions.
[Lire: Comment créer un moteur de recherche pour les données criminelles ]
Ils ont constaté que les recruteurs préféraient systématiquement les CV de les candidats apparemment masculins – même s'ils avaient les mêmes qualifications et l'expérience que les femmes. Les panélistes masculins et féminins étaient plus susceptibles de donner aux CV des hommes un rang plus élevé.
Les chercheurs ont ensuite utilisé les données pour créer un algorithme de recrutement qui classerait chaque candidat en ligne
Lire: L'algorithme de recrutement sexiste d'Amazon pourrait encore être meilleur qu'un humain
«Même lorsque les noms des candidats ont été supprimés, AI a évalué les curriculum vitae en fonction de modèles de recrutement historiques où les préférences penchaient vers les candidats masculins », a déclaré le co-auteur de l'étude le Dr Marc Cheong, dans une déclaration .
« Par exemple, donner un avantage aux candidats avec des années de service continu désavantagerait automatiquement les femmes qui ont pris un congé pour des responsabilités familiales. »
L'étude s'est appuyée sur un petit échantillon de données, mais ces types de préjugés sexistes ont également été documentés dans de grandes co mpanies. Amazon, par exemple, a dû fermer un algorithme de recrutement après avoir découvert qu'il était discriminatoire à l'égard des candidates, car les mannequins étaient principalement formés sur des CV soumis par des hommes.
«Aussi, en Dans le cas des IA plus avancées qui fonctionnent dans une «boîte noire» sans transparence ni surveillance humaine, il y a un risque que tout biais initial soit amplifié », a ajouté le Dr Cheong.
Les chercheurs croient aux risques peuvent être réduits en rendant les algorithmes de recrutement plus transparents. Mais nous devons également nous attaquer à nos préjugés humains inhérents – avant qu'ils ne soient cuits dans les machines.
Publié le 2 décembre 2020 – 18:06 UTC
Source link