Fermer

avril 13, 2022

Les manières choquantes dont le biais des données rend les femmes « non pertinentes » et ce que nous pouvons faire pour l'arrêter


Opinions exprimées parEntrepreneurles contributeurs sont les leurs.

Les femmes sont toujours considérées comme secondaires, et vous ne réalisez peut-être même pas toutes les façons dont cela se fait. Certaines sont évidentes : les femmes gagnent moins que les hommes et elles sont moinsleadership postes au sein des organisations et des conseils d'administration. Les trajectoires de carrière des femmes ont également été considérablement détournées (ou interrompues) en raison de la pandémie à un rythme sans précédent par rapport aux trajectoires de carrière des hommes. Les perspectives et les expériences des femmes sont minimisées, ce qui contribue àpréjugé sexiste et les écarts entre les sexes. Leurs besoins sont pris pour acquis et/ou regroupés dans la bulle des besoins ou des désirs masculins.

Une façon moins connue de ces disparités se produit à travers les données. Vous vous dites peut-être : « Comment est-ce possible ? Les données sont basées sur et faits. Comment peut-il y avoir un biais que les données en faitcrée ?" La réponse implique un mépris pour les femmes dans la recherche – des affaires à la technologie en passant par la médecine et d'autres aspects pratiques de la vie.

Qu'est-ce que le biais de données ?

Les données sont collectées afin de fournir des preuves de ce qui fonctionne (ou ne fonctionne pas) pour divers projets, concepts ou innovations. Il permet aux chercheurs de savoir ce qui doit être ajusté et/ou avancé. Une variable au sein de la recherche qui rend l'investigation difficile est l'exhaustivité : tous les aspects de l'application des données doivent être pris en compte. Lorsqu'un aspect est négligé, des résultats négatifs ou dangereux peuvent en résulter. Considérons, par exemple, le cas où une voiture Uber autonomea frappé et tué une femme en Arizona.Uber a déterminé que la voiture ne pouvait pas identifier qu'un objet était un piéton à moins qu'il ne se trouve à proximité d'un passage pour piétons – un oubli qui a créé un biais de données dangereux.

Pensez également aux logiciels de reconnaissance faciale, un outil utilisé par de nombreux organismes chargés de l'application de la loi. Après avoir été appliqué pour identifier, cibler et condamner des criminels, la recherche a révélé que dans de nombreux cas, ses algorithmes étaient nettement moins précis lorsqu'il s'agissait deles personnes de couleur ainsi que les femmes . Le biais qui en a résulté a eu des répercussions généralisées sur les droits civils et la sécurité publique.

Dans le processus de conception de la recherche et de la collecte de données, les chercheurs s'appuient sur un échantillon de population – censé représenter la population plus large à laquelle les résultats de la recherche et d'autres données seront appliqués. Mais pour être efficace, cet échantillon doit inclure tous les secteurs de la population dans son ensemble. Dans les cas de biais de données sexospécifiques, les femmes sont négligées.

Lié:Comment les entrepreneurs peuvent mener des études de marché primaires

Qu'est-ce que le biais de données sexiste ?

Dans de nombreux domaines de recherche, les femmes ne sont pas incluses dans l'échantillon de population à un pourcentage équitable, voire pas du tout. Cela pourrait convenir si les données n'étaient pas appliquées aux femmes, mais c'est le cas. Les produits, services et stratégies sont généralisés aux femmes alors que la recherche qui les sous-tend n'est pas basée sur des donnéesimpliquant femmes. Relisez cela : Il y a des choses qui sont faites et utilisées par les femmes et nous ne savons pas si elles travaillent pour elles ou sont sans danger pour elles. Considérez ces exemples :

Technologie

Les mains des femmes sont généralement plus petites que celles des hommes (d'environ un à deux pouces), mais cela n'est généralement pas pris en compte lors de la conception des téléphones portables. Ces outils désormais pratiquement obligatoires – et en particulier une tendance à leur taille croissante – ne tiennent pas compte de la façon dont un téléphone tiendra dans de petites mains. Bien que certaines entreprises proposent des modèles plus petits, ils sont généralement moins puissants ou offrent moins d'options. Un autre exemple concerne Google Home : leles bases de données utilisées pour développer cette application – selon une étude réalisée en 2016 par la sociolinguiste et scientifique des données, le Dr Rachael Tatman – étaient dominées par des voix masculines, ce qui la rend 70% plus susceptible de reconnaître et de répondre efficacement aux voix des hommes par rapport à celles des femmes.

Médecine

Les femmes sont plus susceptibles de mourir d'une crise cardiaque car leurs symptômes sont souvent considérés comme « atypiques ». En effet, les symptômes standard ont été identifiés sur la base de recherches axées sur les présentations des hommes (douleurs à la poitrine, douleurs au bras gauche) par rapport aux femmes (essoufflement, nausées, fatigue, douleurs à l'estomac). Collectivement, ce biais est souvent appelé le syndrome de Yentyl et est détaillé dansun article de 2011dans leJournal européen du cœur . Cela fait du corps masculin la valeur par défaut pour la compréhension médicale, et il en va de même pour la recherche médicale, dans laquelle environ 85 % des rongeurs utilisés dans les tests sont des hommes, selon une étude de 2011.Examens des neurosciences et du biocomportement article.

Le transport

Les femmes sont plus susceptibles d'être gravement blessées dans des accidents de voiture. Pourquoi? Parce que les constructeurs automobiles ont une « position assise standard » utilisée pour la recherche sur la sécurité qui est basée sur les dimensions des hommes. Les femmes sont généralement plus petites que les hommes et doivent donc s'asseoir plus haut et plus près du volant pour voir clairement, mais cette information n'est pas incluse dans la "norme" des fabricants. Les femmes ont également une probabilité plus élevée de mourir dans un accident de voiture en raison d'un biais similaire dans les données sur le sexe. Les mannequins de test de collision masculins sont généralement utilisés pour le test du siège du conducteur. Lorsque des mannequins de crash-test féminins sont utilisés, ils sont généralement limités au siège passager. Le résultat est que les recherches existantes ne sont ni exactes ni applicables aux conductrices.

Forces de l'ordre

Dans certains pays, les policières portent des gilets conçus et étudiés pour le corps masculin, ce qui les rend plus vulnérables et moins protégées que leurs homologues masculins. Un congrès syndical 2017rapportdétaillé ces disparités dans l'application britannique des EPI, et bon nombre des mêmes problèmes s'appliquent également aux États-Unis.

Lié:Femmes étiquetées et préjugés au travail

Climat de bureau

Recherche publiée parChangement climatique naturel en 2015 a clairement montré comment la température de l'espace de travail affecte la productivité et a également démontré un biais de données sexospécifiques. En tant que femme, si vous vous demandez pourquoi vous avez toujours froid au travail alors que vos homologues masculins sont à l'aise, c'est parce que les différences physiologiques ne sont pas prises en compte lors de la recherche de la température idéale pour la productivité et le confort des employés. La recherche a tendance à utiliser la physiologie masculine comme norme, ce qui ne tient pas compte différences en ce qui concerne l'indice de masse corporelle ou la structure corporelle globale. Et d'un , les hommes ont tendance à porter plus de costumes et de couches dans le cadre d'une tenue de bureau typique, contrairement aux femmes. Lorsqu'elles ne sont pas prises en compte dans le cadre de la recherche sur le climat au bureau, les femmes sont désavantagées.

Aménagement urbain

Ce domaine d'étude et son application sont généralement dominés par les hommes, et sont trop souvent limités à leurs points de vue : les données concernant les femmes ne sont en grande partie pas prises en compte. Par exemple, les métros sont construits pour être efficaces et abordables, et l'éclairage tamisé et les zones non peuplées sont plus répandus loin des zones surveillées. Cela laisse les femmes dans une position désavantageuse, créant des espaces où les attaques et/ou le harcèlement sont plus probables. De plus, les banlieues sont toujours conçues en utilisant une perspective dépassée de l'homme en tant que soutien de famille et en mettant l'accent sur l'efficacité des déplacements quotidiens (selon un 2021 Our Secure Futurearticle ). Cela rend la gestion de la vie familiale (y compris les courses et la garde des enfants) plus difficile, et cette tâche vitale relève souvent encore des responsabilités des femmes.

Comment, vous demandez-vous peut-être, ce mépris généralisé des données dans tant de domaines de la vie ? La réponse est simple et constitue le piège de cette situation : les femmes sont considérées comme secondaires, ce qui signifie qu'on ne pense même pas à elles lorsque la recherche s'organise, ce qui contribue alors àSuite aux femmes étant considérées comme deuxièmes. Il est également coûteux de créer les études de recherche plus complètes (ou multiples) nécessaires pour capturer tous les consommateurs possibles connectés aux données. Ce modèle cyclique maintient le statut des femmes comme invisibles ou non pertinentes, et les maintient subsumées dans des constructions masculines qui ont dominé, contrôlé ou usurpé des domaines de la vie et du fonctionnement.

Lié:4 erreurs que nous commettons tous pour perpétuer les préjugés sexistes

Que pouvons-nous faire?

Pour résoudre ces problèmes, il faut d'abord exiger mieux, quels que soient nos rôles ou notre sexe. Nouspouvezinfluencer les décisions impactant ce biais de données par des actions et des choix.

En tant que membres de la société, nous pouvons devenir des analyseurs critiques d'informations, notamment en posant des questions et/ou en recherchant comment les données sont collectées. Posez des questions sur qui est inclus dans un échantillon de population pour savoir si les individus auxquels les données sont appliquées étaient équitablement représentés. Si ce n'est pas le cas, remettez en question la recherche et défiez les entreprises en n'investissant pas votre argent dans leurs produits.

En tant que leaders, considérez attentivement vos équipes, en particulier celles qui créent des recherches, collectent des données ou utilisent des données. Sont-ils diversifiés, non seulement dans leurs compétences techniques et professionnelles, mais dans qui ils sont ? Représentent-ils la population à laquelle les données seront appliquées ? Exigent-ils des perspectives plus diversifiées et représentatives ? En tant que leader, vous pouvez également créer des cultures professionnelles qui encouragent les individus à remettre en question les protocoles et les données. L'harmonie dans les discussions de groupe et d'équipe n'est pas toujours idéale, car elle ne permet pas de nouvelles perspectives et n'encourage pas le partage des préoccupations.

En tant que femmes, nous pouvons également utiliser notre argent pour influencer le changement. On estime que les femmes effectuent 70 % à 80 % de tous les achats des consommateurs, mais de nombreuses entreprises continuent d'utiliser des données biaisées en faveur des hommes – pour commercialiser les hommes ou souligner leurs préférences. Les femmes peuvent refuser de mettre leur argent dans des entreprises qui n'adoptent pas l'égalité dans les protocoles de recherche ; sinon, ils auront peu de motivation pour changer.

Lié:C'est pourquoi nous avons toujours besoin de groupes de réseautage pour femmes

Ignorer les préjugés sexistes dans les données contribue et facilite le placement des femmes au second plan dans notre monde. Faire des progrès en tant que société et en tant que femmes commence par reconnaître comment la recherche et les données représentatives peuvent uniformiser les règles du jeu. Lorsque nous y parvenons, nous avons un impact sur les femmes dans le présent et dans l'avenir, et dans tous les domaines de la vie.




Source link