Fermer

juillet 20, 2022

5 questions fréquemment posées sur le biais intrinsèque dans les modèles d’IA/ML dans le secteur de la santé


Les organisations de santé jouent un rôle clé en offrant un accès aux soins, en motivant les travailleurs qualifiés et en servant de filets de sécurité sociale dans leurs communautés. Avec les organismes des sciences de la vie, ils sont aux premières lignes de la lutte contre l’équité en santé.

Avec une décennie d’expérience dans le contenu et les connaissances des données, spécialisée dans le traitement de documents, les solutions d’IA et les solutions de langage naturel, je m’efforce d’appliquer mon expertise technique et industrielle à la question prioritaire de la diversité, de l’équité et de l’inclusion dans les soins de santé. .

Voici cinq questions que j’entends souvent dans mon travail :

1. Qu’est-ce que la fracture numérique et quel impact a-t-elle sur les consommateurs de soins de santé ?

Il y a encore trop de gens dans ce pays qui n’ont pas un accès fiable aux appareils informatiques et à Internet chez eux. Si nous repensons au début de la pandémie, nous pouvons le voir avec un net relief. Le principal obstacle au passage à l’école virtuelle était que les enfants n’avaient pas d’appareils ou d’Internet fiable à la maison.

Nous avons également vu très clairement que la fracture touche de manière disproportionnée les personnes à faible revenu des quartiers défavorisés.

Le problème est à la fois l’abordabilité et l’accès.

Le résultat, du point de vue des soins de santé, est que les personnes sans accès fiable à Internet ont moins accès aux informations qu’elles peuvent utiliser pour gérer leur santé.

Ils sont moins en mesure de trouver un médecin qui leur convient. Leur accès aux informations relatives à leur police d’assurance et à ce qui est couvert est plus restreint. Ils sont moins en mesure d’accéder aux services de télésanté et de consulter un fournisseur à domicile.

Tout cela s’aggrave parce que nous utilisons des outils numériques et connectés à Internet pour améliorer les soins de santé et les résultats pour les patients. Mais en fin de compte, la fracture numérique signifie que nous obtenons des gains marginaux pour les populations qui ont déjà les meilleurs résultats et que nous n’obtenons pas de gains significatifs pour les populations qui ont le plus besoin de soutien.

2. Comment les organisations peuvent-elles maintenir une position éthique lors de l’utilisation de l’IA/ML dans les soins de santé ?

Concentrez-vous sur les préjugés intrinsèques, les stéréotypes subconscients qui affectent la façon dont les individus prennent des décisions. Les gens ont des préjugés intrinsèques provenant de leur environnement qui nécessitent une reconnaissance et une attention conscientes. Les modèles d’apprentissage automatique détectent également ces biais. Cela se produit parce que les modèles sont formés sur des données relatives aux décisions humaines historiques, de sorte que les biais humains se manifestent (et peuvent même être amplifiés). Il est essentiel de comprendre d’où vient un modèle, comment il a été formé et pourquoi il a été créé avant de l’utiliser.

L’utilisation éthique de l’IA/ML dans les soins de santé nécessite une attention particulière aux détails et, souvent, un examen humain des décisions de la machine afin d’instaurer la confiance.

3. Comment les établissements de santé peuvent-ils gérer les biais inhérents aux données ? Est-il possible de l’éliminer ?

À ce stade, nous nous efforçons de gérer les biais, pas de les éliminer. Ceci est essentiel pour former des modèles d’apprentissage automatique et interpréter correctement les résultats. Nous recommandons généralement d’utiliser des outils appropriés pour aider à détecter les biais dans les prédictions du modèle et d’utiliser ces détections pour piloter le recyclage et la reprédiction.

Voici quelques-uns des outils les plus simples de notre arsenal :

  • Retournez le paramètre incriminé et réessayez.
  • Déterminez si le modèle aurait fait une prédiction différente si la personne était blanche et de sexe masculin.
  • Utilisez ce point de données supplémentaire pour conseiller un humain sur sa décision.

Pour les soins de santé en particulier, l’humain dans la boucle est d’une importance cruciale. Il existe certains cas où l’appartenance à une classe protégée modifie une prédiction car elle agit comme un proxy pour un facteur génétique clé (homme ou femme, blanc ou noir). L’ordinateur peut facilement corriger les biais lors de l’examen d’une demande de prêt. Cependant, lors de l’évaluation du risque de crise cardiaque, certains facteurs de santé spécifiques peuvent être prédits en fonction de la race ou du sexe.

4. Pourquoi est-il important de former des data scientists dans ce domaine ?

Les scientifiques des données doivent être conscients des problèmes potentiels et omettre les informations de classe protégées des ensembles de formation de modèles dans la mesure du possible. C’est très difficile à faire dans le domaine de la santé, car ces informations peuvent être utilisées pour prédire les résultats.

Le spécialiste des données doit comprendre la probabilité qu’il y ait un problème et être formé pour reconnaître les modèles problématiques. C’est aussi pourquoi il est très important que les scientifiques des données aient une certaine compréhension du domaine médical ou scientifique sur lequel ils construisent un modèle.

Ils doivent comprendre le contexte des données qu’ils utilisent et les prédictions qu’ils font pour comprendre si les résultats des classes protégées sont attendus ou inattendus.

5 : Quels outils sont disponibles pour identifier les biais dans les modèles IA/ML et comment une organisation peut-elle choisir le bon outil ?

Des outils comme IBM OpenScale, Amazon Sagemaker Clarify, Google What-if et Microsoft Fairlearn sont un excellent point de départ pour détecter les biais dans les modèles pendant la formation, et certains peuvent le faire au moment de l’exécution (y compris la possibilité d’apporter des corrections ou d’identifier des changements dans le modèle comportement dans le temps). Ces outils qui permettent à la fois la détection des biais et l’explicabilité et l’observabilité des modèles sont essentiels pour intégrer l’IA/ML dans les environnements de soins de santé cliniques et non cliniques.

Les leaders de la santé se tournent vers nous

Perficient se consacre à permettre aux organisations d’élever la diversité, l’équité et l’inclusion au sein de leurs entreprises. Notre pratique de la santé est composé d’experts qui comprennent les défis uniques auxquels l’industrie est confrontée. Les 10 plus grands systèmes de santé et les 10 plus grands assureurs santé aux États-Unis comptent sur nous pour soutenir leur succès numérique de bout en bout. Modern Healthcare nous a également reconnus comme le quatrième plus grande société de conseil en informatique de santé.

Nous apportons un savoir-faire pragmatique et stratégique aux initiatives de nos clients. Et notre travail attire l’attention – non seulement par les groupes industriels qui reconnaissent et décerner notre travail mais aussi par top partenaires technologiques qui savent que nos équipes fourniront de manière fiable des implémentations complexes et révolutionnaires. Plus important encore, notre clients démontrer leur confiance en nous en s’associant encore et encore avec nous. Nous sommes incroyablement fiers de notre taux de fidélisation de 90 %, car il représente la confiance et la culture collaborative que nous travaillons si dur pour construire chaque jour au sein de nos équipes et avec chaque client.

Avec plus de 20 ans d’expérience dans le secteur de la santé, Perficient est un cabinet de conseil numérique mondial de confiance et de bout en bout. Contactez-nous pour savoir comment nous pouvons vous aider à planifier et à mettre en œuvre une initiative DE&I réussie pour votre organisation.






Source link