Fermer

mai 13, 2021

Les patients sont moins susceptibles de suivre les conseils des médecins de l'IA qui connaissent leur nom



Les ingénieurs s'efforcent toujours de rendre nos interactions avec l'IA plus humaines mais une nouvelle étude suggère qu'une touche personnelle n'est pas toujours la bienvenue.

Des chercheurs de Penn State et de l'Université de Californie, Santa Barbara a constaté que les gens sont moins susceptibles de suivre les conseils d'un médecin en IA qui connaît leur nom et leurs antécédents médicaux.

Leur étude en deux phases a assigné au hasard des participants à des chatbots qui se sont identifiés comme IA, humains ou humains assistés par AI.

La première partie de l'étude a été conçue comme une visite chez un nouveau médecin sur une plateforme de cybersanté.

[ Read more : Ce mec a conduit un véhicule électrique des Pays-Bas à la Nouvelle-Zélande – voici ses 3 meilleurs road trip conseils ]

Les 295 participants ont d'abord été invités à remplir un formulaire de santé. Ils ont ensuite lu la description suivante du médecin qu'ils étaient sur le point de rencontrer:

Human doctor Dr. Alex a obtenu un diplôme en médecine de la faculté de médecine de l'Université de Pittsburgh en 2005 et il est certifié en médecine pulmonaire (pulmonaire). Son domaine d'intérêt comprend la toux, les maladies pulmonaires obstructives et les problèmes respiratoires. Le Dr Alex dit: «Je m'efforce de fournir un diagnostic et un traitement précis aux patients.»
Docteur en IA AI Le Dr Alex est un algorithme d'IA basé sur l'apprentissage en profondeur pour la détection de la grippe, des maladies pulmonaires et des problèmes respiratoires. . L'algorithme a été développé par plusieurs groupes de recherche de la faculté de médecine de l'Université de Pittsburgh avec un vaste ensemble de données du monde réel. Dans la pratique, AI Dr. Alex a atteint une grande précision dans le diagnostic et le traitement.
Médecin humain assisté par IA Dr. Alex est un pneumologue diplômé du conseil d'administration qui a obtenu un diplôme en médecine de la faculté de médecine de l'Université de Pittsburgh en 2005.
Le système médical d'IA aidant le Dr Alex est basé sur des algorithmes d'apprentissage en profondeur pour la détection de la grippe, des maladies pulmonaires, et des problèmes respiratoires.

Le médecin est alors entré dans le chat et l'interaction a commencé.

Chaque chatbot a été programmé pour poser huit questions sur les symptômes et les comportements du COVID-19. Enfin, ils ont proposé un diagnostic et des recommandations basés sur l'autocontrôleur CDC Coronavirus.

Environ 10 jours plus tard, les participants ont été invités à une deuxième session. Chacun d'eux a été jumelé à un chatbot ayant la même identité que dans la première partie de l'étude. Mais cette fois, certains ont été assignés à un bot qui faisait référence aux détails de leur interaction précédente, tandis que d'autres se sont vu attribuer un bot qui ne faisait aucune référence à leurs informations personnelles.

Après le chat, les participants ont reçu un questionnaire pour évaluer le médecin et leur interaction. On leur a alors dit que tous les médecins étaient des robots, quelle que soit leur identité professée.

Diagnostic de l'IA

L'étude a révélé que les patients étaient moins susceptibles de suivre les conseils des médecins de l'IA qui se référaient à des informations personnelles – et plus susceptibles de considérer le chatbot intrusif. Cependant, le modèle inverse a été observé dans les vues sur les chatbots qui étaient présentés comme humains. cette individualisation est considérée comme étant unique à l'interaction homme-homme. L'individuation à partir de l'IA est probablement considérée comme un simulacre, c'est-à-dire une tentative malhonnête de compassion et de proximité. D'un autre côté, lorsqu'un médecin humain ne s'individualise pas et demande à plusieurs reprises le nom, les antécédents médicaux et le comportement des patients, les individus ont tendance à percevoir une plus grande intrusion qui conduit à une moins bonne observance du patient.

Les résultats concernant les médecins humains, cependant, viennent avec une mise en garde: 78% des participants de ce groupe pensaient avoir interagi avec un médecin en IA. Les chercheurs soupçonnent que cela était dû aux réponses mécaniques des chatbots et à l'absence de présence humaine sur l'interface, comme une photo de profil.

En fin de compte, l'équipe espère que la recherche conduira à des améliorations dans la conception des chatbots médicaux. Il pourrait également offrir des conseils sur la façon dont les médecins humains devraient interagir avec les patients en ligne.

Vous pouvez lire le document d'étude ici .

Salutations Humanoïdes! Saviez-vous que nous avons une newsletter consacrée à l'IA? Vous pouvez vous y abonner ici .




Source link