Fermer

mars 4, 2024

L’IA a-t-elle sa place dans les comités d’éthique ? Comment l’utiliser correctement

L’IA a-t-elle sa place dans les comités d’éthique ?  Comment l’utiliser correctement


Le rôle d’un Comité d’éthique est de donner des conseils sur ce qu’il convient de faire dans des situations souvent litigieuses. Ils sont utilisés en médecine, dans la recherche, dans les affaires, dans le droit et dans bien d’autres domaines.

Le mot « éthique » fait référence à principes moraux régissant le comportement humain. La tâche des comités d’éthique peut s’avérer assez délicate étant donné le large éventail d’opinions morales, politiques, philosophiques, culturelles et religieuses. Néanmoins, les bons arguments éthiques constituent le fondement de la société, car ils constituent la base des lois et des accords que nous utilisons pour bien vivre les uns avec les autres.

Compte tenu de l’importance de l’éthique, tout outil pouvant être utilisé pour aider à prendre de meilleures décisions éthiques devrait être exploré et utilisé. Au cours des deux dernières années, il a été de plus en plus reconnu que intelligence artificielle (IA) est un outil qui peut être utilisé pour analyser des données complexes. Il est donc logique de se poser la question de savoir si l’IA peut être utilisée pour aider à prendre de meilleures décisions éthiques.

Comme l’IA est un classe d’algorithme informatique, cela repose sur des données. Les comités d’éthique s’appuient également sur des données. Une question importante est donc de savoir si l’IA est capable de charger, puis d’analyser de manière significative, les types de données que les comités d’éthique examinent régulièrement.

Le <3 de la technologie européenne

Les dernières rumeurs sur la scène technologique européenne, une histoire de notre sage vieux fondateur Boris et un art de l’IA discutable. C’est gratuit, chaque semaine, dans votre boîte de réception. S’inscrire maintenant!

Ici, le contexte devient très important. Par exemple un comité d’éthique hospitalier peut prendre des décisions fondées sur l’expérience avec les patients, les commentaires d’avocats et une compréhension générale des normes et opinions culturelles ou sociétales communes. Il est actuellement difficile de voir comment de telles données pourraient être capturées et introduites dans un algorithme d’IA.

Cependant, je préside un type très spécifique de comité d’éthique, appelé comité d’éthique de la recherche (REC), dont rôle est de revoir les protocoles de recherche scientifique. L’objectif est de promouvoir une recherche de haute qualité tout en protégeant les droits, la sécurité, la dignité et le bien-être des personnes qui participent à la recherche.

La majorité de notre activité consiste à lire des documents complexes pour déterminer quelles peuvent être les questions d’éthique pertinentes, puis à faire des suggestions aux chercheurs sur la manière dont ils peuvent améliorer les protocoles ou procédures proposés. C’est dans ce domaine que l’IA pourrait être très utile.

Protocoles de recherchenotamment ceux de essais cliniques, comportent souvent des centaines, voire des milliers de pages. Les informations sont denses et complexes. Même si les protocoles sont accompagnés de formulaires de demande d’éthique qui cherchent à présenter les informations sur les questions éthiques clés d’une manière que les membres du CER peuvent facilement trouver, la tâche peut encore prendre beaucoup de temps.

Après avoir étudié les documents, les membres du REC évaluent ce qu’ils ont lu, le comparent aux conseils en matière de bonnes pratiques éthiques, prennent en compte les commentaires des groupes de patients et de participants, puis prennent une décision quant à savoir si la recherche peut se dérouler comme prévu. Le résultat le plus courant est que davantage d’informations et quelques modifications sont nécessaires avant que la recherche puisse aller de l’avant.

Un rôle pour les machines ?

Bien que des tentatives aient été faites pour standardiser l’adhésion et l’expérience des CER, les chercheurs se plaignent souvent du fait que le processus peut prendre beaucoup de temps et est inconsistant entre les différentes commissions.

L’IA semble idéalement placé pour accélérer le processus et aider à éliminer certaines incohérences. Non seulement l’IA pourrait lire très rapidement des documents aussi longs, mais elle pourrait également être formée sur un grand nombre de protocoles et de décisions antérieurs.

Il pourrait très rapidement détecter d’éventuels problèmes d’éthique et proposer des solutions à mettre en œuvre par les équipes de recherche. Cela accélérerait considérablement le processus d’examen éthique et le rendrait probablement beaucoup plus cohérent. Mais est-il éthiquement acceptable d’utiliser l’IA de cette manière ?

Même si l’IA pourrait clairement effectuer de nombreuses tâches du REC, on pourrait également faire valoir que ces tâches d’examen ne sont pas en réalité la même chose que la prise d’une décision éthique. À la fin du processus de révision, il est demandé aux CER de décider si un protocole, avec les mises à jour, devrait recevoir un avis favorable ou défavorable.

En conséquence, même si l’avantage de l’IA est évident en termes d’accélération du processus, cela n’est pas tout à fait la même chose que de prendre la décision finale.

Un humain au courant

Il est possible que l’IA soit extrêmement efficace pour évaluer une situation et recommander un plan d’action conforme au comportement « éthique » antérieur. Cependant, la décision d’adopter une ligne de conduite, puis de se comporter de cette manière, est fondamentalement humaine.

Dans l’exemple de l’éthique de la recherche, l’IA pourrait très bien recommander un plan d’action, mais le fait de décider de l’action est une décision humaine. Le système pourrait être conçu pour demander aux comités d’éthique ou aux chercheurs de faire incontestablement ce que suggère l’IA, mais une telle décision concerne la manière dont l’IA est utilisée, et non l’IA elle-même.

Bien que l’IA soit peut-être immédiatement utile aux comités d’éthique de la recherche étant donné le type de données que nous examinons, il est très probable que les méthodes de codage des données non textuelles (telles que les expériences des personnes) s’amélioreront.

Cela signifie qu’au fil du temps, l’IA pourrait également être en mesure d’aider dans d’autres domaines de la prise de décision en matière d’éthique. Cependant, l’essentiel est de ne pas confondre l’outil utilisé pour analyser les données, l’IA, avec la décision « éthique » finale sur la manière d’agir. Le danger ne vient pas de l’IA, mais de la manière dont les gens choisissent d’intégrer l’IA dans les processus décisionnels éthiques.La conversation

Simon Kolstoéprofesseur agrégé de bioéthique, Université de Portsmouth

Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.




Source link