Fermer

mars 17, 2021

Pourquoi les humains et l'IA sont coincés dans une impasse contre les fausses nouvelles



Les fausses nouvelles sont un fléau pour la communauté mondiale. Malgré tous nos efforts pour le combattre, le problème est plus profond que la simple vérification des faits ou la suppression des publications spécialisées dans la désinformation. La réflexion actuelle tend toujours à soutenir une solution alimentée par l'IA, mais qu'est-ce que cela signifie vraiment?

D'après des recherches récentes, y compris cet article de scientifiques de l'Université du Tennessee et du Rensselaer Polytechnic Institute, nous allons avoir besoin de plus que de simples algorithmes intelligents pour corriger notre discours brisé.

Le problème est simple: l'IA ne peut rien faire qu'une personne ne peut pas faire. Bien sûr, il peut faire beaucoup de choses plus rapidement et plus efficacement que les gens – comme compter jusqu'à un million – mais, à la base, l'intelligence artificielle ne fait que mettre à l'échelle ce que les gens peuvent déjà faire. Et les gens craignent vraiment d’identifier les fausses nouvelles.

Selon les chercheurs susmentionnés, le problème réside dans ce que l’on appelle « biais de confirmation ». Fondamentalement, lorsqu'une personne pense savoir déjà quelque chose, elle est moins susceptible d'être influencée par une balise de «fake news» ou une description de «source douteuse».

D'après l'article de l'équipe :

Dans deux études séquentielles, utilisant des données collectées auprès des consommateurs d'actualités via Amazon Mechanical Turk (AMT), nous étudions s'il existe des différences dans leur capacité à identifier correctement les fausses nouvelles sous deux conditions: lorsque l'intervention cible de nouvelles situations d'actualité et lorsque l'intervention est adaptée. à des heuristiques spécifiques. Nous constatons que dans les nouvelles situations d'actualité, les utilisateurs sont plus réceptifs aux conseils de l'IA, et de plus, sous cette condition, un conseil personnalisé est plus efficace qu'un conseil générique.

Cela rend incroyablement difficile la conception, le développement et la formation d'une IA.

Alors que la plupart d'entre nous peuvent penser que nous pouvons repérer les fausses nouvelles quand nous les voyons, la vérité est que les mauvais acteurs qui créent de la désinformation ne le font pas dans le vide: ils sont meilleurs pour mentir que nous sommes en train de dire la vérité. Au moins quand ils disent quelque chose que nous croyons déjà.

Les scientifiques ont découvert que les gens – y compris les travailleurs indépendants d'Amazon Mechanical Turk – étaient plus susceptibles de considérer à tort un article comme un faux s'il contenait des informations contraires à ce qu'ils croyaient être vrai.

D'un autre côté, les gens étaient moins susceptibles de faire la même erreur lorsque les nouvelles présentées étaient considérées comme faisant partie d'une nouvelle situation. En d'autres termes: lorsque nous pensons savoir ce qui se passe, nous sommes plus susceptibles d'être d'accord avec les fausses nouvelles qui correspondent à nos notions préconçues. informations pour renforcer notre capacité à informer les gens quand on leur présente de fausses nouvelles, l'essentiel est que l'exactitude n'est pas le problème. Même lorsque l'IA fait les choses correctement, nous sommes encore moins susceptibles de croire à un véritable article de presse lorsque les faits ne correspondent pas à nos préjugés personnels.

Ce n'est pas le cas. t surprenant. Pourquoi quelqu'un devrait-il faire confiance à une machine construite par de grandes technologies au lieu de la parole d'un journaliste humain? Si vous pensez: parce que les machines ne mentent pas, vous vous trompez complètement.

Lorsqu'un système d'IA est construit pour identifier les fausses nouvelles, il doit généralement être formé sur des données préexistantes . Afin d'apprendre à une machine à reconnaître et à signaler les fausses nouvelles dans la nature, nous devons la nourrir d'un mélange d'articles réels et faux afin qu'elle puisse apprendre à repérer qui est qui. Et les ensembles de données utilisés pour entraîner l'IA sont généralement étiquetés à la main, par des humains.

Souvent, cela signifie que les droits d’étiquetage sont confiés à une société tierce de main d’œuvre bon marché telle que Mechanical Turk d’Amazon ou à tout autre magasin de données spécialisé dans les ensembles de données, et non dans les actualités. Les humains qui décident si un article donné est faux peuvent avoir ou non une expérience ou une expertise réelle du journalisme et les astuces que les mauvais acteurs peuvent utiliser pour créer de fausses nouvelles convaincantes, difficiles à détecter.

Et, tant que les humains sont biaisés, nous continuerons de voir prospérer les fausses nouvelles. Non seulement le biais de confirmation nous empêche de différencier les faits avec lesquels nous ne sommes pas d'accord des mensonges que nous faisons, mais la perpétuation et l'acceptation des mensonges et de la désinformation pure et simple de la part de célébrités, de membres de notre famille, de pairs, de patrons et des plus hautes fonctions politiques rend difficile de convaincre les gens du contraire.

Alors que les systèmes d'IA peuvent certainement aider à identifier des affirmations extrêmement fausses, en particulier lorsqu'elles sont faites par des organes de presse qui se livrent régulièrement à de fausses informations, le fait demeure que la véracité ou non d'un article de presse n'est pas vraiment à la plupart des personnes.

Prenons, par exemple, le réseau câblé le plus regardé à la télévision: Fox News. Malgré le fait que les avocats de Fox News ont déclaré à plusieurs reprises que de nombreux programmes – y compris le deuxième programme le plus regardé sur son réseau, hébergé par Tucker Carlson – sont en fait de fausses nouvelles .

Par une décision dans une affaire de diffamation contre Carlson, la juge de district américaine Mary Kay Vyskocil – une personne nommée par Trump – a statué en faveur de Carlson et de Fox après avoir discerné que des gens raisonnables ne le feraient pas. t prendre la rhétorique quotidienne de l'animateur comme véridique:

Le «« ténor général »de l'émission devrait alors informer le téléspectateur que [Carlson] ne« énonce pas des faits réels »sur les sujets qu'il aborde et qu'il est au lieu de se livrer à «l'exagération» et à des «commentaires non littéraux». […] Fox soutient de manière convaincante que, compte tenu de la réputation de M. Carlson, tout téléspectateur raisonnable «arrive avec une dose appropriée de scepticisme».

Et c'est pourquoi, dans le paradigme actuel de l’information, il peut être impossible de créer un système d’IA qui puisse déterminer de manière définitive si une déclaration donnée est vraie ou fausse.

Si les organes de presse eux-mêmes, le grand public, les élus, les grandes technologies et le soi-disant e Les experts ne peuvent pas décider si un article de presse donné est vrai ou faux sans parti pris, il n'y a aucun moyen de faire confiance à un système d'IA pour le faire. Tant que la vérité reste aussi subjective que la politique d’un lecteur donné, nous serons inondés de fausses nouvelles.

Salutations Humanoïdes! Saviez-vous que nous avons une newsletter consacrée à l'IA? Vous pouvez vous y abonner ici .

Publié le 16 mars 2021 – 21:57 UTC




Source link