Fermer

juillet 12, 2022

Wikipédia se tourne vers un allié surprenant dans la lutte contre la désinformation : Meta

Wikipédia se tourne vers un allié surprenant dans la lutte contre la désinformation : Meta


Wikipédia est une source unique de connaissances libres, mais l’encyclopédie la plus populaire au monde n’est pas toujours exact.

Le modèle d’édition participatif du site est sujet au vandalisme et aux préjugés. Bien que sa réputation de précision a améliorémême Wikipédia ne se considère pas une source fiable.

La Wikimedia Foundation, l’organisation à but non lucratif qui supervise Wikipédia, explore de nouvelles solutions à ces lacunes. Son dernier effort exploite la puissance de IA.

Salutations, humanoïdes

Abonnez-vous à notre newsletter maintenant pour un récapitulatif hebdomadaire de nos histoires préférées sur l’IA dans votre boîte de réception.

La fondation s’est récemment associée à Méta pour améliorer les citations de Wikipédia. Ces références sont utilisées pour corroborer les informations de crowdsourcing sur le site, mais elles sont souvent manquantes, incomplètes ou inexactes.

Alors que les bénévoles de Wikipédia vérifient les notes de bas de page, il leur est difficile de suivre quand plus de 17 000 nouveaux articles sont ajoutés chaque mois. Cette échelle fait du problème un cas d’utilisation convaincant pour l’apprentissage automatique.

La proposition de Meta vérifie les références. L’équipe affirme qu’il s’agit du premier modèle capable de scanner automatiquement des centaines de milliers de citations à la fois pour vérifier leur exactitude.

Code source

La source de connaissances du modèle est un nouvel ensemble de données de 134 millions de pages Web publiques. Surnommé Sphere, dit Meta la bibliothèque open source est plus vaste et plus complexe que n’importe quel corpus jamais utilisé pour de telles recherches.

Notre travail peut contribuer aux efforts de vérification des faits.

Pour trouver des sources appropriées dans l’ensemble de données, les chercheurs ont formé leurs algorithmes sur 4 millions de citations de Wikipédia. Cela a permis au système de dénicher une source unique pour valider chaque déclaration.

Un modèle de classement des preuves compare les sources alternatives avec la référence originale.

Si une citation semble non pertinente, le système recommandera une meilleure source, ainsi qu’un passage spécifique qui appuie l’allégation. Un éditeur humain peut ensuite examiner et approuver la suggestion.

Pour illustrer comment cela fonctionne, les chercheurs ont utilisé l’exemple d’un Page Wikipédia sur le boxeur à la retraite Joe Hipp.

L’entrée décrit le Tribu des Pieds-Noirs membre en tant que premier Amérindien à concourir pour la WBA Titre mondial des poids lourds. Mais le modèle a révélé que la citation de cette affirmation était une page Web qui ne mentionnait même pas Hipp ou la boxe.

Le système a ensuite cherché dans le corpus Sphere une référence de remplacement. Il a exhumé ce passage d’un article de 2015 dans le Tribune des Grandes Chutes:

En 1989, au crépuscule de sa carrière, [Marvin] Camel a combattu Joe Hipp de la Nation Blackfeet. Hipp, qui est devenu le premier Amérindien à se battre pour le championnat du monde des poids lourds, a déclaré que le combat était l’un des plus étranges de sa carrière.

Bien que le passage ne mentionne pas explicitement la boxe, le modèle a déduit le contexte à partir d’indices. Ceux-ci incluaient le terme «poids lourd» et le mot «défi» comme synonyme de «concurrencer», qui figurait dans l’entrée originale de Wikipedia.


Future vérification des faits

L’équipe vise maintenant à transformer leurs recherches en un système complet. À terme, ils prévoient de créer une plate-forme que les éditeurs de Wikipédia pourront utiliser pour repérer et résoudre systématiquement les problèmes de citation.

Meta a également open-source du projetce qui pourrait donner aux chercheurs externes de nouveaux outils pour développer leurs propres systèmes de langage d’IA.

« Nos résultats indiquent qu’un système basé sur l’IA pourrait être utilisé, en tandem avec les humains, pour améliorer la vérifiabilité de Wikipédia », a déclaré le les auteurs de l’étude ont écrit.

« Plus généralement, nous espérons que notre travail pourra être utilisé pour aider les efforts de vérification des faits et accroître la fiabilité générale des informations en ligne. »

La recherche peut aggraver les craintes concernant la vérification automatisée des faits et le fait que les grandes entreprises technologiques deviennent des arbitres de la vérité. Le point de vue le plus optimiste est que Meta a finalement trouvé un moyen d’utiliser son expérience de désinformation pour de bon.




Source link