Fermer

novembre 30, 2021

Désolé, l'IA ne va pas arrêter la propagation des fausses nouvelles6 minutes de lecture



La désinformation a été utilisée dans la guerre et la stratégie militaire au fil du temps. Mais il est indéniablement intensifié par l'utilisation des technologies intelligentes et des médias sociaux. En effet, ces technologies de communication offrent un moyen relativement peu coûteux et peu difficile de diffuser des informations pratiquement n'importe où. 19659002]En effet, le développement continu de nouvelles solutions technologiques, telles que l'intelligence artificielle (IA), peut apporter une partie de la solution.

Les entreprises technologiques et les entreprises de médias sociaux travaillent sur la détection automatique des fausses traitement du langage, apprentissage automatique et analyse de réseau. L'idée est qu'un algorithme identifiera les informations comme des « fausses nouvelles » et les classera plus bas pour réduire la probabilité que les utilisateurs les rencontrent .

Répétition et exposition

D'un point de vue psychologique, une exposition répétée au même élément d'information rend plus probable que quelqu'un le croie. Lorsque l'IA détecte la désinformation et réduit la fréquence de sa circulation, cela peut briser le cycle des modèles de consommation d'information renforcés.

Cependant, la détection de l'IA reste toujours peu fiable. Premièrement, la détection actuelle est basée sur l'évaluation du texte (contenu) et de son réseau social pour déterminer sa crédibilité. Malgré la détermination de l'origine des sources et du schéma de diffusion des fausses nouvelles, le problème fondamental réside dans la manière dont l'IA vérifie la nature réelle du contenu.

En théorie, si la quantité de données de formation est suffisante, la classification soutenue par l'IA modèle serait en mesure d'interpréter si un article contient de fausses nouvelles ou non. Pourtant, la réalité est que faire de telles distinctions nécessite des connaissances politiques, culturelles et sociales préalables, ou du bon sens, ce qui manque encore aux algorithmes de traitement du langage naturel. ] apparaissent comme de vraies nouvelles mais contenant des informations fausses ou manipulatrices », comme le montre une étude pré-imprimée. que véritablement le contenu du problème pour déterminer son authenticité. Par exemple, les articles liés à COVID-19 sont plus susceptibles d'être étiquetés comme de fausses nouvelles que d'autres sujets.

Une solution serait d'employer des personnes pour travailler aux côtés de l'IA pour vérifier l'authenticité des informations. Par exemple, en 2018, le ministère lituanien de la Défense a développé un programme d'IA qui « signale la désinformation dans les deux minutes suivant sa publication et envoie ces rapports à des spécialistes humains pour une analyse plus approfondie ».

Une approche similaire pourrait être prises au Canada en créant une unité ou un département spécial national pour lutter contre la désinformation, ou en soutenant des groupes de réflexion, des universités et d'autres tiers dans la recherche de solutions d'IA pour les fausses nouvelles.

Éviter la censure

Contrôler la propagation des fausses dans certains cas, être considéré comme une censure et une menace pour la liberté de parole et d'expression. Même un humain peut avoir du mal à juger si une information est fausse ou non. Et donc peut-être que la plus grande question est : qui et quoi déterminent la définition des fausses nouvelles ? Comment pouvons-nous nous assurer que les filtres d'IA ne nous entraîneront pas dans le piège des faux positifs et qu'ils étiquetteront à tort des informations comme fausses en raison des données associées ?

Un système d'IA pour identifier les fausses nouvelles peut avoir des applications sinistres. Les gouvernements autoritaires, par exemple, peuvent utiliser l'IA comme excuse pour justifier la suppression de tout article ou pour poursuivre des individus qui ne sont pas en faveur des autorités. Et donc, tout déploiement de l'IA – et toutes les lois ou mesures pertinentes qui émergent de son application – nécessitera un système transparent avec un tiers pour le surveiller.

Les défis futurs demeurent car la désinformation – en particulier lorsqu'elle est associée à une intervention étrangère – est un problème permanent. Un algorithme inventé aujourd'hui peut ne pas être en mesure de détecter de futures fausses nouvelles.

<iframe srcdoc="

" height="240" width="320" allow="accéléromètre ; lecture automatique ; presse-papiers ; média crypté ; gyroscope ; image dans l'image " allowfullscreen="" frameborder="0">

Un rapport de la BBC sur les dangers des contrefaçons profondes.

Par exemple, les contrefaçons profondes — qui sont « une manipulation numérique hautement réaliste et difficile à détecter de audio ou vidéo" – sont susceptibles de jouer un rôle plus important dans la future guerre de l'information. Et la désinformation diffusée via des applications de messagerie telles que WhatsApp et Signal devient de plus en plus difficile à suivre et à intercepter en raison du cryptage de bout en bout.

Une étude récente a montré que 50 % des répondants canadiens ont reçu de fausses nouvelles via applications de messagerie privée régulièrement. Réglementer cela nécessiterait de trouver un équilibre entre la confidentialité, la sécurité individuelle et la répression de la désinformation.

Bien qu'il soit certainement utile d'allouer des ressources à la lutte contre la désinformation à l'aide de l'IA, la prudence et la transparence sont nécessaires compte tenu des ramifications potentielles. Les nouvelles solutions technologiques, malheureusement, ne sont peut-être pas une solution miracle. Université McGill et Benjamin CM Fungprofesseur et chaire de recherche du Canada en exploration de données pour la cybersécurité, McGill University

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lisez l'article d'origine.




Source link

0 Partages