Fermer

avril 10, 2024

Tromper les détecteurs : comment l’IA génère du contenu qui passe pour un humain

Tromper les détecteurs : comment l’IA génère du contenu qui passe pour un humain


Récemment, Paul Graham a remarqué qu’il recevait des courriels froids. Un seul mot ressortait : creuser. Il a fait quelques recherches et a remarqué que le terme avait grimpé en flèche – par coïncidence, comme GénAI des outils se sont imposés dans l’industrie pour rédiger du contenu de courrier électronique.

J’ai également remarqué cela. Presque toutes les soumissions que je vois commencent par une introduction du type : À l’ère du numérique d’aujourd’hui… J’ai tendance à parcourir ces articles en détail pour m’assurer qu’il n’y a pas d’erreurs ou d’inexactitudes supplémentaires avant de les publier. Il y en a généralement et je les rejette.

Comment l’IA détecte le contenu GenAI

Comme l’intelligence artificielle (IA) les modèles de langage deviennent de plus en plus sophistiqués, ils acquièrent la capacité de générer un texte remarquablement humain. Les modèles avancés comme ChatGPT peuvent écrire des articles, des histoires et même du code informatique qui peut être difficile à distinguer. généré par l’homme contenu. Cela a déclenché une course aux armements entre les générateurs de contenu IA et les algorithmes qui détectent généré par la machine texte.

Google semble avoir mis à jour ses derniers algorithmes lutter contre le contenu généré par l’IA, même s’il a déclaré qu’il ne viole pas ses conditions de service. À mon avis, ce qui les inquiète le plus, c’est la production automatique de fermes de contenu écrit par l’IA dans le but de voler le trafic de recherche de manière malveillante.

Les détecteurs d’IA s’appuient sur diverses techniques pour identifier le contenu généré par les modèles de langage. Il s’agit notamment d’une analyse statistique des caractéristiques linguistiques telles que la fréquence des mots, la longueur des phrases et les modèles de parties du discours, ainsi que de modèles d’apprentissage automatique formés sur des ensembles de données textuelles générées par l’homme et l’IA.

Analyse stylométrique et la vérification des faits par rapport aux bases de connaissances peut également aider à signaler les incohérences suggérant qu’un texte peut être généré automatiquement.

Analyse stylométrique

La stylométrie est l’étude du style linguistique, généralement dans le but d’identifier l’auteur d’un texte sur la base de modèles et d’habitudes d’écriture uniques. Il s’agit d’une forme d’analyse textuelle qui repose sur le principe selon lequel chaque individu a une manière distincte d’utiliser le langage, une sorte de empreinte linguistique-qui peut être quantifié et utilisé pour l’attribution de la paternité. Les techniques stylométriques consistent à analyser diverses caractéristiques d’un texte, telles que :

  • Fréquence des mots et richesse du vocabulaire
  • Longueur moyenne des phrases et des mots
  • Utilisation de mots fonctionnels (articles, prépositions, pronoms, etc.)
  • Ponctuation et autres caractères autres que des mots
  • Modèles grammaticaux et syntaxiques
  • bizarreries d’orthographe et de formatage

Cette approche a été utilisée dans divers contextes, allant du règlement des questions de paternité de documents historiques à l’identification de l’auteur de courriels menaçants dans le cadre d’enquêtes criminelles. La stylométrie a été appliquée à des écrivains aussi divers que Shakespeare, les Federalist Papers et JK Rowling (qui a été identifié comme l’auteur d’un roman policier publié sous un pseudonyme grâce à une analyse stylométrique).

En mesurant ces attributs et en les comparant à des échantillons d’écriture connus de différents auteurs, l’analyse stylométrique peut souvent identifier le créateur probable d’un texte contesté, anonyme ou généré par l’IA.

Chose intéressante, Paul Graham a reçu quelques réticences concernant sa découverte. Comme il s’avère, creuser est assez courant au Nigeria, et l’utilisation des systèmes en ligne par les Nigérians a explosé. Alors, est-ce du contenu IA ou nigérian ? Nous allons laisser le débat se poursuivre.

Détecteurs IA

Bien entendu, à mesure que les détecteurs deviennent plus sophistiqués, les modèles d’IA qu’ils tentent d’identifier le seront également. En s’entraînant sur des ensembles de données plus vastes et plus diversifiés, en affinant des domaines spécifiques et en incorporant des architectures et des techniques plus avancées, les modèles de langage apprennent à générer du texte qui imite plus fidèlement les modèles d’écriture humains. Voici quelques-unes des principales façons dont l’IA déjoue les détecteurs :

  • Masquage des signatures statistiques : Les modèles peuvent être entraînés pour éviter d’abuser de certains mots ou structures de phrases susceptibles de déclencher des algorithmes de détection.
  • Imiter des styles d’écriture individuels : En s’entraînant sur l’écriture d’une personne spécifique, l’IA peut générer un texte qui correspond à son empreinte stylométrique unique.
  • Améliorer la cohérence sémantique : Les modèles plus avancés parviennent mieux à maintenir la cohérence logique et narrative au sein d’un texte généré, ce qui rend plus difficile son identification comme artificielle.
  • Introduction d’imperfections intentionnelles : L’ajout d’erreurs ou de variations subtiles typiques de l’écriture humaine peut aider le texte généré par l’IA à paraître plus authentique.
  • Reconversion et adaptation rapides : À mesure que de nouvelles méthodes de détection apparaissent, les modèles d’IA peuvent rapidement être mis à jour pour les contourner.

Il devient de plus en plus difficile, même pour les algorithmes les plus avancés, d’authentifier le contenu généré par l’IA. Dans certains cas, le texte écrit automatiquement est si convaincant qu’il peut aussi tromper les lecteurs humains.

Cela a des implications importantes à mesure que le contenu généré par l’IA prolifère en ligne. Bien que de nombreuses utilisations de cette technologie soient bénignes ou bénéfiques, elle peut également être utilisée à des fins de désinformation, de fraude ou de manipulation. Si de mauvais acteurs peuvent générer de fausses nouvelles, des critiques de produits ou des publications sur les réseaux sociaux qui passent pour des humains, il devient plus difficile de faire confiance à ce que nous lisons en ligne.

À l’avenir, la détection du contenu généré par l’IA restera probablement un jeu du chat et de la souris. Les algorithmes doivent continuellement évoluer et s’améliorer pour suivre la sophistication croissante des modèles de langage. Dans le même temps, les praticiens responsables de l’IA ont un rôle à jouer dans le développement de ces outils puissants de manière éthique et transparente, avec des garanties contre toute utilisation abusive.

En fin de compte, des solutions technologiques, le jugement humain et des politiques intelligentes seront nécessaires pour naviguer dans ce nouveau paysage, où les machines peuvent écrire comme des humains – et même contourner l’IA gpt. Trouver le bon équilibre sera essentiel pour maintenir la confiance et l’intégrité dans notre écosystème d’informations de plus en plus médiatisé par l’IA.




Source link