Fermer

mai 16, 2018

L'IA de Facebook fait peu de progrès dans la lutte contre le discours de haine



Facebook a publié aujourd'hui son rapport de transparence annuel, et pour la première fois inclus le nombre d'articles supprimés dans chaque catégorie qui violait ses normes de contenu. Bien que l'entreprise semble très compétente pour éliminer la nudité et la propagande terroriste, elle est à la traîne en ce qui concerne le discours de haine.

Parmi les six catégories mentionnées dans le rapport le nombre de discours de haine. les algorithmes interceptés avant que les utilisateurs ne les signalent étaient les plus faibles:

Pour le discours haineux, notre technologie ne fonctionne toujours pas très bien et doit donc être vérifiée par nos équipes de révision. Nous avons supprimé 2,5 millions de discours haineux au premier trimestre 2018, dont 38% étaient marqués par notre technologie

"La première conférence sur la technologie numérique en Europe"

Ça se passe, rejoignez 15k esprits numériques pour façonner votre business [19659006] Comparez ce pourcentage avec le nombre de messages éliminés proactivement pour contenu violent (86%), nudité et contenu sexuel (96%), et spam (près de 100%).

Mais cela ne veut pas dire que le nombre relativement faible en raison d'un défaut de Facebook. Le problème avec essayer de fouiller proactivement Facebook pour le discours de haine, c'est que l'IA de l'entreprise ne peut comprendre autant en ce moment. Comment obtenez-vous une IA pour comprendre les nuances du langage offensant et péjoratif quand de nombreux humains luttent avec le concept?

Guy Rosen le vice-président de la gestion des produits de Facebook, a souligné les difficultés de déterminer le contexte:

C'est en partie que la technologie comme l'intelligence artificielle, bien que prometteuse, est encore loin d'être efficace pour le plus mauvais contenu parce que le contexte est si important. Par exemple, l'intelligence artificielle n'est pas encore assez bonne pour déterminer si quelqu'un pousse la haine ou décrit quelque chose qui lui est arrivé afin de sensibiliser les gens à la question.

Si un utilisateur de Facebook parle de son expérience une insulte en public, en utilisant le mot afin d'avoir un plus grand impact, leur poste constitue-t-il un discours de haine? Même nous étions tous d'accord sur le fait que non, comment obtenir une IA pour comprendre la nuance? Et qu'en est-il des mots offensants dans certaines langues, mais pas dans une autre? Ou des homographes? Ou, ou, ou – les mises en garde s'allongent encore et encore.

Quand on lui demande de lire ce genre de subtilité, cela ne devrait pas être une surprise que l'IA de Facebook ait seulement jusqu'ici eu un taux de succès de 38%. ] Facebook tente de minimiser les faux positifs en faisant réviser chaque cas par les modérateurs. La société a abordé la question lors de sa conférence F8 :

Comprendre le contexte de la parole exige souvent des yeux humains – est-ce quelque chose de haineux ou est-ce partagé pour condamner le discours de haine ou sensibiliser? … Nos équipes examinent ensuite le contenu de sorte que ce qui est correct reste, par exemple quelqu'un qui décrit la haine qu'ils ont rencontrée pour sensibiliser au problème.

Mark Zuckerberg est devenu poétique pendant son témoignage du Congrès pour effacer le discours de haine de sa plate-forme:

Je suis optimiste sur le fait que sur une période de cinq à dix ans, nous aurons des outils d'intelligence artificielle capables d'entrer dans certaines nuances linguistiques de différents types de contenu. 19659014] Avec cette estimation, il serait absurde de s'attendre à ce que la technologie soit aussi précise que Zuckerberg l'espère maintenant. Nous devrons vérifier le rapport de transparence de Facebook dans les deux prochaines années pour voir comment la société progresse.

La conférence de 2018 du Next Web est presque là, et ce sera ?? . Découvrez tout sur nos pistes ici


Facebook publie des numéros d'application pour la première fois
sur Newsroom




Source link