Fermer

mars 20, 2019

Cette IA prédit la pêche en ligne avant que cela ne se produise


Il est utilisé pour éliminer les faux commentaires, mais pourrait également aider à prévoir et à réduire le harcèlement en ligne.


4 min de lecture


Cette histoire a été publiée à l'origine sur PCMag

Comment contrôlez-vous les trolls en ligne? Les interdire? Exiger de vrais noms?

Dr. Srijan Kumar chercheuse post-doctorale en informatique à l'Université de Stanford, développe une intelligence artificielle permettant de prédire les conflits en ligne. Ses recherches utilisent la science des données et l'apprentissage automatique pour promouvoir des interactions en ligne saines et lutter contre la tromperie, les comportements décevants et la désinformation.

Ses travaux sont actuellement déployés au sein de la plate-forme indienne de commerce électronique Flipkart, qui permet de repérer les faux relecteurs. Nous avons parlé à M. Kumar avant une conférence sur les interactions en ligne saines à l'USC.

Le Dr. Kumar, comment contrecarrez-vous le harcèlement en ligne en utilisant la science des données et l'apprentissage automatique? Comment votre système identifie-t-il les trolls?
Dans le cadre de mes recherches, je construis des méthodes de science des données et d'apprentissage automatique pour lutter contre les comportements déloyaux en ligne, qui se traduisent par de fausses informations et des utilisateurs malveillants. Mes méthodes ont un double objectif: premièrement, caractériser leur comportement et deuxièmement, les détecter avant qu'elles n'endommagent les autres utilisateurs. J'ai été en mesure d'enquêter sur une grande variété de comportements déloyaux en ligne, y compris des critiques frauduleuses, des canulars, du trolling en ligne et des cas d'abus de comptes multiples, entre autres.

Comment enseignez-vous à l'IA pour détecter ces modèles?
Je développe des méthodes d'analyse statistique, d'exploration de graphes, d'inclusion et d'apprentissage approfondi pour caractériser le comportement normal, [and]qui permettent d'identifier un comportement anormal ou malveillant. Souvent, nous avons peut-être aussi connu des exemples de comportement malveillant, auquel cas je crée des modèles d'apprentissage supervisé dans lesquels j'utilise ces exemples comme données d'apprentissage pour identifier des entités malveillantes similaires parmi les autres.

Votre recherche est actuellement utilisée dans Flipkart. Quel problème essayaient-ils de résoudre et comment mesuraient-ils les résultats?
Le problème clé que j'ai aidé à résoudre sur Flipkart était l'identification des faux commentaires et des faux critiques sur leur plate-forme. Il s'agit d'un problème omniprésent sur toutes les plateformes ; Des sondages récents estiment à 15% le nombre d'avis en ligne [are] faux. Il est donc crucial d’identifier et d’éliminer les faux commentaires, car notre décision en tant que consommateur est influencée par eux.

Quelle est la méthode appelée ici?
Ma méthode, appelée REV2, utilise la graphique de contrôle du produit user-review pour identifier les fraudeurs [who] attribue des notes élevées aux produits de qualité médiocre ou des notes élevées à des produits de haute qualité. REV2 [compares] nos recommandations aux cas de faux relecteurs précédemment identifiés.

Est-il possible pour Amnesty International de surveiller les réseaux sociaux et de sonner l'alarme lorsqu'un mauvais comportement est sur le point de se produire? Cette analyse est-elle purement basée sur des schémas avec analyse des données sensibles ou quelque chose de totalement différent?
Il est possible de prédire de manière proactive quand une erreur peut survenir en tirant les leçons de tels cas précédents. Par exemple, dans mes recherches récentes, j'ai montré qu'il était possible de prédire avec précision le moment où une communauté de la plateforme en ligne Reddit attaquerait / harcelerait / contrôlerait une autre. Ce phénomène s'appelle "brigade" et j'ai montré que les brigades réduisaient l'engagement futur dans la communauté attaquée. Cela nuit aux utilisateurs et à leurs interactions, ce qui appelle des méthodes pour les éviter. Ainsi, j'ai créé un modèle basé sur l'apprentissage profond qui utilise le texte et la structure de la communauté pour prédire avec une grande précision si une communauté doit en attaquer une autre. De tels modèles ont une utilité pratique, car ils permettent aux modérateurs de la communauté de garder un œil attentif sur une attaque imminente.

Voyez-vous une extrapolation logique de votre travail utilisée dans des "coups de pouce" pour inviter les utilisateurs à nettoyer leur acte avant la poursuite? Cela ressemble à un enseignant au début de la classe qui garde un œil attentif sur les fauteurs de troubles au dernier rang avant qu'ils ne tombent dans des gangs au cerveau criminel?
Absolument! Un travail de suivi naturel et passionnant consiste à décourager les mauvais acteurs de faire des actes de malveillance et à encourager tout le monde à faire preuve de gentillesse. Cela nous aidera à créer un écosystème en ligne sain, collaboratif et plus inclusif pour tous. Pour atteindre cet objectif, de nombreux défis intéressants nécessitent de nouvelles méthodes d’intervention et de meilleurs modèles de prévision. Permettre de meilleures conversations en ligne et inciter les gens à devenir leur meilleur moi-même sera l'un de mes principaux objectifs à l'avenir.

Avez-vous une expérience personnelle du harcèlement en ligne ou s'agissait-il d'un problème d'intelligence artificielle intéressant à résoudre? vous?
L'une des principales raisons pour lesquelles j'ai suivi cette orientation de la recherche a été de voir certains de mes amis se faire harceler par des trolls des médias sociaux. Cela a conduit à rechercher des solutions non algorithmiques pour résoudre ce problème. Étant une tâche difficile, cela a piqué l’intérêt du scientifique qui était en moi et j’ai finalement appris à créer des méthodes de science des données et d’apprentissage automatique pour aider à résoudre ces problèmes.




Source link