Fermer

mai 15, 2019

Facebook prend enfin des mesures pour limiter les diffuseurs en direct abusifs



Près de deux mois après une horrible attaque terroriste en Nouvelle-Zélande, Facebook a enfin pris des mesures concrètes pour mettre fin aux abus de sa fonctionnalité de diffusion en direct. Aujourd'hui, le réseau social a mis en place une nouvelle politique d'interdiction des utilisateurs qui enfreignent les règles de la communauté .

Guy Rosen, vice-président de l'intégrité de Facebook, a déclaré dans un article de blog que la plateforme interdira les utilisateurs pendant une période où ils abusent de sa politique sur les personnes et organisations dangereuses :

Désormais, toute personne qui enfreint nos politiques les plus graves ne sera plus autorisée à utiliser Live pour une période de temps définie, par exemple 30 jours – à compter de leur première infraction. Par exemple, quelqu'un qui partage le lien avec une déclaration d'un groupe terroriste sans contexte sera immédiatement empêché d'utiliser Live pendant une période déterminée.

Il ajoute que Facebook empêchera bientôt les personnes interdites de créer des publicités. ainsi que. Cependant, nous ne savons pas combien de temps la plate-forme prendra pour agir sur les utilisateurs abusifs. De même, il n’est pas clair ce qui se passe après la "période définie", lorsque l’utilisateur retrouve la possibilité de publier des vidéos en direct. Nous avons demandé à Facebook de fournir de plus amples détails et nous mettrons à jour cet article en conséquence.

Nous avons déjà expliqué que Facebook réagissait souvent de manière réactive dans son approche pour supprimer ou empêcher les vidéos abusives sur sa plate-forme. . Alors qu'il avait supprimé 1,2 million de vidéos quelques heures à peine après l'attaque de Christchurch, TechCrunch a trouvé des copies du clip disséminées sur le site même après 12 heures.

vidéos parce qu'ils ont été édités ou manipulés. Cependant, ce n'est pas un raisonnement suffisant pour une entreprise fière d'utiliser l'IA et l'apprentissage automatique pour éviter les contenus préjudiciables.

Pour éviter que cela ne se produise à l'avenir, le réseau social investit 7,5 millions de dollars dans un partenariat de recherche avec le . ] Université du Maryland, Université Cornell et Université de Californie à Berkeley. La collaboration examinera de nouvelles techniques pour détecter les médias manipulés.

Voyons les choses en face: Facebook a déjà pris des mesures préventives, mais souvent, il n’a pas été mis en avant. Nous devrons attendre pour voir si ces mesures peuvent être vraiment efficaces.




Source link