Fermer

septembre 4, 2018

Google sics sa nouvelle IA sur les images d'abus d'enfants en ligne



La dernière tentative de Google pour lutter contre la diffusion de matériel pédopornographique (CSAM) en ligne se présente sous la forme d'une IA capable d'identifier rapidement les images qui n'ont pas encore été cataloguées.

, disponible pour les ONG et autres organismes travaillant sur ce sujet. En automatisant le processus d’analyse des images, non seulement l’IA accélère les choses, mais elle réduit également le nombre de personnes à exposer – un travail qui peut avoir de graves conséquences psychologiques .

Étant donné que l’Internet Watch Foundation (IWF) a trouvé près de 80 000 sites hébergeant CSAM il est clair que t proche d'être contenu. Google mène cette mission depuis plusieurs années et ce n’est certainement pas la seule entreprise technologique à prendre des mesures pour freiner la diffusion du CSAM sur le Web.

Il a déjà commencé à supprimer les résultats de recherche liés à ce contenu et par la suite en partenariat avec Facebook, Twitter et l'IWF pour partager des listes de hachages de fichiers permettant d'identifier et de supprimer les fichiers CSAM de leurs plates-formes.

Microsoft un projet similaire en 2015 et une star hollywoodienne Ashton Kutcher a fondé Thorn une ONG spécialisée dans la construction d'outils technologiques pour lutter contre la traite des êtres humains et l'exploitation sexuelle des enfants. Un de ses projets, baptisé Spotlight, aide les responsables de l'application des lois en identifiant les publicités dans les sites de petites annonces et les forums de promotion des services d'escorte impliquant des mineurs.

La nouvelle IA de Google va au-delà des hashs connus.

Pour en savoir plus sur le nouveau service, qui est disponible gratuitement pour les ONG, sur cette page .




Source link