Fermer

mai 13, 2020

Facebook lance un défi de 100 000 $ pour créer une IA capable d'identifier les mèmes haineux


Les mèmes font désormais partie intégrante de la façon dont les gens communiquent sur Internet. Alors que beaucoup de ces mèmes ont la capacité de vous remonter le moral, beaucoup d'entre eux sont haineux et discriminatoires. Facebook lance donc un nouveau défi de 100 000 $ aux développeurs pour créer des modèles capables de reconnaître les images et les mèmes haineux.

Dans le cadre du défi, Facebook a déclaré qu'il fournirait aux développeurs un ensemble de données de 10 000 images «haineuses» sous licence de Getty Images:

Nous avons travaillé avec des annotateurs tiers qualifiés pour créer de nouveaux mèmes similaires à ceux existants qui avaient été partagés sur les sites de médias sociaux. Les annotateurs ont utilisé la collection d'images d'archives de Getty Images pour remplacer les visuels originaux tout en préservant le contenu sémantique.

Dans un article de blog la société a expliqué que la création d'un modèle d'IA pour détecter les mèmes haineux est un problème multimodal. Le modèle doit regarder le texte, regarder l'image, puis regarder le contexte de la façon dont ils sont utilisés conjointement. Facebook a déclaré que les annotateurs ont veillé à ce que les exemples de l'ensemble de données créent un problème multimodal à résoudre par l'IA. Ainsi, certains des modèles existants pour la détection de texte ou d'image peuvent ne pas fonctionner immédiatement.

Ce sont quelques exemples de Facebook de mèmes «méchants». S'ils sont utilisés séparément, le texte et les images sont inoffensifs.

Facebook est assez prudent pour ouvrir cet ensemble de données uniquement aux chercheurs approuvés. La société a déclaré que l'ensemble de données contient un mème de nature sensible souvent rapporté sur les médias sociaux, y compris les catégories suivantes:

Une attaque directe ou indirecte contre des personnes en fonction de caractéristiques, notamment l'ethnicité, la race, la nationalité, le statut d'immigration, la religion, la caste, le sexe, identité de genre, orientation sexuelle et handicap ou maladie. Nous définissons l'attaque comme un discours violent ou déshumanisant (comparant des personnes à des choses non humaines, par exemple des animaux), des déclarations d'infériorité et des appels à l'exclusion ou à la ségrégation. Se moquer des crimes de haine est également considéré comme un discours de haine.

La détection des discours de haine est un problème difficile pour Facebook et d'autres réseaux sociaux. Les mèmes ajoutent une couche supplémentaire de complexité car les modérateurs et l'IA doivent comprendre le contexte du mème publié. Les entreprises ne peuvent pas appliquer une solution unique car le contexte culturel, racial et linguistique des mèmes change très fréquemment.

Bien que ce défi ne puisse pas fournir une solution prête à l'emploi pour le géant des réseaux sociaux, cela pourrait donner à l'entreprise quelques idées sur la façon de résoudre ce problème.

Vous pouvez en savoir plus sur la concurrence ici et vous pouvez lire le document d'accompagnement décrivant les méthodes et les repères ici . Des chercheurs sélectionnés présenteront leur article au NeuralIPS 2020 en décembre.

Publié le 13 mai 2020 – 07:06 UTC
                                




Source link