La détection DeepFake s’améliore lors de l’utilisation d’algorithmes plus conscients de la diversité démographique

Deepfakes – mettant essentiellement des mots dans la bouche de quelqu’un d’autre d’une manière très crédible – deviennent plus sophistiqués de jour en temps et de plus en plus difficile à repérer. Les exemples récents de Faisfakes Deep comprennent Images nues de Taylor Swiftun Enregistrement audio du président Joe Biden Dire les résidents du New Hampshire à ne pas voter et un Vidéo du président ukrainien Volodymyr Zelenskyy Appelant ses troupes à poser les bras.
Bien que les entreprises aient créé des détecteurs pour aider à repérer DeepFakes, des études ont montré que biais dans les données Utilisé pour former ces outils peut conduire à certains groupes démographiques ciblés injustement.
Olivier Douliery / AFP via Getty Images
Mon équipe et moi avons découvert de nouvelles méthodes qui améliorent à la fois l’équité et la précision des algorithmes utilisés pour détecter DeepFakes.
Pour ce faire, nous avons utilisé un grand ensemble de données de contrefaçons faciales qui permet aux chercheurs comme nous forment nos approches d’apprentissage en profondeur. Nous avons construit notre travail autour de l’algorithme de détection de xception ultramoderne, qui est un fondation largement utilisée Pour les systèmes de détection DeepFake et peut détecter les FAKED Deep avec une précision de 91,5%.
Nous avons créé deux méthodes de détection DeepFake distinctes destiné à encourager l’équité.
L’un était axé sur la prise de l’algorithme plus conscient de la diversité démographique en étiquetant les ensembles de données par sexe et race pour minimiser les erreurs parmi les groupes sous-représentés.
L’autre visait à améliorer l’équité sans compter sur les étiquettes démographiques en se concentrant plutôt sur des caractéristiques non visibles à l’œil humain.
Il s’avère que la première méthode a mieux fonctionné. Il a augmenté les taux de précision de la ligne de base de 91,5% à 94,17%, ce qui était une augmentation plus importante que notre deuxième méthode ainsi que plusieurs autres que nous avons testées. De plus, il a augmenté la précision tout en améliorant l’équité, ce qui était notre objectif principal.
Nous pensons que l’équité et la précision sont cruciales si le public doit accepter intelligence artificielle technologie. Lorsque de grands modèles de langue comme Chatgpt «Hallucine», Ils peuvent perpétuer des informations erronées. Cela affecte la confiance et la sécurité du public.
De même, les images et vidéos DeepFake peuvent saper l’adoption de l’IA si elles ne peuvent pas être détectées rapidement et avec précision. L’amélioration de l’équité de ces algorithmes de détection afin que certains groupes démographiques ne soient pas blessés de manière disproportionnée par eux est un aspect clé à cela.
Notre recherche aborde l’équité des algorithmes de détection DeepFake, plutôt que de simplement tenter d’équilibrer les données. Il offre une nouvelle approche de la conception d’algorithmes qui considère l’équité démographique comme un aspect central.
Siwei LyuProfesseur d’informatique et d’ingénierie; Directeur, UB Media Forensic Lab, Université de Buffalo et Yan juPh.D. Candidat en informatique et ingénierie, Université de Buffalo
Cet article est republié à partir de La conversation sous une licence créative Commons. Lire le article original.
Source link