Fermer

février 7, 2024

Les attaques Deepfake de type « échange de visage » ont augmenté de 704 % l’année dernière, selon une étude

Les attaques Deepfake de type « échange de visage » ont augmenté de 704 % l’année dernière, selon une étude



Les attaques Deepfake « face swap » ont grimpé en flèche de 704 % entre le premier et le second semestre 2023, selon une nouvelle étude.

Analystes chez iProovune société biométrique britannique, a attribué cette hausse à l’accessibilité croissante de systèmes génératifs sophistiqués. IA outils.

Grâce à leur capacité à manipuler les traits clés d’une image ou d’une vidéo, les échanges de visages effectués avec GenAI sont difficiles à détecter.

Ils sont également conviviaux et abordables. Pour créer des échanges de visages convaincants, tout ce dont vous avez besoin est disponible dans le commerce logiciel. La sortie manipulée ou synthétique est ensuite transmise à une caméra virtuelle.

« Il y a eu une prolifération d’outils d’échange de visage, ce qui rend très facile la création et l’injection d’échanges de visage avec très peu de connaissances techniques », Le Dr Andrew Newell, directeur scientifique d’iProov, a déclaré à TNW.

« La connaissance de ces outils se répand rapidement à travers les forums de partage d’informations, ainsi que des techniques permettant de contourner de nombreuses défenses existantes. »

Dissimulation des crimes deepfakes

SwapFace et DeepFaceLive sont les outils les plus populaires auprès des mauvais acteurs, selon iProov.

Attaquants les combinent souvent avec des émulateurs – qui imitent l’appareil d’un utilisateur, tel qu’un téléphone mobile – ainsi que d’autres méthodes de manipulation de métadonnées.

En utilisant ces outils, les escrocs peuvent masquer les preuves des caméras virtuelles, ce qui rend les échanges de visages plus difficiles à détecter.

Les fraudeurs d’identité ont rapidement exploité cette vulnérabilité. Du S1 au S2 de l’année dernière, l’utilisation de faux profond les médias ainsi que l’usurpation d’usurpation de métadonnées ont grimpé de 672 %. Au cours de la même période, le nombre d’acteurs malveillants utilisant des émulateurs a augmenté de 353 %.

La collaboration est également en hausse. Parmi les groupes identifiés par les analystes d’iProov, près de la moitié (47 %) ont été créés en 2023.

Les échanges de visages à la une des journaux

Les recherches d’iProov arrivent quelques jours seulement après l’une des plus grandes escroqueries deepfake de l’histoire.

Une employée des finances de Hong Kong a été trompée et a transféré 200 millions de dollars de Hong Kong (23,8 millions d’euros) à des escrocs se faisant passer pour ses collègues lors d’un appel vidéo, selon la police chinoise. À l’exception de la victime, toutes les personnes à l’appel étaient une reconstitution numérique d’un véritable membre du personnel.

« Bien que cela n’ait pas été confirmé, il est probable que cette attaque ait utilisé la technologie d’échange de visage, qui offre aux acteurs de la menace un très haut niveau de contrôle sur la vidéo deepfake résultante, combinée à des techniques d’injection pour donner l’impression que la vidéo sur l’appel provenait d’une vraie caméra », a déclaré Newell.

« Ce sont les outils que nous avons identifiés dans notre rapport comme représentant une menace très importante. »

Quatre ans après que des chercheurs ont mis en évidence les deepfakes le crime d’IA le plus préoccupantleurs angoisses deviennent réalité.




Source link