Fermer

décembre 7, 2023

Les deepfakes se cachent en 2024 – voici comment les démasquer


Les opinions exprimées par les contributeurs d’Entrepreneur sont les leurs.

Comme intelligence artificielle (IA) prend le monde d’assaut, une facette particulière de cette technologie a laissé les gens à la fois impressionnés et appréhendés. Deepfakes, qui sont des médias synthétiques créés grâce à l’intelligence artificielle, ont parcouru un long chemin depuis leur création. Selon une enquête d’iProov, 43 % des répondants mondiaux admettre qu’ils ne seraient pas capables de faire la différence entre une vraie vidéo et un deepfake.

Alors que nous évoluons dans le paysage des menaces en 2024, il devient de plus en plus essentiel de comprendre les implications de cette technologie et les mesures pour contrer son utilisation abusive potentielle.

En rapport: Les deepfakes sont à la hausse : vont-ils changer la façon dont les entreprises vérifient leurs utilisateurs ?

L’évolution de la technologie deepfake

La trajectoire de technologie de contrefaçon profonde n’est rien de moins qu’une merveille technologique. Les deepfakes étaient caractérisés par des manipulations relativement grossières à leurs débuts, souvent perceptibles en raison d’imperfections subtiles. Ces premières itérations, bien qu’intrigantes, manquaient de la finesse qui deviendra plus tard synonyme du terme « deepfake ».

Tandis que nous naviguons dans paysage technologique À partir de 2024, la progression de la sophistication des deepfakes est évidente. Cette évolution est intimement liée aux progrès rapides de l’apprentissage automatique. Les algorithmes qui alimentent les deepfakes sont devenus plus aptes à analyser et à reproduire des expressions, des nuances et des manières humaines complexes. Le résultat est une génération de médias synthétiques qui, à première vue, peuvent être impossibles à distinguer du contenu authentique.

En rapport: « Le plus grand risque de l’intelligence artificielle » : le président de Microsoft déclare que les deepfakes sont le plus gros problème de l’IA

La menace des deepfakes

Ce réalisme accru dans les vidéos deepfake suscite une vague d’inquiétude dans toute la société. La possibilité de créer des vidéos hyperréalistes représentant de manière convaincante des individus disant ou faisant des choses qu’ils n’ont jamais faites a soulevé des questions éthiques, sociales et politiques. Le potentiel de ces vidéos synthétiques à tromper, manipuler et induire en erreur est une véritable cause d’appréhension.

Plus tôt cette année, Sundar Pichai, PDG de Google averti les gens sur les dangers du contenu de l’IA, en disant : « Il sera possible avec l’IA de créer, vous savez, une vidéo facilement. Où cela pourrait être Scott disant quelque chose ou moi disant quelque chose, et nous n’avons jamais dit cela. Et cela pourrait paraître précis. Mais vous savez, à l’échelle sociétale, vous savez, cela peut causer beaucoup de tort. »

Alors que nous approfondissons l’année 2024, le réalisme atteint par les vidéos deepfake repousse les limites de ce que l’on pensait autrefois possible. Les visages peuvent être superposés de manière transparente sur différents corps et les voix peuvent être clonées avec une précision étonnante. Cela remet non seulement en question notre capacité à distinguer les faits de la fiction, mais constitue également une menace aux fondements mêmes de la confiance dans les informations que nous consommons. Un rapport de Sensity montre que le nombre de deepfakes créés a été doubler tous les six mois.

L’impact des vidéos hyperréalistes et deepfakes s’étend au-delà du divertissement et peut potentiellement perturber diverses facettes de la société. Depuis usurper l’identité de personnalités publiques qu’il s’agisse de fabriquer des preuves, les conséquences de cette technologie peuvent être considérables. La notion « voir, c’est croire » devient de plus en plus ténue, ce qui incite à un examen critique de notre confiance dans les signaux visuels et auditifs comme marqueurs de vérité.

À l’ère de la manipulation numérique accrue, il devient impératif pour les individus, les institutions et les développeurs de technologies de garder une longueur d’avance. Alors que nous sommes aux prises avec les implications éthiques et les conséquences sociétales de ces avancées, la nécessité de contre-mesures robustes, de lignes directrices éthiques et d’un public vigilant devient plus évidente que jamais.

En rapport: Les deepfakes sont à la hausse : vont-ils changer la façon dont les entreprises vérifient leurs utilisateurs ?

Contre-mesures et stratégies de prévention

Les gouvernements et les industries du monde entier ne sont pas de simples spectateurs face à la menace des deepfakes ; ils sont entrés sur le champ de bataille en reconnaissant l’urgence qu’exige la situation. Selon rapports, le Pentagone, par l’intermédiaire de la Defense Advanced Research Projects Agency (DARPA), travaille avec plusieurs des plus grandes institutions de recherche du pays pour devancer les deepfakes. Des initiatives visant à freiner l’utilisation malveillante de la technologie deepfake sont actuellement en cours et couvrent un large éventail de stratégies.

L’un des fronts de cette bataille implique le développement d’outils et de technologies anti-deepfake. Conscients des ravages potentiels que peuvent causer les médias synthétiques hyperréalistes, les chercheurs et les ingénieurs travaillent sans relâche sur des solutions innovantes. Ces outils exploitent souvent eux-mêmes des algorithmes avancés d’apprentissage automatique, cherchant à déjouer et à identifier les deepfakes dans le domaine. paysage en constante évolution des médias synthétiques. Un bon exemple en est celui de Microsoft qui offre aux hommes politiques et aux groupes de campagne américains un outil anti-deepfake avant les élections de 2024. Cet outil leur permettra d’authentifier leurs photos et vidéos grâce à des filigranes.

En dehors de cela, les leaders de l’industrie investissent également des ressources importantes dans la recherche et le développement. L’objectif n’est pas seulement de créer des outils de détection plus robustes, mais également d’explorer des technologies qui peuvent empêcher en premier lieu la création de deepfakes convaincants. Récemment, TikTok a interdit tous les deepfakes de personnalités non publiques sur l’application.

Cependant, il est essentiel de reconnaître que la lutte contre les deepfakes n’est pas uniquement technologique. À mesure que la technologie évolue, les stratégies employées par les personnes malveillantes évoluent également. Par conséquent, pour compléter le développement d’outils sophistiqués, il est nécessaire de mettre en place des programmes d’éducation et de sensibilisation du public.

La compréhension du public de l’existence et des dangers potentiels des deepfakes est une arme puissante dans cette lutte. L’éducation permet aux individus d’évaluer de manière critique les informations qu’ils rencontrent, favorisant ainsi une société moins susceptible d’être manipulée. Les campagnes de sensibilisation peuvent mettre en évidence les risques associés aux deepfakes, encourageant le partage et la consommation responsables des médias. De telles initiatives donnent non seulement aux individus les connaissances nécessaires pour identifier les deepfakes potentiels, mais créent également une philosophie collective qui valorise l’éducation aux médias.

En rapport: « Nous avons été aspirés » : comment vous protéger contre les escroqueries téléphoniques Deepfake.

Naviguer dans le paysage des menaces deepfake en 2024

Alors que nous sommes à la croisée de l’innovation technologique et des menaces potentielles, démasquer les deepfakes nécessite un effort concerté. Cela nécessite le développement de technologies de détection avancées et un engagement en faveur de l’éducation et de la sensibilisation. Dans le paysage en constante évolution des médias synthétiques, rester vigilant et proactif constitue notre meilleure défense contre la menace croissante des deepfakes en 2024 et au-delà.




Source link

décembre 7, 2023