Fermer

août 5, 2020

Les Deepfakes sont le crime d'IA le plus inquiétant, avertissent les chercheurs3 minutes de lecture




Les Deepfakes sont l'utilisation la plus préoccupante de l'IA pour le crime et le terrorisme, selon un nouveau rapport de l'University College London.

L'équipe de recherche a d'abord identifié 20 façons différentes d'utiliser l'IA par des criminels sur les 15 prochaines années. Ils ont ensuite demandé à 31 experts en IA de les classer par risque, en fonction de leur potentiel de préjudice, de l'argent qu'ils pourraient gagner, de leur facilité d'utilisation et de la difficulté à les arrêter.

Deepfakes – Vidéos générées par l'IA de personnes réelles faire et dire des choses fictives – a gagné la première place pour deux raisons majeures. Premièrement, ils sont difficiles à identifier et à prévenir. Les méthodes de détection automatisées restent peu fiables et les deepfakes s'améliorent également pour tromper les yeux humains. Un récent concours Facebook pour les détecter à l'aide d'algorithmes a conduit les chercheurs à admettre que c'est «un problème non résolu».

Deuxièmement, Deepfakes peut être utilisé dans une variété de crimes et de méfaits, du discrédit de personnalités publiques à escroquer de l'argent au public en se faisant passer pour des gens. Cette semaine encore, une vidéo trafiquée d'une Nancy Pelosi apparemment ivre est devenue virale pour la deuxième fois tandis que le deepfake audio a aidé des criminels à voler des millions de dollars . [19659002] [Lire: Le Royaume-Uni abandonne l'algorithme de visa accusé de créer un «embarquement rapide pour les Blancs» ]

De plus, les chercheurs craignent que les deepfakes ne fassent confiance aux gens en audio et en vidéo

L'auteur de l'étude, le Dr Matthew Caldwell, a déclaré que plus nos vies se déplacent en ligne, plus les dangers deviendront importants:

Contrairement à de nombreux crimes traditionnels, les crimes dans le domaine numérique peuvent être facilement partagés, répétés , et même vendus, permettant la commercialisation de techniques criminelles et la fourniture de services criminels. Cela signifie que les criminels peuvent être en mesure d'externaliser les aspects les plus difficiles de leur crime basé sur l'IA.

L'étude a également identifié cinq autres menaces majeures de criminalité liée à l'IA: les véhicules sans conducteur comme armes, le harponnage alimenté par l'IA, la collecte de données en ligne à des fins de chantage , les attaques contre les systèmes contrôlés par l'IA et les fausses nouvelles.

Mais les chercheurs n'étaient pas trop alarmés par les «robots cambrioleurs» qui pénètrent dans les maisons par des boîtes aux lettres et des chatières, car ils sont faciles à attraper. Ils ont également classé le harcèlement assisté par l'IA comme un crime peu préoccupant – bien qu'il soit extrêmement nocif pour les victimes – parce qu'il ne peut pas fonctionner à grande échelle.

Ils étaient beaucoup plus préoccupés par les dangers des deepfakes. La technologie a fait la une des journaux alarmants depuis que le terme est apparu sur Reddit en 2017, mais peu de craintes ont été réalisées jusqu'à présent. Cependant, les chercheurs pensent clairement que cela devrait changer à mesure que la technologie se développe et devient plus accessible.

Publié le 5 août 2020 – 11:26 UTC




Source link

0 Partages