Fermer

décembre 5, 2018

Crédits de sécurité, sauver des faces, falsification en profondeur


Des qualités pour la sécurité numérique

Les consommateurs ont été aveugles en ce qui concerne la crédibilité des produits et services numériques en matière de confidentialité et de sécurité. Mais les groupes de notation des deux côtés de l’Atlantique s’intègrent dans la brèche.

Consumer Reports (CR), la célèbre source américaine d’évaluations de tout, des tondeuses à gazon aux bagages, a commencé à évaluer la confidentialité et la sécurité numériques. La première expérience de l’organisation a été celle des services de paiement mobile peer-to-peer (Apple est arrivé en tête). Mais les classements ne sont qu'une partie d'un plus grand mouvement. CR a proposé un ensemble de normes nommé, de manière appropriée, The Digital Standard et l'a posté sur la plateforme de développement de logiciels GitHub afin que tout le monde puisse y accéder et faire des suggestions. Il s'agit d'un appel aux armes pour des produits sécurisés, la confidentialité et la propriété des consommateurs, ainsi que pour un comportement éthique.

Au Royaume-Uni, le British Standards Institute (BSI), âgé de 117 ans, a récemment lancé son BSI [ Norme Kitemark pour les périphériques IoT . La marque de qualité sera affichée sur les produits Internet des objets, pour les applications grand public et commerciales. C’est une réponse au plan Sécurisé par conception du gouvernement britannique qui définit les mesures visant à la sécurité des produits . Nous sentons une tendance: les étiquettes de sécurité sur tous les appareils intelligents, que les entreprises de technologie le veuillent ou non.

Répulsifs pour la reconnaissance faciale

La reconnaissance faciale est là, dans les aéroports en . iPhones et bientôt aux Jeux olympiques de 2020 . Ainsi est le retour de bâton. La police d'Orlando a rejeté son utilisation de la reconnaissance faciale (pour l'instant) après un tollé général: Des employés d'Amazon ont protesté pour la vente par leur société de son logiciel de reconnaissance faciale aux forces de l'ordre, et les acheteurs n'étaient pas contents quand un centre commercial à Calgary a été démoli par un utilisateur de Reddit pour avoir utilisé la technologie qu’il utilise. (L'histoire a rapidement été reprise par les médias; les gestionnaires de centres commerciaux semblaient quelque peu déroutés par la loi sur la protection de la vie privée .]

Mais tant que le développement de la technologie d'identification faciale était en cours, il y avait des chercheurs qui bloque le. À Carnegie Mellon un groupe a fabriqué des lunettes qui trompent les systèmes de reconnaissance faciale en identifiant de manière erronée le porteur – et, disent-ils, les spécifications pourraient éventuellement être imprimées en 3D. Une autre technique utilise l'intelligence artificielle pour lutter contre la reconnaissance d'image: L'Université de Toronto a mis au point un algorithme qui agit comme un filtre photo, modifiant les pixels des images pour déjouer l'identification d'image AI. Il y a aussi d'autres images-foiling qui démarrent. Et il s'avère (bienvenue dans les années 1990) que le maquillage Juggalo contrecarre la technologie

La vraie question qui se pose est de savoir si les citoyens privés doivent s’armer avec des outils de protection de la vie privée pour exister en public et être libres. Heureusement non. Mais les entreprises intelligentes doivent maintenant se rendre compte que la fureur des consommateurs et les réglementations gouvernementales – qui gagnent du terrain – ne sont pas la combinaison qui s'attache au marché.

Peut-on arrêter les simulacres?

Ce n'est pas suffisant, nous entrons maintenant dans l'ère de deepfakes des vidéos réalisées à l'aide d'un apprentissage en profondeur pour fusionner des images faciales de différentes personnes. Bien que cette technologie ait peut-être quelques utilisations positives, les inconvénients sont rapidement apparus, comme en témoigne la fausse vidéo de Barack Obama produite par BuzzFeedVideo et mettant en scène l'imitation de l'acteur Jordan Peele.

il en va de même pour la US Defence Advanced Research Projects Agency. Par le biais de son programme Media Forensics, l’agence militaire finance le développement de technologies permettant d’identifier de fausses images et vidéos. Il a déjà prétendu avoir du succès, en identifiant avec précision les inexactitudes de locuteur et de scène, qui sont prédominantes dans les vidéos truquées, 75% du temps.

D'autres chercheurs étudient également la façon de détecter les contrefaçons. Siwei Lyu de l’Université d’Albany (19459009) a identifié un cadeau assez simple: les humains clignent souvent des yeux et les faux visages ne le sont pas. C’est parce que les sources des contrefaçons sont des images fixes et qu’il n’ya pas beaucoup de photos, pour des raisons évidentes, les yeux fermés. Les recherches de son équipe utilisent un algorithme pour évaluer le clignotement image par image, puis en indiquent le manque. Mais Lyu dit aussi que nous sommes au début d’un "jeu d’échecs". En effet, lors de la convention SIGGRAPH de cette année, des chercheurs de l’Université technique de Munich et de l’Université de Stanford ont présenté leur technologie avancée de simulation de la vidéo (19459009). Ils ont été déçus lorsqu'un membre de l'auditoire a posé des questions sur les implications éthiques.

Alors, peut-on arrêter les deepfakes? Non. Mais la politique, l’éducation et la technologie devraient pouvoir améliorer leurs effets. D!




Source link