Les entreprises récoltent nos données biométriques. Nous avons besoin de nouvelles protections

Imaginez-vous en train de traverser une gare animée. Vous êtes pressé, vous frayez un chemin à travers la foule, ignorant que les caméras non seulement vous surveillent mais vous reconnaissent également.
De nos jours, nos données biométriques sont précieuses pour entreprises à des fins de sécurité, pour améliorer l’expérience client ou pour améliorer leur propre efficacité.
Biométrie sont traits physiques ou comportementaux uniques et font partie de notre quotidien. Parmi ceux-ci, la reconnaissance faciale est le plus courant.
La technologie de reconnaissance faciale provient d’une branche de l’IA appelée vision par ordinateur et cela revient à donner la vue aux ordinateurs. La technologie numérise des images ou des vidéos à partir d’appareils, notamment des caméras de vidéosurveillance, et sélectionne les visages.
Le système identifie et cartographie généralement 68 points précis connus sous le nom de repères faciaux. Ceux-ci créent une empreinte numérique de votre visage, permettant au système de vous reconnaître en temps réel.
Les repères du visage comprennent les coins des yeux, le bout du nez et les bords des lèvres. Ils aident à créer une représentation mathématique du visage sans stocker l’intégralité de l’image, améliorant ainsi la confidentialité et l’efficacité.
Des supermarchés aux parkings en passant par les gares, les caméras de vidéosurveillance sont partout et font leur travail en silence. Mais quel est exactement leur travail désormais ?
Les entreprises peuvent justifier la collecte de données biométriques, mais le pouvoir implique des responsabilités et l’utilisation de la reconnaissance faciale soulève d’importantes préoccupations en matière de transparence, d’éthique et de confidentialité.
Quand même police l’utilisation de la reconnaissance faciale peut être considérée comme contraire à l’éthique, alors le entreprise la justification devient moins convaincante, d’autant plus que l’on sait peu de choses sur la manière dont les entreprises stockent, gèrent et utilisent les données.
La capture et le stockage de données biométriques sans consentement pourraient constituer une violation nos droitsy compris la protection contre la surveillance et la rétention des images personnelles.
Équilibrer la sécurité, efficacitéet droit à la vie privée est un choix éthique complexe pour les entreprises.
En tant que consommateurs, nous sommes souvent réticents à partager nos informations personnelles. Pourtant, la reconnaissance faciale présente des risques plus graves, comme contrefaçons profondes et autres menaces d’usurpation d’identité.
Prenons par exemple la récente révélation selon laquelle Réseau ferroviaire surveille secrètement des milliers de passagers à l’aide du logiciel d’IA d’Amazon. Cette surveillance met en lumière un enjeu crucial : le besoin de transparence et de réglementations strictes, même lorsqu’une entreprise nous surveille pour améliorer ses services. Un porte-parole de Network Rail a déclaré : « Lorsque nous déployons une technologie, nous travaillons avec la police et les services de sécurité pour garantir que nous prenons des mesures proportionnées, et nous respectons toujours la législation en vigueur concernant l’utilisation des technologies de surveillance. »
L’un des principaux défis est la question du consentement. Comment le public pourra-t-il donner son consentement éclairé s’il est constamment surveillé par des caméras et ignore qui stocke et utilise ses données biométriques ?
Ce problème fondamental souligne la difficulté de résoudre les problèmes de confidentialité. Les entreprises sont confrontées à la lourde tâche d’obtenir un consentement clair et éclairé de personnes qui ne savent même pas qu’elles sont observées.
Sans pratiques transparentes et mécanismes de consentement explicites, il est presque impossible de garantir que le public connaît réellement et accepte l’utilisation de ses données biométriques.
Pensez à votre sécurité numérique. Si votre mot de passe est volé, vous pouvez le modifier. Si votre carte de crédit est compromise, vous pouvez l’annuler. Mais ton visage ? C’est permanent. Les données biométriques sont incroyablement sensibles car elles ne peuvent pas être modifiées une fois compromises. Cela en fait un jeu à enjeux élevés en matière de sécurité.
Si une base de données est violée, les pirates pourraient utiliser ces données à mauvais escient pour usurpation d’identité, fraude ou même harcèlement.
Un autre problème est biais algorithmiques et discrimination. Si les données sont utilisées pour la prise de décision, comment les entreprises peuvent-elles garantir que des données diverses et suffisantes sont incluses pour entraîner l’algorithme ?
Images d’archives / Shutterstock
Les entreprises peuvent utiliser les données biométriques pour l’authentification, le marketing personnalisé, la surveillance des employés et le contrôle d’accès. Il existe un risque important de préjugés sexistes et raciaux si l’algorithme est principalement formé sur les données d’un groupe homogènecomme les hommes blancs.
Les entreprises devraient également veiller à ce que biais numérique ne se perpétue pas. Ne pas le faire peut conduire à inégalités sociétales.
Législation et sensibilisation
À mesure que la reconnaissance faciale devient plus courante, le besoin d’une législation solide devient urgent. Les lois doivent exiger un consentement clair avant de capturer les données biométriques de quiconque. Ils devraient également établir des normes strictes sur la manière dont ces données sont stockées et sécurisées afin d’éviter les violations.
Il est tout aussi crucial que le public soit davantage conscient du problème. Alors que les gens sont de plus en plus conscients de la protection des données, la reconnaissance faciale passe souvent inaperçue. C’est invisible dans notre vie quotidienne et beaucoup ne réalisent pas les risques et les problèmes éthiques. Éduquer le public est vital.
Intégrant le principes d’une IA responsable dans le déploiement de la technologie de reconnaissance faciale serait un bon point de départ. L’IA responsable met l’accent sur l’équité, la responsabilité, la transparence et l’éthique. Cela signifie que IA les systèmes, y compris la reconnaissance faciale, doivent être conçus et utilisés de manière à respecter les droits de l’homme, la vie privée et la dignité.
Toutefois, les entreprises ne donneront pas nécessairement la priorité à ces principes si elles ne sont pas tenues pour responsables par les autorités. les organismes de réglementation ou le public.
La transparence est la pierre angulaire d’une IA responsable. Si les organisations utilisant la reconnaissance faciale restent secrètes sur leurs pratiques, nous ne pouvons pas leur confier nos données biométriques.
Les entreprises armées uniquement de vos informations personnelles peuvent être très puissantes en termes de marketing manipulateur. Cela prend seulement « Un comme » pour des campagnes sur mesure pour vous cibler très précisément.
Aujourd’hui, des partis politiques comme le PTI au Pakistan ont adopté technologie vision-IA pour permettre au leader Imran Khan de faire campagne malgré une peine de prison.
La capture et l’analyse des données visuelles sont particulièrement essentielles par rapport aux données non visuelles, car elles fournissent des informations plus riches, plus intimes et plus immédiates sur le comportement et l’identité humaine.
C’est pourquoi son utilisation croissante par les entreprises soulève tant d’inquiétudes en matière de confidentialité et de consentement. Même si le public ignore dans quelle mesure ses données visuelles sont capturées et utilisées, ses informations seront vulnérables à une mauvaise utilisation ou à une exploitation.
Kamran Mahroofprofesseur agrégé, analyse de la chaîne d’approvisionnement, Université de Bradford; Amizan Omarprofesseur agrégé de gestion stratégique, Université de Bradfordet Irfan Mehmoodprofesseur agrégé en analyse commerciale, Université de Bradford
Cet article est republié à partir de La conversation sous licence Creative Commons. Lis le article original.
Source link