Fermer

novembre 4, 2018

Notre manque d'intérêt pour l'éthique des données reviendra nous hanter



À quand remonte la dernière fois que vous avez vu une annonce effrayante sur Facebook, qui semblait connaître l'existence d'un produit dont vous discutiez avec un collègue? Ou quand avez-vous remarqué pour la dernière fois que votre recherche Google avait été modifiée pour tenir compte de variables telles que votre emplacement actuel et vos intérêts personnels?

Ces micro-événements se produisent quotidiennement pour la plupart d'entre nous et nous rappellent à quel point nos données sont précieuses et omniprésentes. Les données sont la devise du nouveau monde et, avec 2,5 quintillions d’octets de données créées chaque jour ce statut ne disparaîtra pas de si tôt.

Le problème, c'est que les scientifiques et les analystes des données parlent constamment du potentiel d'utilisation de ces données, mais trop peu parlent de l'éthique. Si nous voulons continuer à faire pression pour de meilleurs systèmes basés sur le Big Data, nous devons démocratiser et vulgariser la conversation éthique qui les entoure.

Principales préoccupations

La ​​plupart des gens comprennent les problèmes de confidentialité pouvant découler de la collecte et de l'exploitation de données volumineuses, mais les préoccupations éthiques vont beaucoup plus loin que cela.

Ce ne sont là que quelques-uns des problèmes éthiques posés par les mégadonnées:

  • Propriété: Qui est vraiment le propriétaire de vos données personnelles, telles que vos préférences politiques ou les types de produits que vous avez achetés? le passé? Est-ce toi? Ou est-ce une information publique? Qu'en est-il des personnes de moins de 18 ans? Qu'en est-il des informations que vous avez essayé de privatiser?
  • Biais: Les biais dans les algorithmes peuvent avoir des effets potentiellement destructeurs. Tout de la reconnaissance faciale aux chatbots peut être biaisé pour favoriser un groupe démographique plutôt qu'un ensemble de valeurs, sur la base des données utilisées pour l'activer.
  • Transparence: Les entreprises sont-elles tenues divulguer comment ils collectent et utilisent les données? Ou sont-ils libres de cacher certains de leurs efforts? Plus important encore, qui décide de la réponse ici?
  • Consentement: Que faut-il pour «consentir» à la collecte de vos données? Votre utilisation passive d'une plate-forme est-elle suffisante? Qu'en est-il de l'acceptation de documents de termes et conditions de plusieurs pages et d'une formulation complexe?

Si vous n’en avez pas entendu parler ou si vous n’y avez pas trop pensé, je ne peux pas vous en vouloir. Nous ne mettons pas ces questions au premier plan de la discussion publique sur le Big Data, pas plus que les entreprises du Big Data ne se démènent pour en discuter avant de proposer de nouvelles solutions.

“Oups, notre mauvais”

L'un des plus gros problèmes que nous rencontrons sans cesse est ce que j'appelle l'effet “Oups, notre mauvais”. L'idée ici est que les grandes entreprises et les scientifiques de données utilisent et abusent des données à leur guise, hors de la vue du public et sans discussion éthique sur leurs pratiques. Si et quand le public découvre qu’une activité odieuse a eu lieu, la réaction du public est de courte durée et la société présente des excuses pour les actions – sans vraiment changer leurs pratiques ou réparer les dommages.

Le récent scandale de violation des données de Cambridge Analytica par de Cambridge en est un exemple parfait. Pendant de nombreuses années, les informations personnelles des utilisateurs ont été mises à la disposition des applications tierces sans distinction, et Facebook n’a pas déployé beaucoup d’efforts pour protéger ses utilisateurs ou divulguer publiquement ces vulnérabilités. Au lieu de cela, il a simplement réagi lorsque le public a commencé à se fâcher, en disant l'équivalent de «oups, notre mauvais».

Google a subi quelque chose de similaire et à de nombreuses reprises. Par exemple, il a été révélé une fois que Google suivait la localisation des utilisateurs d'Android même lorsque les "services de localisation" étaient désactivés, probablement une action manuelle destinée à empêcher ce type de problème. Encore une fois, Google ne l'a reconnu qu'après avoir été appelé.

Problème de gonflage

Je suis aussi particulièrement préoccupé par l’éthique des données en raison de son importance à l’avenir. Le taux de croissance de la population Internet mondiale s’accélère, avec une population de 2,5 milliards d’utilisateurs en 2012 et de 3,7 milliards d’utilisateurs en 2017 . De plus, la création de données par l’utilisateur moyen augmente chaque année, les entreprises ont plus de contenu, d’images, de vidéos et d’interactions à leur disposition. Et bien sûr, les capacités d’exploration et d’exploitation des données des entreprises s’améliorent également chaque année.

Ce problème ne va pas disparaître; elle ne fait que grossir et devenir plus lourde avec chaque année qui passe. Plus nous attendons une conversation sérieuse, plus il sera difficile de mettre en œuvre une solution acceptable. Et plus nous nous habituerons à des pratiques de données contraires à l'éthique, moins nous serons en mesure de déterminer ce qui devrait être considéré comme «normal» dans notre société.

Les vaillants efforts de l’UE

Je conviens que nous avons réalisé des progrès et que l’échange autour de l’éthique des données n’est pas réduit au silence dans toutes les régions du monde. En fait, l'UE a fait un effort concentré ces dernières années pour essayer de réglementer la manière dont les entreprises peuvent collecter et utiliser les données. Le concept « du droit d’être oublié » a permis aux utilisateurs d’effacer les mentions non pertinentes et / ou préjudiciables d’eux-mêmes dans les résultats de recherche Google (et emplacements similaires), et les responsables politiques continuent de créer (et de faire respecter) [19659038] règles de protection des données plus strictes pour les consommateurs .

Cependant, l’UE n’a pas d’autorité aux quatre coins du monde et, à bien des égards, elle n’aborde pas les dilemmes centraux. Selon moi, c’est comme construire des glissières de sécurité sur une autoroute très fréquentée, plutôt que d’éduquer les conducteurs sur la façon de conduire de manière plus sûre; nous mettons en place des garde-fous pour éviter que les choses ne deviennent incontrôlables, mais cela ne résout pas le problème à la racine; incitation pour les entreprises à exploiter et à utiliser des données personnelles, car celles-ci peuvent être monétisées.

Sensibilisation et attention

Nous ne pouvons pas résoudre ces dilemmes éthiques en rendant des jugements ou en adoptant quelques lois. Après tout, les discussions éthiques aboutissent rarement à une simple compréhension de ce qui est «juste» et de ce qui est «faux». Nous devrions plutôt concentrer nos efforts sur la sensibilisation à ces dilemmes éthiques et faciliter des conversations plus ouvertes et progressives.

Nous devons démocratiser le débat en encourageant les consommateurs à exiger davantage de propriété, de contrôle et / ou de transparence sur leurs propres données. Nous devons tenir les entreprises responsables de leurs pratiques avant qu'elles ne deviennent incontrôlables. Et nous avons besoin que les scientifiques, les entrepreneurs et les spécialistes du marketing des données du monde réfléchissent sérieusement aux conséquences de leurs efforts en matière de données – et évitent de sacrifier les considérations éthiques au nom des profits.




Source link