Fermer

septembre 28, 2018

Comment vendre la vie privée et faire du changement


À propos de l'auteur

Joe Toscano est un designer primé et ancien consultant pour Google qui est parti en 2017 pour des raisons éthiques. Il a depuis commencé une association à but non lucratif, appelée…
Pour en savoir plus sur Joe

La vie privée est un droit humain fondamental qui est devenu l'un des thèmes les plus illusoires et les moins compris d'Internet. Cependant, le temps du changement approche et il nous appartient de décider si cela se produira de manière volontaire ou réglementaire. Cet article explique exactement pourquoi ces changements sont si importants pour le succès de votre entreprise et comment vous pouvez apporter les modifications nécessaires pour avoir un impact positif sur vos résultats.

La vie privée est un droit humain fondamental qui nous permet d'être nous-mêmes. C’est ce qui nous permet d’être des cinglés sans honte. Cela nous permet d’avoir des opinions divergentes sans conséquence. Et, finalement, c’est ce qui nous permet d’être libres. C'est pourquoi de nombreuses nations ont des lois strictes concernant la vie privée. Cependant, malgré cette compréhension commune, la vie privée sur Internet est l’un des sujets les moins compris et les moins bien définis à ce jour car il couvre une vaste gamme de questions, prenant forme sous de nombreuses formes différentes, ce qui en fait incroyablement difficile à identifier et à discuter. Cependant, je voudrais essayer de résoudre cette ambiguïté.

Aux États-Unis, l’ouverture du courrier de quelqu'un est une infraction fédérale. Ceci est considéré comme une atteinte criminelle à la vie privée qui pourrait conduire une personne en prison jusqu'à cinq ans . Métaphoriquement parlant, chaque élément de données que nous créons sur Internet – que ce soit une photo, une vidéo, un texte ou autre – peut être considéré comme une parcelle de courrier. Cependant, contrairement à l'ouverture de notre courrier dans la vie réelle, les sociétés Internet peuvent légalement ouvrir chaque courrier livré via leur système sans conséquence juridique. De plus, ils peuvent en faire des copies également. Ce que ces sociétés font serait comparable à une personne qui ouvre notre courrier, le copie chez Kinkos, puis le stocke dans un classeur portant notre nom et le partage avec quiconque est prêt à payer pour cela. Voulez-vous ouvrir ce classeur ou supprimer certaines des copies? Dommage. Notre courrier est actuellement considéré comme leur propriété et nous n'avons presque aucun contrôle sur la façon dont il est utilisé .

Pourriez-vous imaginer l'indignation que le public ressentirait s'il découvrait que le service postal gardait son courrier otage et le vendre à celui qui était prêt à payer? Ce qui se passe avec les données sur Internet n’est pas différent, et il est temps que cela change.

C’est plus qu’une question d’éthique, c’est une question de droits fondamentaux de la personne.

Le problème avec les changements apportés doivent être apportées (sans que des changements ne soient imposés par la réglementation), c’est donner des signes de dollar aux problèmes. Quel est le retour financier d'un investissement d'ingénierie de 20 000 heures pour améliorer les normes de confidentialité des consommateurs? Les consommateurs exigent-ils ces changements? Parce que si cela ne génère pas de retour fiscal et que les consommateurs ne le réclament pas, alors pourquoi faudrait-il changer? Et même s’ils le sont et qu’il y a un retour sur investissement, à quoi ressemblent 20 000 heures d’investissement? Que va-t-on mettre sur la feuille de route du produit et quand? Il s’agit de toutes les préoccupations valables qui doivent être traitées afin de nous aider à progresser efficacement. Alors, discutons-en.

Lectures recommandées : Utilisation de l'éthique dans le design Web

Les consommateurs le souhaitent-ils? [19659013] La réponse à cette question est un oui dur. Les conclusions du Pew Research Center montrent que aux États-Unis, 90% des adultes estiment qu'il est important de contrôler les informations collectées à leur sujet, 93% estiment qu'il est important qu'ils puissent contrôler qui a accès à ces informations et 86% ont pris des mesures pour supprimer ou masquer leurs empreintes digitales. Des chiffres similaires ont été découverts à propos d’Européens dans le rapport Digital Attitudes de 2018 de doteveryone. Malgré ces chiffres, 59% ont toujours le sentiment qu'il est impossible de rester anonyme en ligne, 68% estiment que les lois en vigueur ne font pas assez pour protéger leur vie privée, et seulement 6% sont "très confiants" que les agences gouvernementales peuvent les garder en sécurité.

Maintenant, je sais ce que vous pensez. C’est la demande des consommateurs et jusqu’à ce que ceux-ci abandonnent d’anciens produits, il n’ya aucune raison fiscale de modifier le produit. Et (même si je ne suis pas d’accord avec votre logique), vous avez raison. À l'heure actuelle, il y a peu de raisons financières pour apporter un changement. Cependant, lorsque la demande des consommateurs atteint une masse critique, les choses changent toujours. Et les entreprises qui ouvrent la voie avant la demande du changement sont toujours gagnantes à long terme. Ceux qui refusent de changer avant d’être forcés de toujours ressentir le plus de douleur . L'histoire montre que c'est la vérité. Mais qu’arrivera-t-il dans une législation qui changera tellement les affaires? Excellente question.

La réglementation n’est pas différente de celle des normes de protection des données personnelles et de la vie privée dans le monde. Il n’y aura pas une si grande différence que ce qui s’est passé il ya moins de dix ans lorsque les consommateurs ont exigé la protection des spams. Loi anti-spam aux États-Unis – mais à une échelle beaucoup plus grande et avec un impact exponentiellement plus grand. Cette loi de créée parce que les consommateurs en avaient assez des pourriels, établissait les règles pour les e-mails commerciaux, établissait des exigences pour les messages commerciaux, donnait aux destinataires le droit de pénalités sévères pour les violations. Alors que nous entrons dans une période où les consommateurs commencent à comprendre à quel point ils ont été trompés (pendant des années, donner aux gens un contrôle intime de leurs données sera sans aucun doute l'avenir de la collecte de données) libre arbitre ou législation. Et ceux qui choisissent de bouger en premier vont gagner. Ne me croyez pas?

Considérez le fait que les ingénieurs peuvent avoir des problèmes juridiques pour le code qu'ils écrivent . Apple Watch, Alexa et les données FitBit entre autres, ont été utilisées comme preuve devant les tribunaux, modifiant ainsi la perception des consommateurs à l'égard de leurs données. La Cour suprême des États-Unis et Microsoft ont saisi les tribunaux plus tôt cette année pour définir l’endroit où les frontières physiques s’étendaient dans le cadre d’une activité criminelle dans le nuage le début d’une longue bataille. Ces exemples ne sont qu’un aperçu de ce qui se passe. La population exige plus, et nous atteignons le point de basculement.

L'UE, qui a créé le RGPD, a été la première à prendre des mesures pour répondre à cette demande. Aujourd'hui, les décideurs d'autres pays commencent à faire de même. sur les lois de leur pays pour définir notre futur cyber. Par exemple, le vice-président du Comité du renseignement du Sénat des États-Unis, Mark Warner, a récemment présenté certaines idées dans un rapport de synthèse il y a quelques mois à peine, démontrant que la législation pourrait bientôt être adoptée aux États-Unis. Mais ce ne sont pas seulement les progressistes qui croient qu’il s’agit de l’avenir; même les influenceurs de droite comme Steve Bannon pensent que nous avons besoin d’une réglementation .

Nous assistons à une réaction humaine face à des manipulations incroyables. Peu importe la façon dont nous sommes comparés aux générations précédentes, les gens vont toujours reculer quand ils se sentent menacés. C’est une réaction naturelle qui nous a permis de survivre pendant des millénaires. Aujourd'hui, la technologie est devenue plus qu'un secteur axé sur le consommateur. Il est maintenant également en train de devenir une question de sécurité nationale . Et pour cette raison, il y aura une réaction que cela nous plaise ou non. Et ce sera mieux si nous élaborons une stratégie de préparation au lieu d’être balayée. Alors, quel est le rendement financier que vous demandez? Eh bien, combien vaut votre entreprise?

Lectures recommandées : Comment le RDPP changera votre mode de développement

Pour un simple cadre de ce qui doit être traité et pourquoi, nous pouvons tenir plusieurs vérités à être fondamental dans la création de systèmes numériques:

  1. La vie privée doit être proactive, non réactive, et doit anticiper les problèmes de confidentialité avant de parvenir à l'utilisateur.
    Ces problèmes ne sont pas des problèmes que nous voulons traiter après qu'un problème soit survenu. à la vie, mais sont plutôt des problèmes que nous voulons éviter complètement, si possible.
  2. La confidentialité doit être le paramètre par défaut
    Il n'y a pas d'option "meilleur pour les entreprises" en ce qui concerne la confidentialité. Il s’agit d’une question qui concerne le meilleur pour le consommateur, qui à long terme sera meilleur pour l’entreprise. Nous pouvons voir ce qui se passe lorsque des fautes coercitives sont révélées au public par le biais de ce qui est arrivé à Paypal et Venmo en août 2018, lorsque Public by Default a été rendu public, ce qui a amené un soupçon de mauvaise presse à la marque. Les entreprises qui attendent que quelque chose de grave se passe avant de faire un changement ne manqueront pas d’être présentes.
  3. La vie privée doit être une somme positive et doit éviter les dichotomies
    Il n’ya pas de relation binaire à établir avec la vie privée; C’est une question toujours malléable qui nécessite une surveillance constante et une itération perpétuelle. Notre travail ne se limite pas aux termes et au contrat de service, il dure éternellement et doit être considéré comme un élément fondamental de votre produit qui évolue avec le produit et permet aux consommateurs de se protéger – et non ceux qui exploitent leur manque de compréhension.
  4. Les normes de confidentialité doivent être visibles, transparentes, ouvertes, documentées et vérifiables de manière indépendante
    Il n'existe pas de moyen génial de définir un test décisif pour vos normes de confidentialité, mais nous devrions tous nous poser des questions en tant qu'entrepreneurs: Premièrement, si la presse publiait votre accord de confidentialité, cela serait-il compréhensible? Deuxièmement, si cela était compréhensible, les consommateurs apprécieraient-ils ce qu’ils lisaient? Et le dernier mais non le moindre, sinon, que devez-vous changer?

Ces principes constitueront des fondements extrêmement précieux à garder à l’esprit lors de la construction et de l’évolution des produits. Ce sont des questions rapides et faciles à poser, à vous-même et à votre équipe, qui vous permettront d'avoir une bonne base d'éthique, mais pour un article plus long sur les fondements juridiques, vous pouvez en lire davantage sur Heather Burns, qui a exposé plusieurs principes supplémentaires l'année dernière. sur Smashing . Et pour une liste complète des éléments à inspecter lors d’une évaluation des facteurs relatifs à la vie privée, vous pouvez également vérifier comment les évaluations sont effectuées en fonction des éléments suivants:

Mais avant de vous dépêcher d’apporter des modifications à votre produit, signalons d’abord certains comprendre les failles actuelles et parler de ce à quoi pourrait ressembler un changement une fois qu'il sera mis en œuvre correctement.

How To Make Change

L'un des plus gros problèmes des pratiques de confidentialité des États-Unis est la difficulté de comprendre les conditions d'utilisation et les services fournis. (T & S), qui jouent un rôle majeur dans la définition de la vie privée mais tendent à le faire très mal. Actuellement, les utilisateurs sont obligés de lire de longs documents remplis de jargon juridique et technique s’ils espèrent comprendre ce qu’ils acceptent. Une étude a en effet démontré qu’il faudrait environ 201 heures (près de dix jours) par an à la personne moyenne pour lire chaque politique de confidentialité qu'elle rencontre annuellement . Les chercheurs ont estimé que la valeur de ce temps perdu atteindrait près de 781 milliards de dollars par an, ce qui est tout à fait inacceptable étant donné qu'il s'agit des règles censées protéger les consommateurs, règles censées être faciles et faciles à digérer. Cela met les consommateurs dans une position où ils sont obligés de s’inscrire sans vraiment comprendre dans quoi ils se lancent. Et dans de nombreux cas, ce n’est même pas le langage juridique qui est coercitif, c’est la manière dont les options sont données, en général, comme le prouvent clairement diverses expériences:


 Cette image montre ce que de nombreux sites font actuellement pour collecter le consentement de manière supposée. et oblige le consommateur à accepter de manière dangereuse
Lorsque le consentement est recueilli de cette manière, il est présumé. ( Grand aperçu )

L’exemple donné ci-dessus est une structure filaire générique, mais j’ai choisi de le faire, car nous avons tous constaté des schémas comme celui-ci et d’autres similaires qui sont liés à la collecte de types de données plus spécifiques. Je pourrais citer des exemples spécifiques, mais la liste serait interminable et il n’ya aucune raison de répertorier des entreprises spécifiques présentant des schémas de manipulation, car ces schémas (et d’autres très similaires) se retrouvent sur presque tous les sites Web ou applications sur Internet. Demander un consentement de cette manière pose un problème majeur: les consommateurs ne sont pas autorisés à refuser les termes et services sans plusieurs étapes supplémentaires, beaucoup de lecture, et souvent beaucoup plus. Il s'agit d'un défaut fondamental à résoudre car demander le consentement signifie qu'il doit exister une option permettant de dire non, et afin de savoir si le «non» est la meilleure option, les consommateurs doivent comprendre ils y consentent. Cependant, les produits ne sont pas construits de cette façon. Pourquoi? Eh bien, c'est mieux pour les affaires.

Si nous réfléchissons vraiment à cette question, il est facile de voir, mais de ne pas le savoir, que les entreprises passent plus de temps à créer des pages de garde pour expliquer l'utilisation de l'application que nous pour expliquer les données. est collecté et pourquoi. Pourquoi? De simples changements dans la manière dont les accords T & S sont conclus sensibiliseraient davantage les consommateurs à ce qu’ils souscrivent, mais aussi leur permettraient d’être des consommateurs plus responsables . Nous pouvons constater que certains de ces changements ont déjà été apportés en raison de l'impact du RGPD sur le monde entier. Dans de nombreux pays européens, il n'est pas rare de demander le consentement par le biais de modaux tels que ceux-ci:


 Dans cette image, les avantages de donner son consentement ont été reconnus, mais des améliorations sont encore possibles.
Dans cette image, les avantages de donner son consentement ont été reconnus. ( Grand aperçu )

Ce premier exemple est un bon pas en avant. Il indique au consommateur à quoi leurs données seront utilisées, mais il manque toujours de transparence quant à l’orientation des données et donne la priorité à l’accord sans possibilité de décliner. Cela bloque également tout dans un seul corps de texte, ce qui rend les informations beaucoup moins faciles à digérer.

Un meilleur exemple de la manière dont cela pourrait être conçu est quelque chose comme le modal ci-dessous, qui est maintenant répandu dans de nombreux sites européens:


 Cette image montre comment le consentement est demandé sur de nombreux sites en Europe, afin de se conformer au règlement général sur la protection des données et d'offrir aux consommateurs de meilleures options. Cependant, ce n’est toujours pas ce dont ils ont besoin.
Une fois que le respect des règles GDPR est devenu un problème, de nombreuses autres options ont été proposées, mais des améliorations peuvent encore être apportées. ( Grand aperçu )

Cela donne aux consommateurs une compréhension complète de l'utilisation de leurs données et de leur digestion. Cependant, il manque toujours des informations significatives sur l'emplacement des données après leur consentement. Il n’ya pas un seul indice quant à la répartition de leurs données, à qui elles seront partagées et aux limites de ces accords. Bien que cela soit bien meilleur que la majorité des options sur le Web, des améliorations doivent encore être apportées.

Invite de connexion tierce

Par exemple, lorsqu’un service tiers permet de se connecter à votre plate-forme, les consommateurs devrait être bien informé de ce qui suit:

  1. Quelles données vont être extraites de la tierce partie;
  2. À quoi servent-elles et comment cela pourrait-il affecter leur expérience si vous n'y avez pas accès;
  3. Qui d'autre a ou pourrait avoir

Pour mettre cela en œuvre de manière à donner le contrôle au consommateur, cette expérience devrait également permettre aux consommateurs de souscrire à des parties individuelles de la collection et de ne pas être obligé de tout accepter ou de ne rien accepter du tout. [19659051] Cette maquette montre une version générique de la manière dont un site peut demander un consentement lors de l'utilisation d'une connexion tierce sur son site. Cela montre à quel point énumérer un ensemble de variables n'est pas bon et pourquoi nous devons demander le consentement sur chaque point individuellement. « />

En obligeant les consommateurs à cocher à chaque point, cela crée des frictions dans le processus, oui, mais garantit également le contenu est digestible. ( Grand aperçu )

Cela rendrait le T & S digestible et permettrait aux consommateurs de choisir ce qu'ils acceptent vraiment, et non ce que la société leur demande. Et pour s’assurer que cette option est vraiment active, la valeur par défaut doit être définie sur opt-out. Ce serait un petit changement qui ferait une différence spectaculaire dans la manière dont le consentement est demandé. Aujourd'hui, la plupart des entreprises couvrent ce contenu dans le jargon juridique pour cacher ce qui les intéresse vraiment, mais le temps requis pour demander un consentement de cette manière touche rapidement à sa fin.

fournir aux consommateurs un service significatif, et ce, dans le respect de l'éthique, ces changements ne devraient pas être un problème. Si le service a une valeur réelle, les consommateurs ne résisteront pas à votre demande. Ils veulent juste savoir à qui ils peuvent et ne peuvent pas faire confiance, et il s'agit d'une étape simple qui peut aider votre entreprise à prouver sa fiabilité.

Demandes de collecte de données à un ou plusieurs points

Pour les accords T & S de votre plate-forme, nous devons examiner comment cela pourrait se dérouler de manière plus contextuelle – dans le cadre de l’expérience d’application. N'oubliez pas que si tout est donné d'avance, ce n'est pas digestible. Pour cette raison, la demande de collecte de données devrait être contextuelle lorsque le consommateur est sur le point d'utiliser une partie de votre service nécessitant une couche supplémentaire de données à collecter.

Voici quelques exemples de ce à quoi pourrait ressembler une demande de collecte de données à un ou plusieurs points:


 Ces maquettes montrent ce à quoi pourrait ressembler une demande de permission d'utilisation de points de données spécifiques. Cela implique de montrer aux personnes à quoi servent leurs données, pourquoi elles sont importantes pour ce processus, et de leur permettre d’accepter ou de désactiver chaque point, sans avoir à lire une longue liste de jargon juridique dans les termes et services.
Les demandes de données à un ou plusieurs points peuvent être conçues pour réduire la complexité des contrats de conditions de service actuels. ( Grand aperçu )

Diviser les fonctions T & S en points d’interaction digestibles au sein de l’expérience au lieu de demander tout d’abord à l’utilisateur lui permet de mieux comprendre ce qui se passe et pourquoi. Si vous n’avez pas besoin des données pour améliorer votre expérience, pourquoi les collectons-nous? Et s’il est collecté pour des raisons frivoles qui ne profitent qu’à la société, alors soyez honnête. C’est une simple honnêteté fondamentale, qui est malheureusement considérée comme un service client révolutionnaire et progressiste dans le monde moderne.

La plus grande clé de ces demandes initiales est que rien ne devrait être optionnel par défaut . Tous les déclencheurs initiaux devraient donner aux personnes utilisant l'outil le droit de choisir si elles le souhaitent et de les utiliser sans choisir si elles le souhaitent. L'époque de l'abandon forcé (ou, pire, encore de l'optimisation coercitive) arrive à sa fin, et ceux qui montreront le chemin resteront longtemps en tête du peloton.

Data Control Center

Au-delà de demander un consentement de manière significative, il sera également important que nous donnions aux consommateurs la possibilité de contrôler leurs données après la publication. L’accès des consommateurs au contrôle de leurs données ne devrait pas se terminer aux termes du contrat de service. Quelque part dans leurs contrôles de compte, il devrait également y avoir un ou plusieurs endroits où les consommateurs peuvent contrôler leurs données sur la plate-forme après avoir investi du temps dans le service. Cette zone doit leur montrer quelles données sont collectées, avec qui elles sont partagées, comment elles peuvent les supprimer et bien plus encore.


 Cette maquette montre la manière de créer des contrôles de données qui informent le consommateur non seulement des données stockées.
Bien que nous puissions souvent télécharger nos données maintenant, nous n’avons généralement pas ou très peu de contrôle à ce sujet. . Cela doit changer. ( Grand aperçu )

L'idée du contrôle intégral des données peut sembler incroyablement libérale, mais c'est sans aucun doute l'avenir. Et en tant que propriété du consommateur créant les données, il devrait être considéré comme un droit humain fondamental. Il n’ya aucune raison pour que cela soit un débat à ce stade de l’histoire. Les données représentent l’histoire de nos vies – collectivement – et combinées, elles génèrent d’énormes quantités d’énergie contre ceux qui les créent, surtout si nous permettons aux systèmes de rester des boîtes noires. Ainsi, au-delà de donner aux consommateurs l'accès à leurs données, comme nous l'avons vu dans les sections précédentes, nous devrons également rendre l'expérience plus compréhensible pour que les consommateurs puissent se défendre eux-mêmes.

Create Explainable AI

incroyable d'obtenir un résultat suggéré qui montre les choses que nous voulons avant même de savoir que nous en voulions, cela place également les machines dans une position de force qu'elles ne sont pas encore prêtes à défendre seules. Lorsque les machines sont positionnées en tant qu'experts et fonctionnent à un niveau suffisamment intelligent pour passer en tant que tel, le public leur fera généralement confiance jusqu'à leur échec. Cependant, si les machines échouent d'une manière que le public est incapable de comprendre, elles resteront expertes malgré leur échec, ce qui constitue l'une des plus grandes menaces pour l'humanité.

Par exemple, si quelqu'un devait utiliser un outil de recherche visuel pour identifier le différence entre un champignon comestible et un champignon toxique, et ils ne savaient pas que la machine leur avait dit qu'un champignon toxique était sans danger, cette personne pouvait mourir. Ou que se passe-t-il quand une machine détermine l’issue d’un procès et qu’elle n’est pas obligée de fournir une explication de sa décision? Ou pire encore, qu'en est-il lorsque ces technologies sont utilisées à des fins militaires et ont le droit d'utiliser la force meurtrière ? Cette dernière situation peut paraître extrême, mais il s'agit d'un problème actuellement débattu au sein des Nations unies .

Pour que le public soit en mesure de comprendre ce qui se passe dans les coulisses, nous devons créer ce que DARPA appelle l'intelligence artificielle explicable (XAI) – des outils qui expliquent comment les machines prennent leurs décisions et la précision avec laquelle ces tâches ont été réalisées. Il ne s'agit pas de dévoiler des secrets commerciaux, mais de donner aux consommateurs le sentiment de pouvoir faire confiance à ces machines et de se défendre en cas d'erreur.

Bien que ce ne soit pas basé sur l'intelligence artificielle, c'est un bon exemple de ce à quoi cela pourrait ressembler. Tout comme CreditKarma, qui permet aux gens de mieux comprendre leur pointage de crédit – un système qui était caché à l’instar des algorithmes d’aujourd’hui. Cet outil permet aux consommateurs de mieux comprendre ce qui se passe en coulisse et de débattre de la légitimité de leurs résultats s’ils estiment que le système a échoué. Des outils similaires sont en cours de création avec des systèmes tels que Le score du match de Google sur Maps et Le pourcentage de correspondance de Netflix dans les émissions mais ces systèmes commencent tout juste à effleurer la surface de l'IA explicable.


 L'image inclut des captures d'écran de Google Maps et de Netflix pour montrer à quoi il pourrait ressembler pour créer un système qui explique ses décisions. Les deux sont de bons premiers pas, mais il ya beaucoup d’améliorations à apporter.
Nous voyons ici des systèmes qui tentent d’expliquer la décision de la machine à un niveau très superficiel. C'est un bon début, mais nous avons besoin de mieux. ( Grand aperçu )

Malgré ces efforts, la plupart des algorithmes dictent aujourd'hui notre expérience en fonction de ce que nous pensons que nous souhaitons. Mais les consommateurs ne devraient plus être contrôlés de manière invisible par de grandes sociétés cotées en bourse. Les consommateurs devraient avoir le droit de contrôler leur propre algorithme . Cela pourrait être quelque chose d'aussi simple que de leur faire savoir quelles variables sont utilisées pour quelles parties de l'expérience et comment le fait de modifier le poids de chaque variable affectera leur expérience, puis de leur donner la possibilité d'ajuster cela jusqu'à ce que cela corresponde à leurs besoins – y compris algorithme complètement, si c'est ce qu'ils préfèrent. Que ce soit une fonctionnalité payante ou gratuite est encore à débattre, mais ce qui n'est pas discutable est de savoir si cette liberté devrait être offerte.


 La maquette montre comment nous pourrions créer une intelligence artificielle qui s'explique de manière à ce que les consommateurs sont capables de s’utiliser et de se contrôler, au lieu de laisser le contrôle à des sociétés privées ou à des sociétés cotées en bourse.
Le contrôle par algorithme sera l’avenir des entreprises. Cela pourrait-il être un moyen de générer des revenus de service au lieu de se fier uniquement à des annonces? Cela devrait-il être gratuit? ( Grand aperçu )

Bien que l'exemple ci-dessus soit une proposition générique, il commence à imaginer comment nous pourrions faire l'expérience dans des situations plus spécifiques. En donnant aux consommateurs la possibilité de comprendre leurs données, leur utilisation et l'impact sur leur vie, nous aurons conçu un système qui permette aux consommateurs de contrôler leur liberté.

Toutefois, peu importe la qualité de ces changements. sont réalisés, nous devons également comprendre que le fait de donner aux personnes un meilleur contrôle de leur vie privée ne signifie pas automatiquement un environnement plus sûr pour les consommateurs. En fait, cela peut aggraver les choses. Des études ont montré que donner aux gens un meilleur contrôle de leurs données rend plus probable qu’ils fournissent des informations plus sensibles . Et si le consommateur ne sait pas comment ces données peuvent être utilisées (même s'il sait où elles sont partagées), cela les met en danger. En ce sens, donner aux consommateurs un meilleur contrôle de leurs données et s’attendre à ce qu’il renforce la sécurité d’Internet revient à apposer une étiquette nutritionnelle sur un Snickers et à s’attendre à ce qu’il rende la barre de chocolat moins grasse. Ce ne sera pas le cas et les gens vont toujours le manger.

Bien que je pense que les consommateurs ont un droit fondamental à de meilleurs contrôles de la vie privée et à une plus grande transparence, je crois aussi que c'est notre travail, en tant que technologues expérimentés en matière de données. construire de meilleurs systèmes, mais aussi pour aider le public à comprendre la sécurité sur Internet. La dernière étape de la mise en place est donc de sensibiliser le public au fait que le contrôle n’est pas indispensable à tous les consommateurs. Ils ont également besoin de comprendre ce qui se passe sur le backend – et pourquoi. Cela ne signifie pas nécessairement leur fournir le code source ou donner leurs adresses IP, mais au moins leur fournir suffisamment d’informations pour comprendre ce qui se passe au niveau de la base, pour des raisons de sécurité. Et pour y parvenir, nous devons aller au-delà de nos écrans. Nous devrons étendre notre travail à nos communautés et aider à créer cet avenir.

Lectures recommandées : Concevoir l'éthique: faire évoluer la compréhension éthique dans le design

Incentivize Changement

La population a été confrontée à l'abandon de la vie privée en raison des monopoles existant dans le monde de la technologie, de l'incompréhension des consommateurs sur les raisons pour lesquelles cela est si dangereux et de l'absence de solutions tactiques associées aux rendements fiscaux. Cependant, c'est un problème qui doit être résolu. Comme Barack Obama l'a noté dans le résumé des préoccupations de son gouvernement concernant la protection de la vie privée sur Internet:

«Une chose devrait être claire: même si nous vivons dans un monde dans lequel nous partageons des informations personnelles plus librement que par le passé, nous devons rejeter la conclusion selon laquelle: la vie privée est une valeur démodée. Il est au cœur de notre démocratie depuis le début et nous en avons besoin plus que jamais auparavant. »

Créer des expériences de partage des données fiables et sûres sera l'un des plus grands défis auxquels notre monde sera confronté au cours des prochaines décennies.

Nous pouvons voir comment l'action de Facebook a chuté de 19% en un jour après avoir annoncé qu'elle se recentrerait sur les efforts en matière de protection de la vie privée pour prouver à quel point il était difficile de réaliser ces changements. En effet, les investisseurs récemment concentrés sur la croissance des revenus à court terme savent à quel point les entreprises ont besoin de mettre en œuvre de meilleures stratégies, mais réalisent également les coûts engendrés si le public commence à remettre en question une entreprise – et le public de Facebook. déclaration admettant cela a surpris le mouton.

Bien que le processus ne soit pas facile (et parfois douloureux), nous savons tous que la vie privée est le ventre mou de la technologie et qu'il est temps de changer cela. Les décisions prises aujourd'hui seront payantes à long terme; une différence marquée par rapport à la mentalité trimestrielle à court terme qui a dominé les affaires au cours des dix dernières années de croissance. Ainsi, la découverte de moyens créatifs de faire de ces questions une priorité pour toutes les parties prenantes devrait être considérée comme essentielle pour les entreprises et les décideurs politiques, ce qui signifie que notre travail en tant que technologues doit aller au-delà de la salle de conférence

. Au-delà de la discussion sur les chiffres et les problèmes évoqués dans cet article, ce serait par le biais d’allégements fiscaux accordés aux entreprises qui affectent des sommes importantes à l’amélioration de leurs systèmes. Des pauses pourraient être accordées aux entreprises qui décident de de fournir une formation ou des ateliers réguliers à leur personnel pour contribuer à faire de la confidentialité et de la sécurité une priorité dans la culture de l'entreprise. Ils pourraient être donnés aux entreprises qui engagent des pirates professionnels pour trouver des failles dans leurs systèmes avant que des attaques ne se produisent. Ils pourraient être donnés à ceux qui consacrent de nombreuses heures à la restructuration de leurs pratiques commerciales d'une manière qui profite aux consommateurs. En ce sens, de telles incitations ne seraient pas si différentes des allégements fiscaux accordés aux entreprises qui appliquent des pratiques respectueuses de l'environnement.

L'idée des allégements fiscaux peut sembler scandaleuse à certains, mais de telles incitations représenteraient une solution plus proactive que la façon dont les choses sont gérées maintenant. While it may feel good to read a headline stating “Google fined a record $5 billion by the EU for Android antitrust violations,“ we must keep in mind that fines like this only represent a small fraction of such companies’ revenue. Combine this with the fact that most cases take several years or decades to conclude, and that percentage only gets smaller. With this for consideration, the idea of tax breaks can be approached from a different perspective, which is that they are not about rewarding previously negligent behavior but about increasing public safety in a way that is in the best interest of everyone involved. Maintaining our current system, which allows companies to string out court cases while they continue their malpractices is just as, if not more, dangerous than having no laws at all.

If you enjoyed reading this article and think others should read it as well, please help spread the word.

This article is the beginning of a series of articles I will be writing about dedicated to Internet safety, in which I will work to put fiscal numbers to ethical design patterns so that we, as technologists can change the businesses we’re building and create a better culture surrounding the development of internet-connected experiences.

Smashing Editorial(il, ra, yk)




Source link