Fermer

juillet 22, 2018

Payer pour un service ne garantit pas qu'il ne vendra pas vos données



À la suite du scandale de Cambridge Analytica de Facebook et des audiences du Congrès, il y a un sentiment palpable que la pression qui se développe lentement autour de la sécurité des données en ligne est sur le point de nous catapulter en territoire inexploré.

Les problèmes ne sont pas nouveaux – Facebook a été un précurseur dans les technologies des médias sociaux, mais le manque de transparence et l'utilisation abusive des données des utilisateurs ont ébouriffé les plumes au fil des ans. Un chronologie des excuses de Facebook publié par le Washington Post répertorie 14 années de désolé-non-sorrys.

Les législateurs des deux côtés de l'allée aux États-Unis semblent convenir qu'il est temps de réglementer, mais le faire est une promenade sur la corde raide. Personne n'ose enfreindre le premier amendement, mais les consommateurs doivent être protégés – sans étouffer l'innovation de la Silicon Valley, bien sûr.

Il est clair que quelque chose ne fonctionne pas. "Si vous ne payez pas pour cela, vous devenez le produit" est (encore) devenu une expression populaire, mais il manque une image plus grande qui pourrait être tout aussi néfaste – même si vous payez, vous peut-être encore le produit.

Sociétés de produits IA: les nouveaux maîtres de l'information

AI dans l'entreprise est où les médias sociaux étaient il y a une décennie. Bien que toujours à la pointe, l'IA est rapidement adopté par les grandes entreprises. Une étude récente menée par BrightEdge a montré que plus de 50% des personnes interrogées déclaraient que l'IA était importante ou indispensable pour l'avenir du marketing. Selon un nouveau rapport publié par Investor's Business Daily Walmart Monsanto, John Deere et Devon Energy utilisent tous l'IA pour optimiser les problèmes de chaîne d'approvisionnement, aider à identifier de nouveaux produits prometteurs , ou augmenter l'efficacité globale. Les entreprises de finance sont optimistes que l'IA peut massivement améliorer le blanchiment d'argent et la détection de la fraude. Des gains d'efficacité considérables sont attendus dans la fabrication et la santé une fois l'IA pleinement mise en œuvre.

Ce que nous avons peut-être oublié, dans notre hâte de préparer l'avenir, c'est que les données sont le carburant de la technologie AI. Per The Economist le soi-disant «effet réseau de données», dans lequel les données attirent les utilisateurs qui génèrent des données, ce qui attire plus d'utilisateurs (et ainsi de suite) est un moteur économique puissant, comparable échelle à l'industrie pétrolière du siècle dernier.

Ainsi, il est de pratique courante pour les entreprises développant des produits AI, désireuses d'améliorer leur moteur AI et de prouver la valeur de leurs produits, d'offrir des démonstrations gratuites en échange d'échantillons de données. Ces ensembles de données sont extrêmement précieux, car ils sont utilisés pour améliorer le moteur AI en préparation de l'échantillon suivant.

Répétons-nous nos erreurs?

Les données sur les entreprises privées sont une collection de données sur les consommateurs. Bien que les retombées prévues d'une mise en œuvre réussie de l'IA soient alléchantes, les possibilités d'abus abondent. Les entreprises qui recherchent des fournisseurs de produits IA disposent de nombreuses options et fourniront probablement des exemples de données à plusieurs fournisseurs.

Très probablement, un seul fournisseur sera choisi, mais les autres seront éventuellement employés par la concurrence. Au mieux, ces entreprises auront fini par alimenter cette concurrence – en diluant leur propre avantage concurrentiel en offrant leur avis client unique à un fournisseur de services IA cherchant à consommer autant de données que possible.

Au pire, les entreprises se livrent à l'IA et soumettent des données à différents fournisseurs peuvent s'ouvrir eux-mêmes (ou clients) à des risques de sécurité. Comme l'a récemment démontré une équipe de chercheurs de Université de New York il est relativement facile pour un adversaire de créer un «réseau malintentionné» pour «se conduire mal» lorsqu'il réagit à certains intrants.

Par exemple, un panneau d'arrêt interprété par un véhicule automatisé peut être manipulé à une extrémité désastreuse. Plus il y a de données, plus le risque est grand. C'est, bien sûr, le pire des cas, mais il illustre bien comment les questions de sécurité deviendront plus importantes à mesure que la technologie évolue.

Bien sûr, les industries ayant une réglementation intrinsèquement stricte ne courent pas le même niveau de risque. C'est peut-être la raison pour laquelle AI n'a pas encore complètement piraté les soins de santé – dans le secteur des soins de santé étroitement contrôlé, les échantillons de données sont trop petits ou impossibles à obtenir. Indépendamment du niveau de réglementation dans leurs industries respectives, il est essentiel que les décideurs réfléchissent bien aux conséquences.

Heureusement, il existe une alternative

La culture de l'innovation de la Silicon Valley est le moteur des entreprises de produits. pas exception.

Cependant, il existe aussi des entreprises de solutions AI qui reconnaissent les obstacles potentiels inhérents à cette direction (à la fois en termes de risque de sécurité des données et de relations publiques). Cette deuxième école de pensée croit que les données doivent être protégées à tout prix, même si cela signifie ralentir le développement de l'IA.

Ces entreprises de solutions se déploient derrière le pare-feu d'un client, dans des environnements de cloud sécurisés, et s'assurent qu'il n'y ait pas de fuite d'un seul octet. Des exemples de cet ensemble comprennent des géants comme Microsoft un certain nombre de startups, et dans une certaine mesure même IBM Watson.

Le point de vue dominant sur la technologie des médias sociaux, qui est raisonnablement mature et s'est épanoui sans restriction, est que les consommateurs devraient être raisonnablement informés de l'endroit où va leur information et de ce qui en est fait.

Cela semble évident maintenant, mais il ne faut pas oublier que cette opinion est issue d'une série de scandales. L'entreprise devrait en tenir compte: un partenariat dans le domaine de l'IA doit être basé sur la confiance, la transparence et un véritable pare-feu.

La pensée à long terme dans une industrie à court terme

Le voyage en avant est trouble; encore plus sombre en essayant de planifier pour la technologie de demain. Si nous réussissons à réglementer sans étouffer l'innovation, le paysage de la technologie sera totalement différent dans 15, 20 et 30 ans.

Nous devrons garder nos dirigeants (au gouvernement et dans le secteur privé) responsables de la réflexion à long terme et à court terme si nous voulons éviter les douleurs de croissance.

Comment faisons-nous cela? Très tactiquement, nous travaillons avec des fournisseurs de solutions d'IA qui sécurisent nos données, plutôt qu'avec des sociétés de produits AI dont l'ambition est de croître en fonction de nos données. À plus grande échelle, nous restons vigilants en tant que consommateurs et décideurs.

Nous parlons avec nos portefeuilles et avec notre attention. Nous restons méfiants à l'égard de la «gratuité» – ne pas laisser passer des outils utiles, mais poser des questions difficiles et prêter attention à ce qui se passe avec nos données pour que chacun d'entre nous soit prêt à prendre les meilleures décisions possibles. ]




Source link