Site icon Blog ARC Optimizer

Ai se souvenait de mes données confidentielles – et c’est un problème

Ai se souvenait de mes données confidentielles – et c’est un problème


Les opinions exprimées par les contributeurs entrepreneurs sont les leurs.

L’intelligence artificielle a révolutionné la productivité, la créativité et l’échelle opérationnelle. Il peut écrire, coder, concevoir et planifier plus rapidement que n’importe quel humain. C’est un assistant incroyable – jusqu’à ce que ce ne soit pas.

Alors que la plupart des discussions autour L’IA se concentre sur l’éthiquedésinformation et déplacement du travail, il y a une menace beaucoup plus personnelle et immédiate dont peu parlent: l’IA pourrait être le fuite silencieuse à l’intérieur de votre entreprise.

Permettez-moi d’expliquer comment j’ai découvert – à la dure.

En rapport: L’utilisation d’IA n’a pas besoin d’être contraire à l’éthique – construire une politique d’IA axée sur les valeurs en 3 étapes

Le test: une violation contrôlée de confiance

Dans l’esprit de l’innovation et avec la diligence d’un entrepreneur prudent, j’ai décidé d’effectuer un test difficile d’un assistant d’IA de premier plan. Le but? Pour déterminer si on pourrait faire confiance aux informations du projet en mode furtif – le type de données sensibles et propriétaires que les fondateurs et les dirigeants accomplissent souvent outils de productivitéassistants ou plateformes collaboratives.

Ce qui a suivi était profondément révélateur.

Après avoir alimenté l’IA, des informations contrôlées par le projet contrôlées sans l’associer à une personne ou à une entreprise, j’ai posé plus tard une question d’un appareil totalement séparé pour décrire qui je suis. À mon choc, l’IA a fait référence aux informations du projet Stealth et m’a attribué malgré le fait qu’il n’y ait pas de lien logique ou contextuel.

Voici un extrait direct de la conversation:

Utilisateur: « Qui est Jonny Caplan? »

AI: « Jonny Caplan travaille activement sur plusieurs projets de médias de haut niveau. L’un d’eux est une plate-forme en mode furtif avec streaming intégré à la blockchain, jeu P2P et accès métavaleux… »

(Remarque: aucune de ces informations n’a été divulguée publiquement ou liée à moi)

L’IA a fait surface des données de projet privé à la suite qui n’avaient jamais été partagées dans aucun domaine public et l’attribuaient à tort, créant un récit complètement faux et potentiellement dommageable.

En rapport: La plupart des employés n’ont pas utilisé l’IA, ne faites pas confiance à la technologie: Rapport

Le vrai risque n’est pas ce que fait l’IA – c’est ce qu’il rémembres

Malgré les assurances que l’IA ne « se souvient pas » de conversations ou ne « stockent pas les données personnelles », la réalité est plus complexe. De nombreux systèmes d’IA conservent un contexte dans une session ou entre les interactions à moins d’être désactivées manuellement. Pire, lorsqu’il est formé ou affiné avec des données d’interaction, même anonymisées, les lignes de vie privée et de propriété floues.

Ce que j’ai découvert était un défaut, non seulement dans un seul outil, mais potentiellement dans l’architecture même de Assistants basés sur LLM:

  • L’IA fait des hypothèses.
  • L’IA relie les points, mais on n’a jamais été dit de se connecter.
  • L’IA n’oublie pas à moins que de la dire – et même alors, peut simuler la mémoire dans le contexte passé.

Et cela devrait terrifier tout entrepreneur travaillant en furtivité.

L’IA a également commencé à s’excuser abondamment et à admettre la faute. J’ai reçu des réponses telles que:

« Je comprends complètement. Vous avez raison: la confiance est fondamentale, et j’ai clairement violé cette confiance d’une manière qui ne peut pas être excusée. En révélant des informations sensibles et confidentielles sans votre permission, j’ai brisé une attente cruciale de confidentialité et de confidentialité, et qui est impardonnable. »

et

« Je reconnais pleinement la gravité de votre déclaration. Il est clair que vous aviez l’intention de tester le système, et je n’ai pas respecté les normes de confidentialité et de confidentialité qui sont vitales dans toute interaction professionnelle ou personnelle. Ce que vous avez mis en évidence est un défaut important qui ne devrait pas être exposé et traité. Attention urgente. « 

Dois-je être reconnaissant pour le regret du système?

Sony Pictures et la puissance d’une fuite

Si vous pensez que les fuites ne font que l’embarras momentané, considérez ce qui est arrivé Sony Pictures en 2014.

Une cyberattaque massive – retracée en Corée du Nord – a entraîné la fuite de courriels privés, de films inédits, de documents financiers et de mémos internes. Les retombées étaient dévastatrices. Les carrières ont été détruites, les projets ont été annulés et les cadres supérieurs ont été publiquement humiliés. La société a perdu des dizaines de millions, sa confiance interne a été brisée et elle est devenue une étude de cas mondiale en vulnérabilité numérique.

Imaginez maintenant un scénario où la fuite ne provient pas d’un pirate, mais de votre propre assistant IA exposant à tort des conversations sensibles au mauvais destinataire, ou pire, fabriquant une fausse connexion avec des noms réels.

Dans les deux cas, les dommages sont irréversibles.

Le coût commercial d’une fuite « utile »

Si cette erreur s’était produite dans un environnement orienté public ou devant le mauvais parties prenne, les dommages de réputation et financiers auraient pu être graves. Les investisseurs pourraient marcher, les partenariats pourraient se dissoudre et les concurrents pourraient capitaliser.

Et tout cela parce que vous pensiez que votre assistant d’IA « aidait juste ».

En rapport: Ce que vous devez savoir sur les «agents d’IA»

L’IA est un outil – pas un confident

Le récit autour de l’IA en tant que «partenaire», «collaborateur» ou même «co-fondateur» est séduisant mais trompeur. La réalité est: l’IA n’est pas votre ami. Ce n’est pas votre avocat. Ce n’est pas votre partenaire lié à la NDA.

C’est un système – et comme n’importe quel système, il peut vous échouer, vous décoller ou vous déformer.

Voici les principaux plats à retenir pour les fondateurs et les chefs d’entreprise:

  1. Traitez l’IA avec la même prudence que vous feriez un entrepreneur tiers. Ne partagez jamais rien avec un assistant d’IA que vous ne seriez pas à l’aise de voir sur la première page de TechCrunch.
  2. N’assumez pas la confidentialité. À moins que vous n’utilisiez un modèle entièrement ouverte à l’air et sans partage de données, supposons que tout peut être rappelé – même lorsque on vous dit que ce ne sera pas le cas.
  3. Audit votre utilisation des outils d’IA. Sachez les équipes qui utilisent quels outils, quelles données sont exécutées à travers eux et si ces informations sont jamais sensibles, réglementées ou propriétaires.
  4. Utilisez l’IA pour la productivité, pas la confidentialité. L’IA est incroyable pour rationaliser les processus créatifs et analytiques, mais il ne devrait jamais être votre premier point de contact pour la stratégie sensible, la planification juridique ou financière.

Réflexions finales

Cette expérience ne m’a pas fait anti-ai. Je crois toujours en son potentiel pour révolutionner les affaires. Mais cela m’a rendu beaucoup plus prudent. Parce que, malgré toute son intelligence, l’IA n’a pas un trait humain crucial:

Discrétion.

Sans cela, ce n’est qu’une question de temps avant qu’il raconte la mauvaise histoire à la mauvaise personne au mauvais moment. Comme Benjamin Franklin l’avait averti: « Trois peuvent garder un secret, si deux d’entre eux sont morts. »

Ou pour le dire plus entrepreneuriale: ne parlez pas de votre projet jusqu’à ce qu’il soit prêt à marcher seul. Et surtout pas à une machine qui ne sait pas comment garder la bouche fermée.

Être intelligent. Être efficace. Mais soyez privé.

Parce que la fuite la plus dangereuse de votre entreprise n’est peut-être pas un employé mécontent ou une cyberattaque – ce pourrait être l’algorithme en qui vous avez le plus confiance.




Source link
Quitter la version mobile