Fermer

mars 23, 2023

Comment les DSI peuvent-ils protéger les informations personnelles identifiables (PII) pour une nouvelle catégorie de consommateurs de données ?

Comment les DSI peuvent-ils protéger les informations personnelles identifiables (PII) pour une nouvelle catégorie de consommateurs de données ?



  • Limitation: L’informatique confidentielle oblige les entreprises à supporter des coûts supplémentaires pour déplacer leurs services basés sur ML vers des plates-formes qui nécessitent du matériel spécialisé. La solution est également partiellement sans risque. Un attentat en mai 2021 données collectées et corrompues des TEE qui s’appuient sur Technologie Intel SGX.

Bien que ces solutions soient utiles, leurs limites deviennent évidentes lors de la formation et du déploiement de modèles d’IA. La prochaine étape de la confidentialité des PII doit être légère et compléter les mesures et processus de confidentialité existants tout en donnant accès à des ensembles de données enchevêtrés d’informations sensibles.

Équilibrer la corde raide de la confidentialité des PII avec l’IA : une nouvelle classe de protection des PII

Nous avons examiné certaines approches modernes pour protéger les PII et les défis auxquels la nouvelle catégorie de consommateurs de données est confrontée. Il y a un exercice d’équilibre dans lequel les IPI ne peuvent pas être exposées à l’IA, mais les consommateurs de données doivent utiliser autant de données que possible pour générer de nouveaux cas d’utilisation et de la valeur de l’IA. En outre, la plupart des solutions modernes traitent de la protection des données pendant la phase de formation ML sans réponse viable pour protéger les données du monde réel lors des déploiements d’IA.

Ici, nous avons besoin d’une solution pérenne pour gérer cet exercice d’équilibre. Une de ces solutions que j’ai utilisé est la transformation du vitrail, qui permet aux organisations d’extraire des informations sur le ML de leurs données tout en se protégeant contre la fuite d’informations sensibles. La technologie développée par Protopia AI peut transformer n’importe quel type de données en identifiant ce dont les modèles d’IA ont besoin, en éliminant les informations inutiles et en transformant les données autant que possible tout en conservant une précision quasi parfaite. Pour protéger les données des utilisateurs tout en travaillant sur des modèles d’IA, les entreprises peuvent choisir la transformation vitrail pour augmenter leurs données de formation et de déploiement ML afin d’obtenir de meilleures prédictions et de meilleurs résultats tout en se souciant moins de l’exposition des données.

Plus important encore, cette technologie ajoute également une nouvelle couche de protection tout au long du cycle de vie ML – pour la formation et l’inférence. Cela résout une lacune importante dans laquelle la confidentialité n’était pas résolue pendant l’étape d’inférence ML pour la plupart des solutions modernes.

Le dernier guide Gartner AI TriSM pour la mise en œuvre de la gestion de la confiance, des risques et de la sécurité dans l’IA a mis en évidence le même problème et la même solution. TRiSM guide les leaders de l’analyse et les scientifiques des données pour garantir la fiabilité, la fiabilité et la sécurité de l’IA.

Bien qu’il existe plusieurs solutions pour protéger les données sensibles, l’objectif final est de permettre aux entreprises d’exploiter au maximum leurs données pour alimenter l’IA.

Choisir la ou les bonnes solutions

Choisir les bonnes solutions de préservation de la vie privée est essentiel pour résoudre vos problèmes de ML et d’IA. Vous devez évaluer soigneusement chaque solution et sélectionner celles qui complètent, augmentent ou sont autonomes pour répondre à vos besoins uniques. Par exemple, les données synthétiques peuvent améliorer les données du monde réel, améliorant ainsi les performances de vos modèles d’IA. Vous pouvez utiliser des données synthétiques pour simuler des événements rares qui peuvent être difficiles à capturer, tels que des catastrophes naturelles, et augmenter les données du monde réel lorsqu’elles sont limitées.

Une autre solution prometteuse est l’informatique confidentielle, qui peut transformer les données avant d’entrer dans l’environnement d’exécution de confiance. Cette technologie est une barrière supplémentaire, minimisant la surface d’attaque sur un axe différent. La solution garantit que les données en clair ne sont pas compromises, même si le TEE est violé. Alors, choisissez les bonnes solutions de protection de la vie privée qui répondent à vos besoins et maximisez les performances de votre IA sans compromettre la confidentialité des données.

Conclure

La protection des données sensibles n’est pas seulement une question technique, c’est un défi à l’échelle de l’entreprise. Alors que les nouveaux consommateurs de données étendent leurs capacités d’IA et de ML, sécurisation des informations personnelles identifiables (PII) devient encore plus critique. Pour créer des modèles performants offrant une valeur honnête, nous devons maximiser l’accès aux données tout en les protégeant. Chaque solution préservant la confidentialité doit être soigneusement évaluée pour résoudre nos défis les plus urgents en matière d’IA et de ML. En fin de compte, nous devons nous rappeler que la confidentialité des PII n’est pas seulement une question de conformité et d’obligations légales, mais aussi de respect et de protection de la vie privée et du bien-être des individus.




Source link