Fermer

février 20, 2024

Les données des patients sont plus exposées que jamais. L’IA peut aider

Les données des patients sont plus exposées que jamais.  L’IA peut aider



Les données des patients représentent un trésor pour les pirates. Les informations personnelles et médicales sensibles peuvent être utilisées de multiples manières, du vol d’identité à la fraude à l’assurance en passant par les attaques de ransomwares. Il n’est pas étonnant que le vol de données soit de plus en plus courant dans le secteur de la santé. Aux États-Unis, par exemple, les données médicales de plus de 88 millions de personnes a été exposé l’année dernière seulement. Le secteur de la santé est loin la cible numéro un pour les cybercriminels.

Les risques et opportunités de l’IA

L’IA ouvre un nouveau front dans cette cyberguerre. Alors que les systèmes de santé intègrent de plus en plus de fonctionnalités d’IA, il existe un besoin corrélé d’ensembles de données toujours plus volumineux. Parallèlement, le menace posée par les violations de données augmente, mettant en danger la vie privée des patients et les violations de la réglementation, telles que les mesures de sécurité intégrées dans la loi HIPAA (Health Insurance Portability and Accountability Act) et le règlement général sur la protection des données (RGPD). Ces mesures exigent que les organismes de santé protègent de manière adéquate les données des patients et qu’une notification soit donnée en cas de violation de données.

La bonne nouvelle est que l’IA peut être utilisée pour améliorer la sécurité. Bien utilisée, l’IA peut également renforcer la sécurité des établissements de santé. Sarah Rench, directrice mondiale des données, de l’IA et de la sécurité et responsable Databricks chez Avanade, l’explique de cette façon: « Quelle que soit votre utilisation de l’IA générative… il est essentiel de s’assurer qu’elle est sécurisée et qu’elle respecte vos réglementations en matière de confidentialité et de conformité pour l’utiliser avec succès. Une fois que vous aurez progressé sur cette dimension, vous pourrez découvrir comment utiliser l’IA générative pour améliorer votre cybersécurité au sens large et renforcer la cyber-résilience.

Défendre les organisations de santé

Comme le souligne Rench, sécuriser les applications d’IA générative et utiliser l’IA générative pour améliorer la sécurité ne doit pas nécessairement être coûteux. Avec Microsoft, par exemple, les organisations peuvent exploiter leurs licences existantes, leur permettant d’utiliser des outils tels que Microsoft Defender (une solution antivirus) et Microsoft Sentinel (pour la détection des menaces et l’automatisation de la sécurité). De cette manière, les DSI et leurs équipes peuvent facilement étendre leurs systèmes de sécurité existants pour couvrir de nouvelles applications d’IA.

La prochaine étape consiste à mettre l’IA générative elle-même au service du renforcement de la sécurité. L’initiative Microsoft Security Copilot d’Avanade en est un bon exemple. Cette approche utilise le nouvel assistant de sécurité génératif d’IA de Microsoft, Copilote de sécurité, pour aider à détecter les menaces, à gérer les incidents et à améliorer la posture de sécurité des organisations. L’outil peut être utilisé pour un large éventail d’utilisations, en s’intégrant à l’écosystème Microsoft pour permettre une réponse plus efficace aux incidents, la chasse aux menaces, les rapports de sécurité, les opérations de conformité et de fraude, la formation en cybersécurité, les agents virtuels de sécurité et bien plus encore.

Réduire les risques liés aux déploiements de sécurité de l’IA

Comme pour toute nouvelle technologie, les DSI souhaitant mettre en œuvre une sécurité assistée par l’IA auront des préoccupations en matière d’efficacité, de sécurité, de valeur commerciale et de retour sur investissement. Ici, travailler avec des partenaires comme Avanade porte ses fruits. Avanade apporte une expertise approfondie de la plate-forme Microsoft ainsi que des spécialistes du secteur et des cadres de mise en œuvre reproductibles qui réduisent les délais de rentabilisation. Cette approche basée sur le partenariat peut réduire les risques liés aux mises en œuvre de l’IA et garantir que les systèmes répondent efficacement aux besoins de sécurité et de conformité de l’organisation.

Les menaces auxquelles sont confrontés les organismes de santé ne feront qu’augmenter et devenir encore plus difficiles à mesure que la révolution de l’IA se déroule. En exploitant au maximum les licences de sécurité existantes et en renforçant leur posture de sécurité grâce à des outils tels que Microsoft Security Copilot, les établissements de santé peuvent se mettre dans les meilleures conditions possibles pour protéger les précieuses données de leurs patients.

Êtes-vous prêt à mettre l’IA au cœur de votre stratégie de protection des données ? Prends un Évaluation de l’état de préparation du copilote de sécurité aujourd’hui.




Source link

Les données des patients sont plus exposées que jamais.  L’IA peut aider



Les données des patients représentent un trésor pour les pirates. Les informations personnelles et médicales sensibles peuvent être utilisées de multiples manières, du vol d’identité à la fraude à l’assurance en passant par les attaques de ransomwares. Il n’est pas étonnant que le vol de données soit de plus en plus courant dans le secteur de la santé. Aux États-Unis, par exemple, les données médicales de plus de 88 millions de personnes a été exposé l’année dernière seulement. Le secteur de la santé est loin la cible numéro un pour les cybercriminels.

Les risques et opportunités de l’IA

L’IA ouvre un nouveau front dans cette cyberguerre. Alors que les systèmes de santé intègrent de plus en plus de fonctionnalités d’IA, il existe un besoin corrélé d’ensembles de données toujours plus volumineux. Parallèlement, le menace posée par les violations de données augmente, mettant en danger la vie privée des patients et les violations de la réglementation, telles que les mesures de sécurité intégrées dans la loi HIPAA (Health Insurance Portability and Accountability Act) et le règlement général sur la protection des données (RGPD). Ces mesures exigent que les organismes de santé protègent de manière adéquate les données des patients et qu’une notification soit donnée en cas de violation de données.

La bonne nouvelle est que l’IA peut être utilisée pour améliorer la sécurité. Bien utilisée, l’IA peut également renforcer la sécurité des établissements de santé. Sarah Rench, directrice mondiale des données, de l’IA et de la sécurité et responsable Databricks chez Avanade, l’explique de cette façon: « Quelle que soit votre utilisation de l’IA générative… il est essentiel de s’assurer qu’elle est sécurisée et qu’elle respecte vos réglementations en matière de confidentialité et de conformité pour l’utiliser avec succès. Une fois que vous aurez progressé sur cette dimension, vous pourrez découvrir comment utiliser l’IA générative pour améliorer votre cybersécurité au sens large et renforcer la cyber-résilience.

Défendre les organisations de santé

Comme le souligne Rench, sécuriser les applications d’IA générative et utiliser l’IA générative pour améliorer la sécurité ne doit pas nécessairement être coûteux. Avec Microsoft, par exemple, les organisations peuvent exploiter leurs licences existantes, leur permettant d’utiliser des outils tels que Microsoft Defender (une solution antivirus) et Microsoft Sentinel (pour la détection des menaces et l’automatisation de la sécurité). De cette manière, les DSI et leurs équipes peuvent facilement étendre leurs systèmes de sécurité existants pour couvrir de nouvelles applications d’IA.

La prochaine étape consiste à mettre l’IA générative elle-même au service du renforcement de la sécurité. L’initiative Microsoft Security Copilot d’Avanade en est un bon exemple. Cette approche utilise le nouvel assistant de sécurité génératif d’IA de Microsoft, Copilote de sécurité, pour aider à détecter les menaces, à gérer les incidents et à améliorer la posture de sécurité des organisations. L’outil peut être utilisé pour un large éventail d’utilisations, en s’intégrant à l’écosystème Microsoft pour permettre une réponse plus efficace aux incidents, la chasse aux menaces, les rapports de sécurité, les opérations de conformité et de fraude, la formation en cybersécurité, les agents virtuels de sécurité et bien plus encore.

Réduire les risques liés aux déploiements de sécurité de l’IA

Comme pour toute nouvelle technologie, les DSI souhaitant mettre en œuvre une sécurité assistée par l’IA auront des préoccupations en matière d’efficacité, de sécurité, de valeur commerciale et de retour sur investissement. Ici, travailler avec des partenaires comme Avanade porte ses fruits. Avanade apporte une expertise approfondie de la plate-forme Microsoft ainsi que des spécialistes du secteur et des cadres de mise en œuvre reproductibles qui réduisent les délais de rentabilisation. Cette approche basée sur le partenariat peut réduire les risques liés aux mises en œuvre de l’IA et garantir que les systèmes répondent efficacement aux besoins de sécurité et de conformité de l’organisation.

Les menaces auxquelles sont confrontés les organismes de santé ne feront qu’augmenter et devenir encore plus difficiles à mesure que la révolution de l’IA se déroule. En exploitant au maximum les licences de sécurité existantes et en renforçant leur posture de sécurité grâce à des outils tels que Microsoft Security Copilot, les établissements de santé peuvent se mettre dans les meilleures conditions possibles pour protéger les précieuses données de leurs patients.

Êtes-vous prêt à mettre l’IA au cœur de votre stratégie de protection des données ? Prends un Évaluation de l’état de préparation du copilote de sécurité aujourd’hui.




Source link