Fermer

avril 29, 2024

Le jeu du chat et de la souris avec l’IA a commencé

Le jeu du chat et de la souris avec l’IA a commencé



Si vous êtes CIO ou RSSI et que vous n’avez pas encore lu cet article – Un employé des finances paie 25 millions de dollars après un appel vidéo avec le « directeur financier » de Deepfake vous devriez, puis le partager avec l’ensemble de votre entreprise. Cela pourrait faire économiser des millions à votre entreprise, et potentiellement bien plus encore.

L’incident impliquait des escrocs qui, à l’aide de vidéos et d’audio accessibles au public sur YouTube de cadres supérieurs ciblés, ont créé de fausses représentations pour tromper un employé financier et l’amener à exécuter plusieurs transactions sur des comptes bancaires à Hong Kong, entraînant ainsi des dommages financiers importants pour l’entreprise. Les imposteurs numériques ont imité l’équipe réelle du travailleur financier avec une précision troublante.

Cet événement deepfake réel est précisément ce qui inquiète les DSI et les RSSI depuis des années.

Combattez la fraude à l’IA avec des outils d’IA

Ce qui était autrefois hypothétique est désormais devenu bien réel, plaçant la barre encore plus haut pour les RSSI et les DSI dans leur lutte quotidienne contre la fraude. Protéger les réseaux contre de tels piratages signifie aller au-delà du fait de demander aux employés de changer leurs mots de passe, même à fréquence régulière. Les pratiques d’authentification à deux facteurs ne suffiront tout simplement pas.

Pour contrer les menaces générées par l’IA, les DSI et RSSI doivent déployer des mesures défensives basées sur l’IA. Des solutions de pointe sont disponibles qui utilisent l’IA pour détecter et valider les identités et autoriser les transactions en temps réel, offrant ainsi une puissante contre-mesure contre ces attaques sophistiquées.

Les technologies de gestion des identités et de contrôle d’accès basées sur l’IA sont essentielles pour améliorer les mesures de cybersécurité. Ces solutions, tirant parti de la cryptographie mobile, de la télémétrie des appareils et des algorithmes d’IA, sont efficaces pour neutraliser les attaques deepfake et par injection mobile, protégeant ainsi l’identité des employés, des partenaires et des clients.

Ingénierie sociale pour l’accès

Les pirates informatiques, comme ceux mentionnés ci-dessus, sont souvent motivés par le gain financier, mais leurs intentions peuvent aussi être de créer une perturbation politique ou tout simplement ruiner la réputation d’une entreprise, entre autres raisons.

Les tactiques typiques peuvent impliquer des e-mails de phishing ou des messages trompeurs sur les réseaux sociaux conçus pour voler les informations d’identification de l’entreprise. L’automne dernier, J’ai écrit sur les attaques sur MGM Resorts International et Caesars Entertainment perpétrés par les groupes de hackers Chat noir/ALPHV et Araignée dispersée. Ce crime basé sur un ransomware impliquait des pirates informatiques exigeant des paiements en espèces des entreprises après avoir piraté des bases de données contenant des informations sur le permis de conduire et les numéros de sécurité sociale des membres.

Aucune technologie deepfake basée sur l’IA n’a été utilisée dans ces attaques. Il s’agissait plutôt d’une approche plus low-tech, tirant parti de l’ingénierie sociale pour imiter l’identité d’un employé, et le service d’assistance informatique trompé fournissait l’accès. Leçon apprise : une fois l’accès accordé, il est trop tard. Ces attaques deviendront encore plus courantes et graves à mesure que l’IA entrera dans l’équation.

À qui pouvez-vous faire confiance ?

Les équipes distribuées et les travailleurs à distance aggravent ce problème. Il est impossible pour le service d’assistance de valider chacun de ces employés, même à l’aide d’une vérification visuelle. Ce problème s’aggrave lorsque l’on considère les partenaires commerciaux, les clients et les fournisseurs tiers. Vous pouvez travailler avec plusieurs tiers en qui vous avez confiance pour l’accès au réseau et aux données, mais vous devrez peut-être en apprendre davantage sur eux et leurs employés pour atténuer les risques. Par exemple, la fausse voix d’un vendeur peut vouloir confirmer les expéditions ou valider les instructions de paiement. Quelqu’un dans votre organisation a peut-être rencontré ce fournisseur à un moment donné, pense que le faux est réellement réel et peut volontairement fournir des informations sur son compte, un peu comme l’a fait le directeur financier de Hong Kong. Que se passe-t-il alors ?

La clé est de ‘ferme ta porte d’entrée‘ en utilisant de nouvelles solutions d’IA qui aident à gérer les informations d’identification, à vérifier l’identité des employés et à limiter le contrôle d’accès. Certains produits logiciels combinent déjà des signaux comportementaux et biométriques dans des applications en temps réel pour garantir une véritable identité et des privilèges d’accès.

  • Protégez votre présence numérique : utilisez l’IA pour protéger les médias sociaux et les actifs en ligne. Avec la multiplication des pages professionnelles falsifiées sur des plateformes comme Instagram ou Facebook, il est crucial de se défendre contre les dommages potentiels aux ventes, à la réputation et à la confiance des clients.
  • Défendez-vous contre les deepfakes : les outils de vérification d’identité en temps réel basés sur l’IA sont essentiels pour lutter contre les menaces de deepfake, garantissant la sécurité des transactions et des modifications de compte en vérifiant l’identité des utilisateurs.
  • Validez chaque interaction : à une époque où l’usurpation d’identité et d’identifiants est monnaie courante, les DSI et les RSSI doivent garantir l’intégrité de chaque transaction et processus de vérification d’identité.

Récemment, des pirates ont même trouvé des moyens de pirater les fichiers d’autorisation biométrique stockés via un Cheval de Troie iOS et Android appelé GoldPickaxe. Cela devrait déclencher d’autres alarmes, car nous constatons désormais que les données biométriques précédemment stockées pour correspondre à votre empreinte digitale ou à votre scanner facial sont susceptibles d’être attaquées.

En réponse à ces menaces en constante évolution, une formation complète sur les risques d’usurpation d’identité, de fraude par IA et d’escroqueries deepfake est essentielle. Cependant, l’éducation seule ne suffit pas et vous ne pouvez pas faire tout cela manuellement. L’adoption proactive de solutions sophistiquées basées sur l’IA est nécessaire pour garder une longueur d’avance sur ces cybercriminels.

La question n’est pas seulement de savoir si vous êtes prêt, mais aussi de savoir avec quelle rapidité et efficacité vous pouvez adopter des solutions analytiques basées sur l’IA pour la vérification d’identité et l’autorisation d’accès. Le jeu du chat et de la souris avec l’IA a commencé – êtes-vous prêt ?

Intelligence artificielle, sécurité




Source link