Fermer

avril 18, 2019

Mesures de sécurité Chatbot à prendre en compte


6 Les pratiques de sécurité de Chatbot à mettre en œuvre

Selon un sondage d’Oracle concernant les avantages de l’utilisation des chatbots pour leurs produits destinés aux consommateurs, ce qui inclut les réponses de 800 décideurs, y compris les directeurs du marketing , responsables de la stratégie, responsables marketing et responsables commerciaux en France, aux Pays-Bas, en Afrique du Sud et au Royaume-Uni, il a été découvert que « 80% des entreprises souhaitaient avoir un type de chatbots mis en œuvre par 2020 !

Il est également prévu que 90% des interactions bancaires seront automatisées d'ici 2022. En outre, 80% des entreprises disposeront d'une automatisation de chatbot mise en œuvre par 2020 . De plus, 47% des consommateurs achèteraient des articles d'un chatbot lorsque 28% des entreprises les plus performantes utilisent déjà l'IA pour le marketing! Les chatbots devenant une tendance, il est essentiel de mettre en œuvre des mesures de sécurité pour les chatbot.

Une porte dérobée ouverte aux pirates

Les chatbots sont de nos jours principalement utilisés dans des secteurs tels que la vente au détail, les banques, les services financiers et les voyages, qui traitent des données cruciales telles que les cartes de crédit / débit, le SSN, les comptes bancaires et autres. PII (informations personnellement identifiables).

L'agrégation de telles données est cruciale pour le chatbot. Ainsi, il est nécessaire que les chatbots ne soient pas vulnérables pour être exploités par des pirates.

Un rapport récemment publié par MIT Technology Review et Genesys a montré que 90% des entreprises utilisaient déjà des stratégies d'IA pour augmenter leurs revenus. L'étude a également révélé qu'en moyenne, entre 25% et 50% des demandes des clients pouvaient être résolues par des techniques automatisées. Cela a rendu plus facile qu'auparavant la gestion de tâches complexes.

Lecture connexe: Pour en savoir plus sur les principales tendances de l'IA en 2019.

Le protocole HTTPS pour la sécurité des chatbots

Le protocole HTTPS est le réglage de base et par défaut requis pour un bon système de sécurité. Les données transférées via HTTP via des connexions chiffrées sont sécurisées par TLS (Transport Layer Security) ou SSL (Secure Sockets Layer).

Lecture connexe: Découvrez comment Fingent a contribué à créer une expérience d'apprentissage améliorée et attrayante. via chatbots .

Types de problèmes de sécurité

Les problèmes de sécurité appartiennent à deux catégories principales:

Les menaces sont généralement définies comme des méthodes différentes permettant de négocier ou de compromettre un système. Les menaces peuvent inclure des incidents tels que l'usurpation d'identité, la falsification, la répudiation, la divulgation d'informations, le déni de service, l'élévation de privilèges et de nombreuses autres menaces.

Les vulnérabilités sont définies comme des méthodes selon lesquelles un système est compromis et ne peut pas être identifié et résolu correctement. temps. Un système peut être attaqué en cas de codage médiocre, de sécurité laxiste ou d'erreurs humaines. Le moyen le plus efficace de résoudre les problèmes de vulnérabilité possible consiste à implémenter les activités SDL (Security Development Lifecycle) dans les méthodes de développement et de déploiement.

Selon l'étude réalisée par le Ponemon Institute, en 2017, le coût total moyen d'un La cyber-attaque réussie était terminée 5 millions de dollars ou 301 $ par employé!

Voici six problèmes de sécurité que vous devez prendre en compte pour le chatbot:

1. Cryptage

Les données en transit peuvent également être utilisées à mauvais escient. Il existe différents protocoles fournissant un cryptage, tout en résolvant ces problèmes de mauvaise utilisation et de falsification.

Selon l'article 32 a) du Règlement général sur la protection des données (RGPD), «il est spécifiquement demandé aux entreprises de prendre des mesures pour supprimer l'identité et chiffrer les données à caractère personnel. Ainsi, les chatbots n’ont accès qu’aux canaux cryptés et communiquent par leur intermédiaire ».

Par exemple, Facebook Messenger a introduit la nouvelle fonctionnalité appelée “Conversations secrètes” qui permet le cryptage de bout en bout basé sur le protocole de signal.

2. Authentification et autorisation

L'authentification est effectuée lorsque l'utilisateur doit vérifier son identité. Ceci est souvent utilisé pour les chatbots de banque.

Les jetons d'authentification générés vérifient les données demandées via un chatbot. Une fois la vérification de l’identité de l’utilisateur terminée, l’application génère un jeton d’authentification sécurisé, ainsi que la demande.

Une autre étape des mesures de sécurité consiste à désactiver le délai d’authentification. Le jeton généré n'est utilisé que pendant un certain temps, après quoi l'application doit en traiter un nouveau.

La ​​vérification bidirectionnelle est un autre processus dans lequel l'utilisateur est invité à autoriser son adresse électronique ou à recevoir un code via SMS. Il s'agit d'un processus essentiel qui est nécessaire pour vérifier que l'utilisateur de ce compte est bien l'utilisateur réel qui utilise le chatbot.

3. Messages autodestructeurs

Lors du transfert de données confidentielles identifiables (PII), le message contenant ces données est supprimé après un laps de temps défini.

Les informations d'identification personnelle (PII) sont toutes les données pouvant être utilisées pour identifier une personne en particulier. Cela inclut des enregistrements tels que les informations médicales, éducatives, financières et d’emploi d’une personne. Les exemples d'éléments de données permettant d'identifier et de localiser une personne incluent son nom, ses empreintes digitales ou d'autres données biométriques (y compris génétiques), son adresse électronique, son numéro de téléphone ou même son numéro de sécurité sociale.

Ce type de mesure de sécurité est crucial lorsque vous travaillez avec chatbots bancaires et autres financiers.

4. Personal Scan

Lors de l'utilisation de données personnelles, il est nécessaire de prendre des mesures de sécurité.

Apple a été la première entreprise à ajouter l'authentification au doigt sur son iPhone. Cette technologie est maintenant largement utilisée pour vérifier l’identité d’un individu. Cette opération est effectuée lors du lancement d'une transaction ou lorsque vous souhaitez accéder à votre compte bancaire à l'aide d'un chatbot pour lequel une analyse personnelle est requise.

5. Stockage des données

Les chatbots sont efficaces car ils récupèrent et stockent des informations auprès des utilisateurs.

Par exemple, si vous avez un chatbot qui effectue des paiements en ligne, cela peut vouloir dire que vos clients fournissent leurs informations financières à un chatbot.

La ​​meilleure solution dans cette situation est de stocker ces informations dans un état sécurisé pendant

Certaines autres préoccupations sont les suivantes:

  • Authentification biométrique: Les balayages à l'iris et les empreintes digitales sont populaires et robustes.
  • User ID: [19659051] Les identifiants d'utilisateur impliquent le traitement des identifiants de connexion sécurisés.
  • Expiration du délai d'authentification: Une "horloge de temps" pour une entrée d'authentification correcte. Cela empêche de donner aux pirates informatiques l'occasion de deviner plus de mots de passe.
  • D'autres stratégies pourraient inclure 2FA, l'analyse comportementale et les félicitations pour les tendances en constante évolution de l'IA.

6. S'attaquer aux causes humaines

Le seul et unique facteur ou cause qui ne peut être modifié est le facteur humain. Avec les applications commerciales en particulier, cette technique de sécurité du chatbot et de l'utilisateur final doit être résolue. Cela garantira que les chatbots soient vulnérables aux menaces.

Lecture connexe: Découvrez comment l'intelligence artificielle peut générer de la valeur pour l'entreprise.

Pour en savoir plus sur la sécurisation des bâtiments, contactez nos consultants en TI aujourd'hui!




Source link