Fermer

avril 2, 2024

6 risques cachés de l’automatisation informatique

6 risques cachés de l’automatisation informatique



L’un des plus grands risques cachés de l’automatisation informatique est la non-sécurisation des données utilisées pour former les systèmes automatisés, déclare Kevin Miller, CTO, Amérique, chez la société de logiciels d’entreprise IFS. « En allant plus loin, les systèmes automatisés peuvent présenter des vulnérabilités que les acteurs malveillants peuvent exploiter – même la détection des anomalies elle-même peut être piratée », dit-il.

Cela laisse les entreprises vulnérables à la propagation automatisée des menaces, explique Miller. « Par exemple, si un attaquant prend le contrôle d’un processus automatisé, il peut propager du code, des logiciels ou des activités malveillants à travers le système beaucoup plus rapidement que dans un environnement non automatisé », explique-t-il.

Cela pourrait entraîner des dommages plus rapides et plus importants avant que les efforts de détection et de réparation puissent être lancés, explique Miller. Les entreprises doivent disposer d’une visibilité totale et d’une surveillance constante des systèmes pour déterminer si une anomalie est causée par un acteur malveillant capable de voler des données sensibles sur un actif, l’entreprise ou ses clients.

Problèmes de gestion des données amplifiés

La gestion des données peut être un élément crucial de l’automatisation informatique, mais les équipes peuvent ne pas y penser lors du déploiement d’outils pour automatiser les processus. Cela peut entraîner des problèmes.

« Utiliser des données obsolètes – que ce soit en secondes, minutes, heures ou jours – pour automatiser les technologies informatiques, c’est un peu comme utiliser des données de trafic anciennes et non actuelles pour appeler un Uber », explique Erik Gaston, CIO de la société de sécurité Tanium.

« Ça ne marchera pas et ce n’est pas une bonne idée », dit Gaston. « Sans données en temps réel, les organisations sont limitées dans leurs possibilités d’évolution. Pour ajouter au facteur de risque, lorsque les organisations tentent d’automatiser au-delà de ce qu’elles peuvent faire évoluer, cela peut interrompre des processus critiques.

De plus, explique Gaston, le manque de données en temps réel lors de la mise à l’échelle de l’automatisation peut aggraver les vulnérabilités en matière de cybersécurité. « Lorsque la technologie d’automatisation n’utilise pas de données en temps réel, elle peut ne pas détecter une menace critique ou un jour zéro, ce qui pourrait entraîner une violation de données passant inaperçue suffisamment longtemps pour que les acteurs malveillants exploitent les vulnérabilités et obtiennent un accès non autorisé aux systèmes ou aux données. , » il dit.

Pour résoudre ces problèmes, Williams de RaceTrac affirme que l’exploitant du dépanneur a mis en place une stratégie de gouvernance des données fédérées qui fournit une méthodologie structurée pour la gestion des données. « La pierre angulaire de cette approche est de garantir que toutes les données qui sous-tendent l’automatisation informatique soient minutieusement vérifiées, conformes aux réglementations en vigueur et répondent aux normes de qualité les plus élevées », explique-t-il.

Une fédération gouvernance des données La stratégie atteint un équilibre délicat entre les contrôles de gouvernance centralisés et la flexibilité de l’accès décentralisé, explique Williams. « Cette méthodologie permet une surveillance de la gouvernance descendante tout en donnant aux utilisateurs l’autonomie nécessaire pour se servir eux-mêmes », dit-il.

Cette stratégie permet aux organisations « d’exploiter tout le potentiel de l’automatisation informatique, en garantissant que leurs efforts reposent sur une solide gouvernance des données et sont résilients face à l’évolution des paysages technologiques », explique Williams.

Complaisance

Un autre risque est que les tâches, une fois automatisées, ne seront probablement pas examinées ultérieurement par le service informatique.

« La complaisance constitue un risque très réel lorsqu’il s’agit d’automatisation informatique », déclare Kichen de Tricentis. «Lorsque quelque chose fonctionne sans nécessiter une intervention humaine, il peut être facilement négligé. Les équipes informatiques peuvent oublier ou ignorer les étapes sous-jacentes du processus, et cette façon de penser entraîne des problèmes et des risques potentiels qui peuvent facilement survenir sans être détectés ni résolus.

Un exemple est le départ des ressources humaines. « Le risque de panne du processus est très élevé et les problèmes non détectés sont fréquents, car tout le monde a tendance à supposer que tout fonctionne comme prévu », explique Kichen.

Si l’automatisation fonctionne et ne crée pas d’erreurs évidentes, les équipes informatiques risquent de l’oublier. « Cela signifie qu’il n’est pas examiné périodiquement pour voir si les hypothèses antérieures en matière de sécurité ou d’informatique restent vraies », explique Kichen.

Au moment de sa création, ces décisions étaient probablement raisonnables, dit Kichen. « Mais avec le temps, les hypothèses sous-jacentes à ces décisions changent », dit-il. « Si les équipes informatiques ne disposent pas d’un processus correspondant pour examiner périodiquement l’automatisation et sa mise en œuvre, elles peuvent s’exposer à de graves risques qui n’existaient peut-être pas au moment de leur création initiale, mais qui sont désormais là et pertinents.

L’incapacité à surveiller les systèmes d’automatisation peut s’étendre à l’incapacité à garder un œil sur le marché. « Dans les mois ou les années qui suivent, de nouveaux fournisseurs pourraient apparaître et créer un produit qui effectue de manière plus sûre et plus efficace ce que l’équipe avait initialement automatisé », explique Kichen. « Si les équipes ne sont pas à l’affût de ces avancées parce que leur processus en place fonctionne, alors ce n’est que lorsque quelque chose de grave se produira qu’elles commenceront à repenser leur approche et à se rendre compte que la technologie et le paysage des fournisseurs ont progressé.

La gouvernance n’est pas une évidence

Cela peut sembler contradictoire, mais l’informatique doit surveiller et gérer la flexibilité et l’autonomie permises par l’automatisation. Sinon, les choses peuvent devenir incontrôlables.

« L’automatisation est en fin de compte un spectre, ce qui signifie qu’il appartient à chaque organisation de déterminer sa tolérance au risque individuelle et d’agir en conséquence », explique Gaston de Tanium. « Et même si cette flexibilité peut être bénéfique, elle nécessite une planification minutieuse, une surveillance régulière et en temps réel, ainsi qu’une formation continue du personnel informatique afin de garantir qu’il possède les compétences nécessaires pour gérer et dépanner les systèmes automatisés.

Il est également important de connaître les dépendances de tout flux de travail automatisé, afin de maintenir la fiabilité et la résilience. « Cela est particulièrement important lorsqu’il s’agit de systèmes existants, obsolètes, qui ne résistent souvent pas au changement et deviennent plus fragiles avec l’automatisation », explique Gaston.

Une solution pour contrôler l’utilisation de l’automatisation consiste à créer un programme de gouvernance. « Comme pour toute technologie émergente, des réglementations et des normes continuent d’émerger concernant l’automatisation, et de nombreuses organisations doivent encore déterminer comment adopter l’automatisation de la manière la plus adaptée à leurs objectifs commerciaux », explique Gaston.

« Même si nous automatisons à l’aide des meilleures plates-formes de leur catégorie, il est impératif d’examiner les flux de travail et les processus et de garantir que les garde-fous, dépendances et actions appropriés sont en place », explique Gaston. « Cela garantit que vous pouvez bâtir une organisation moderne qui réduit les risques et fait passer l’informatique de l’administration à l’innovation. »

Dépendance excessive à l’automatisation

Existe-t-il une dépendance excessive à l’automatisation informatique ? Peut-être, si cela implique un déclin dans d’autres domaines.

« S’appuyer fortement sur l’automatisation peut conduire à une atrophie des compétences du personnel informatique, où les compétences en matière de dépannage et d’intervention manuelles peuvent diminuer », explique Miller d’IFS. « Cela devient un risque important lorsque les systèmes automatisés rencontrent des problèmes inattendus qui nécessitent une résolution manuelle. »

Une dépendance excessive à l’égard de l’automatisation peut également entraîner une perte de connaissances institutionnelles sur les subtilités des opérations système spécifiques à l’entreprise, explique Miller, ce qui rend plus difficile l’adaptation ou l’innovation en dehors des processus automatisés.




Source link