La meilleure approche pour détecter les anomalies
Quel est le meilleur moyen de détecter les anomalies dans vos données? Nous explorons différentes approches pour tirer le meilleur parti de vos données industrielles afin d'éviter les temps d'arrêt.
"La prédiction est très difficile, surtout pour l'avenir" … Neils Bohr, physicien danois
les entreprises signifient bien plus qu'un simple inconvénient. Le coût des interruptions imprévues, l'impact des pannes imprévues, l'effet des pannes imprévues. Tout cela signifie beaucoup plus que des ouvriers d'usine simplement empêchés d'accomplir leurs tâches normales.
Chaque fois qu'un technicien de l'usine doit s'occuper d'un entretien imprévu …
Chaque fois qu'une simple réparation avale des heures de travail travail productif précieux …
Chaque fois que le personnel de service est appelé à réparer une révision abrupte …
Chaque fois que cela arrive, une unité industrielle perd 540 000 $ par heure d'une défaillance technique évitable
Les immobilisations industrielles sont en fait un problème de 647 milliards de dollars . S'attaquer à ce problème commence par la bonne fondation. Une fondation solide comme le roc, construite avec l'analyse prédictive scientifique et la détection précise des anomalies.
Pour aider à sécuriser cette fondation, plusieurs industries à forte intensité d'investissement investissent dans la détection et la prévision d'anomalies en temps réel. La détection précise des anomalies peut faire beaucoup de bien pour prédire avec succès les échecs des ressources critiques
Les approches – Illuminer les taches sombres dans vos données industrielles
La plupart des efforts de détection d'anomalies industrielles échouer, car ces systèmes finissent par identifier trop d'anomalies (faux positifs) ou pas assez (faux négatifs). Anomaly Detection lui-même est un concept complexe car la plupart du temps on peut être à la recherche d'anomalies sans être conscient de ce qui constitue une anomalie. Ou, on cherche des anomalies potentielles sans savoir ce qui qualifie même un «état anormal».
Puisque le processus implique le repérage de ces «inconnues inconnues» au milieu d'une série de données industrielles, il est extrêmement important d'utiliser la bonne approche. . Après tout, l'objectif est d'éliminer les incertitudes et d'ajouter la prévisibilité aux opérations industrielles.
Nous présentons ci-dessous certaines des approches les plus couramment utilisées pour la détection et la prévision des anomalies. Nous soulignons également les avantages de l'utilisation de certaines approches suggérées comme meilleures pratiques pour corriger ces anomalies dans les délais.
Surveillance et détection d'anomalies basées sur des règles / supervisées ou non supervisées
La détection d'anomalies peut utiliser deux méthodes de base: les systèmes de détection d'apprentissage automatique basés sur des règles ou supervisés. Les systèmes basés sur des règles sont conçus en définissant des règles spécifiques qui décrivent une anomalie et assignent des seuils et des limites. Ils s'appuient généralement sur l'expérience d'experts de l'industrie et sont idéaux pour détecter les «anomalies connues». Ces anomalies connues nous sont familières lorsque nous reconnaissons ce qui est normal et ce qui ne l'est pas.
L'un des principaux défauts des systèmes fondés sur des règles c'est qu'ils ne s'adaptent pas automatiquement lorsque les motifs changent. Pour apprendre de nouveaux modèles, un nouveau modèle devrait être construit à chaque fois avec des données étiquetées. Par conséquent, ces modèles ne sont pas adaptés aux données dynamiques à grande vitesse. En outre, le processus d'étiquetage des données lui-même peut être intensif manuellement, sujet aux erreurs et peut conduire à de mauvaises performances du modèle. Fondamentalement, il est tout à fait un défi de capturer les "inconnus inconnus" avec des méthodes supervisées.
Puisque les scénarios d'affaires réels sont assez complexes et pleins d'incertitudes, tout peut ne pas se produire de la manière «connue». Pour quelque chose qui sort de l'ordinaire ou qui a été découvert jusqu'ici, la détection d'anomalie basée sur des règles est inefficace. Dans de tels cas, les systèmes de détection basés sur l'apprentissage automatique non supervisés / semi-supervisés sont les plus appropriés. Ce sont des systèmes cognitifs qui utilisent des algorithmes d'apprentissage automatique conçus pour prédire les anomalies qui surviennent dans des situations inhabituelles.
L'apprentissage non supervisé peut aider à déduire des modèles inhabituels et alerter les opérateurs de l'installation en conséquence. Tout comme le cerveau humain qui essaie de prédire la note suivante dans une mélodie, ces algorithmes d'apprentissage automatique prédisent constamment ce qui risque de se produire ensuite dans le flux de données métriques. En étant suffisamment capable de prédire plusieurs modèles de données à la fois, ils donnent un score de vraisemblance pour chaque prédiction. À l'arrivée de chaque nouveau point de données métriques, les algorithmes d'apprentissage comparent leur prédiction à la nouvelle entrée pour voir si la prédiction est exacte ou non. Le résultat final est un «oui» ou un «non» clair. Vous avez enfin un moyen intelligent de détecter et de prédire des anomalies «inconnues» en utilisant un système cognitif avec une plus grande précision avant que l'incident se produise.
2. Approche descendante traditionnelle vs approche ascendante
Dans l'approche descendante traditionnelle, différentes caractéristiques sont calculées pour chaque capteur. Toutes ces caractéristiques générées par chaque capteur sont ensuite rassemblées pour définir l'espace d'état. La motivation derrière les caractéristiques de génération ici est de capturer différentes caractéristiques de chaque capteur dans différentes étapes de fonctionnement.
Par exemple, quand il y a une tendance à la hausse ou à la baisse dans le signal, le taux de changement devient très utile. De même, quand il y a une périodicité bien définie dans les valeurs d'un capteur spécifique, les caractéristiques du domaine fréquentiel seraient très utiles. Alors que chaque entité générée serait utile, leur utilité est généralement locale à un signal avec une caractéristique spécifique. Il peut ne pas être aussi utile dans un paramètre global une fois que le signal cesse d'afficher ces caractéristiques. Ainsi, lorsqu'un capteur particulier sort de la phase où il suit une tendance positive ou négative, les caractéristiques du taux de variation sont généralement proches de zéro.
De plus, tous les capteurs pourraient ne pas présenter les mêmes caractéristiques. Cela rend certaines fonctionnalités générées moins utiles pour ce capteur particulier. Mais comme les fonctions d'ingénierie sont appliquées à l'ensemble des données, ces calculs de caractéristiques entraînent une augmentation de la dimension de l'espace d'état. Cette parcimonie d'information augmentera généralement avec l'augmentation du nombre de capteurs et chaque capteur passera par différentes étapes de fonctionnement.
Cependant, dans l'approche ascendante, l'espace d'état de la machine est développé en reconnaissant que chaque capteur est un mappage une partie du processus dynamique générant les données. De plus, il reconnaît que les capteurs peuvent passer par différentes étapes lorsque le processus / l'environnement / la configuration de la machine changent.
Avant de définir l'espace d'état de la machine, les capteurs sont interrompus dans leurs étapes respectives. Par conséquent, il ne repose pas sur l'ingénierie des caractéristiques pour coder implicitement les informations provenant des différentes étapes des opérations.
Cela tient également compte du fait que les anomalies ne peuvent apparaître que dans un sous-groupe spécifique de capteurs. Cela peut être difficile à détecter dans l'espace d'état de la machine, en particulier lorsqu'un grand nombre de capteurs sont présents. En même temps, les anomalies au niveau de la machine résultant de l'interaction entre les capteurs seront difficiles à détecter au niveau du capteur individuel.
Ainsi, des anomalies sont détectées dans chaque étage de chaque capteur puis de nouveau dans l'espace des machines. L'approche peut également identifier des anomalies basées sur des séquences où différentes étapes d'aspect normal peuvent apparaître à partir de séquences connues à la fois au niveau du capteur et de la machine.
3. Approche manuelle vs cognitive
Une approche manuelle de la détection des anomalies permet de détecter les valeurs aberrantes ou les valeurs extrêmes qui provoquent des anomalies. Il s'appuie simplement sur des exemples de données pour former et construire des modèles d'apprentissage automatique. Cependant, puisque les anomalies sont des événements rares, le prélèvement des échantillons de données peut ne pas contenir tous les échecs ou signaux.
Le plus gros défaut est qu'il est de nature réactive et que les anomalies passées ne sont pas toujours révélatrices de problèmes futurs. En outre, il tente d'adapter un modèle de modèle comportemental unique pour l'ensemble des séries temporelles de données. Il en résulte la construction d'un modèle prédictif unique pour toutes les entités.
Puisque chaque entité comprend plusieurs étapes, elles ne peuvent pas être expliquées par un seul modèle. Chaque entité est différente dans le monde réel en raison des influences environnementales, de sorte qu'un modèle unique ne peut pas apprendre et prédire pour tous.
En outre, même les valeurs normales qui sont hors séquence sont des anomalies et peuvent être critiques. Par conséquent, identifier les anomalies n'est pas utile, mais il est nécessaire d'attribuer des résultats basés sur l'importance.
Une approche cognitive de la détection et prédiction des anomalies applique une approche fondée sur la machine. Il crée un mécanisme dans lequel les algorithmes apprennent le domaine à partir des données et de la rétroaction des experts en la matière. Le processus commence par créer des signatures de données uniques pour identifier des entités similaires et différentes. Il extrait ensuite les modèles de données pour apprendre et modéliser les états normaux, puis identifier les états anormaux. Ceux-ci deviennent les "anti-patterns" pour chaque atout.
Ensuite, il forme un ensemble de modèles à partir de nombreuses entités similaires. Il s'exécute et apprend de multiples expériences de science des données. Enfin, il applique l'ensemble des modèles pour prédire les résultats pour chaque entité. En apprenant des méta-données, il améliore continuellement les modèles. Ces résultats sont finalement validés avec des experts en la matière.
Vous obtenez finalement un système d'apprentissage automatique entièrement automatisé et cognitif, où les anomalies sont détectées et prédites avant qu'elles ne surviennent. Tout cela avec une intervention manuelle minimale
Choisir la meilleure approche – Guide pratique
et prenez une décision éclairée.
Source link