Examen des solutions IoT industrielles – Partie I

Introduction
Edge computing et plus généralement l’essor de Industrie 4.0 offre une valeur considérable pour votre entreprise. Avoir la bonne stratégie de données est essentiel pour accéder aux bonnes informations au bon moment et au bon endroit. Le traitement des données sur site vous permet de réagir aux événements en temps quasi réel et la propagation de ces données à chaque partie de votre organisation ouvrira un tout nouveau monde de capacités et stimulera l’innovation.
Aujourd’hui, nous voulons que la périphérie soit une extension du cloud, nous recherchons la cohérence entre les environnements et les conteneurs sont au centre de cette révolution. Il faudrait beaucoup trop de temps pour faire un examen complet de toutes les solutions disponibles, donc dans cette première partie, je vais me concentrer uniquement sur AWS, Azure – en tant que principaux fournisseurs de cloud – ainsi que sur les approches de cloud hybride utilisant Kubernetes.
Vue d’ensemble de la solution
- Les événements sont émis par les appareils IoT via OPC-UA ou MQTT vers un courtier local
- Une partie des données brutes est consommée directement pour un traitement en temps réel (détection d’anomalies, tableaux de bord RT, etc)
- Une partie des données est (sélectivement) copiée sur un courtier de messages pour les services événementiels, l’analyse en continu
- Les messages sont également (sélectivement) transférés vers le cloud à des fins d’analyse et d’intégration globale
- La configuration peut également être repoussée vers les sites après analyse
Flux de données
Collecte de données
AWS
AWS IoT Sitewise Edge fournit une passerelle MQTT et offre une prise en charge prête à l’emploi pour la transformation OPC-UA vers MQTT. AWS Sitewise Edge est idéal pour surveiller les appareils sur place et exécuter/visualiser des analyses simples. La passerelle Sitewise Edge copie ensuite les données dans le cloud où elles peuvent être traitées par AWS IoT Core et reliées à d’autres systèmes. Les systèmes en aval peuvent être des services AWS IoT, d’autres services AWS comme Kinesis, S3, Quicksight, etc. ou des produits non AWS comme Kafka, Spark, EMR, Elasticsearch, etc. Sitewise Edge est un produit logiciel qui peut être déployé sur l’avant-poste AWS dont nous parlerons plus tard, ou sur une infrastructure existante, un environnement bare-metal ou virtualisé.

Périphérie AWS Sitewise – Source : AWS
Azur
Autogéré
Vous pouvez également exécuter votre propre courtier OPC-UA & MQTT à la périphérie, dans l’une des options de calcul dont nous parlerons ci-dessous, mais vous serez responsable du transfert de ces données vers le cloud. Red Hat AMQ, Moustique Eclipse, HiveMQ sont des courtiers MQTT courants avec divers degrés de sophistication. Red Hat Fuse, qui fait partie de la Suite d’intégration Red Hatpeut également être utilisé pour configurer un serveur OPC-UA si vous n’utilisez pas déjà une solution prête à l’emploi comme Ignition d’Inductive Automation.
C’est une excellente option si vous ne faites que commencer et que vous souhaitez créer rapidement un prototype, car ils ont tous des versions d’essai et/ou sont tout simplement des solutions open source gratuites. HiveMQ et Mosquitto sont du MQTT pur, tandis que l’implémentation MQTT de Red Hat Integration est plus brute, mais offre une gamme beaucoup plus large de fonctionnalités au-delà de MQTT. Vous ne pouvez pas vous tromper avec cette option, elle évoluera très bien, vous aurez beaucoup plus de flexibilité, pas de verrouillage du fournisseur, mais il y a un assemblage requis.

Pile MQTT/Kafka autogérée – Source : Chapeau rouge
Données en continu
Si vous utilisez votre propre courtier MQTT, vous pouvez utiliser la réplication MQTT vers le cloud dans certains cas (Mosquitto Mirroring, HiveMQ Replication), mais une meilleure option consiste à utiliser Kafka et à tirer parti de la fonctionnalité de mise en miroir.
Les implémentations de Kafka sont nombreuses, RedHat AMQ Streams, qui fait partie de la suite d’intégration RedHat, Strimzi pour Kubernetes et Confluent Kafka sont les fournisseurs les plus reconnus. Ni AWS ni Azure n’ont géré les produits Kafka à la périphérie, mais ont d’autres moyens – natifs – d’exécuter des analyses (Kinesis, Event Hub, etc.), mais nous en reparlerons plus tard.
Options de calcul
AWS
Sitewise Edge peut être déployé directement sur les serveurs Outpost en tant que solution clé en main pour l’analyse de base sur site. Vous pouvez le coupler avec Wavelength pour les sites sans connexion Internet existante, passant par les réseaux 5G.
AWS Snowball Edge est une autre option matérielle plus adaptée aux environnements difficiles, aux sites distants sans connexion lorsque vous souhaitez traiter les données localement et éventuellement déplacer les données physiquement dans le cloud (et je veux dire physiquement, comme en renvoyant l’appareil à AWS afin qu’ils peut copier le stockage)
Outpost peut exécuter localement des services AWS tels que S3, ECS, EKS, RDS, Elasticache, EMR, volumes EBS, etc.
Vous pouvez également exécuter AWS IoT Greengrass sur les deux appareils et l’utiliser pour exécuter les fonctions Lambda et Kinesis Firehose.
Voici un article intéressant sur l’exécution de Confluent Kafka sur les appareils Snowball : https://www.confluent.io/blog/deploy-kafka-on-edge-with-confluent-on-aws-snowball/
Azur
Bord de la pile est l’homologue Azure d’AWS Outpost, avec la mini-série pour des cas d’utilisation similaires à AWS Snowball. Encore une fois, ici, une intégration transparente avec votre cloud Azure existant. Azure Stack Hub peut exécuter les services Azure localement, en créant essentiellement une région Azure sur votre site.
Périphérie IdO est le runtime, similaire à AWS Greengrass, avec des fonctionnalités spécifiques à l’IoT. Les services Azure comme Azure Functions, Azure Stream Analytics et Azure Machine Learning peuvent tous être exécutés localement via Azure IoT Edge.
Kubernetes (sur bare-metal ou vms)
Pour Kubernetes, Red Hat Openshift est une excellente option. La suite de produits Red Hat contient à peu près tout ce dont vous avez besoin pour créer une solution de pointe solide en quelques clics, via OperatorHub. L’intégration de Red Hat fournit MQTT, Kafka, des runtimes pour vos microservices de traitement de messages et Plateforme de données ouvertes pour IA/ML. Red Hat a publié un plan pour l’avantage industriel pour vous aider à démarrer : https://redhat-gitops-patterns.io/industrial-edge/

Edge IIoT sur Kubernetes
Les 3 options ont la capacité d’exécuter Kubernetes à la périphérie : AWS EKS, Azure AKS ou Kubernetes ordinaire (que je ne recommande pas) ou Openshift (le meilleur). Un grand avantage d’utiliser Openshift est l’expérience et les processus cohérents dans tous les environnements, y compris le multi-cloud. GitOps est un moyen très simple et puissant de gérer un grand nombre de clusters à grande échelle et Red Hat Advanced Cluster Manager peut être utilisé pour améliorer encore cette expérience.
Tenez compte de la complexité de la synchronisation des sites lors de l’utilisation des services natifs AWS ou Azure à la périphérie, en termes de déploiement d’applications, de changements d’architecture, etc. À l’échelle. ARM et Cloudformation sont disponibles en périphérie, mais vous ne pourrez probablement pas réutiliser votre processus CI/CD existant. Ce n’est pas le cas pour Kubernetes, les clusters edge et cloud sont traités exactement de la même manière grâce à GitOps.
Si vous optez pour Openshift, l’intégration au cloud n’est pas transparente. AWS ROSA et Azure ARO ne sont actuellement pas pris en charge sur Outpost et Stack Edge, vous êtes donc responsable de la configuration du cluster, de la sécurisation de la connexion au cloud (VPN) et de la réplication des données (Kafka Mirroring) sur le cloud… donc, comme toujours , les compromis doivent être soigneusement étudiés.
Conclusion
Les options ne manquent pas lorsqu’il s’agit de mettre en œuvre des solutions de pointe. Tous les principaux fournisseurs de cloud couvrent la plupart des besoins standard, des pipelines de données de bout en bout avec des services natifs, même des racks de serveurs préconfigurés que vous pouvez simplement insérer dans votre infrastructure existante. Ceux-ci vous permettent d’étendre facilement votre architecture cloud existante dans des emplacements physiques. Vous pouvez également apporter votre propre matériel et logiciel. Intégration Red Hat exécutée sur Openshift, ou la version récente Microshift s’exécuter sur Linux optimisé en périphérie est une solution très puissante et rentable. Il n’y a pas de bon ou de mauvais choix ici, il vous suffit de prendre en compte l’effort, le coût et le délai et de trouver la solution avec le meilleur retour sur investissement.
Restez à l’écoute pour la prochaine partie de cette série dans laquelle nous allons parcourir la démo Red Hat IIoT et voir ce que nous pouvons encore construire sur cette base.
Source link