L'Edge Computing est en plein essor à l'ère du cloud

Récemment, un espoir croissant est attaché à l'informatique de pointe. L'industrie bourdonne d'idées audacieuses telles que "la périphérie dévorera le cloud" et l'automatisation en temps réel se répandra dans les soins de santé, la vente au détail et la fabrication.
Les experts conviennent queinformatique de pointe jouera un rôle clé dans la transformation numérique de presque toutes les entreprises. Mais les progrès ont été lents. La perception de l'héritage a empêché les entreprises de tirer pleinement parti de l'avantage pour la prise de décision en temps réel et l'allocation des ressources. Pour comprendre comment et pourquoi cela se produit, revenons sur la première vague d'informatique de pointe et sur ce qui s'est passé depuis.
La première vague d'informatique de pointe : l'Internet des objets (IoT)
Pour la plupart des industries, l'idée de périphérie a été étroitement associée à la première vague de l'Internet des objets (IoT). À l'époque, une grande partie de l'attention était centrée sur la collecte de données à partir de petits capteurs fixés à tout, puis sur le transport de ces données vers un emplacement central, comme le cloud ou le centre de données principal.
Ces flux de données devaient ensuite être corrélés à ce qu'il est convenu d'appelercapteur-fusion . À l'époque, les économies de capteurs, la durée de vie de la batterie et l'omniprésence entraînaient souvent des flux de données trop limités et d'une faible fidélité. De plus, la modernisation des équipements existants avec des capteurs était souvent d'un coût prohibitif. Alors que les capteurs eux-mêmes étaient peu coûteux, l'installation prenait du temps et nécessitait du personnel qualifié. Enfin, l'expertise nécessaire pour analyser les données à l'aide de la fusion de capteurs a été intégrée dans la base de connaissances de la main-d'œuvre dans toutes les organisations. Cela a entraîné un ralentissement des taux d'adoption de l'IoT.
De plus, les problèmes de sécurité ont refroidi l'adoption massive de l'IoT. Le calcul est aussi simple que cela : des milliers d'appareils connectés répartis sur plusieurs sites équivalent à une exposition importante et souvent inconnue. Comme le risque potentiel l'emportait sur les avantages non prouvés, beaucoup ont estimé qu'il était prudent d'adopter une attitude attentiste.
Aller au-delà de l'IoT 1.0
Il devient maintenant clair que la périphérie concerne moins un IoT et plus une prise de décisions en temps réel dans toutes les opérations avec des sites et des zones géographiques distribués. En informatique et de plus en plus dans les environnements industriels, nous appelons ces sources de données distribuéesle bord . Nous nous référons à la prise de décision à partir de tous ces emplacements en dehors du centre de données ou du cloud commeinformatique de pointe.
lele bord est partout où nous sommes — partout où nous vivons, partout où nous travaillons, partout où se déroule l'activité humaine. La couverture clairsemée des capteurs a été résolue avec des capteurs plus récents et plus flexibles. Les nouveaux actifs et technologies s'accompagnent d'un large éventail de capteurs intégrés. Et maintenant, les capteurs sont souvent complétés par une imagerie haute résolution/haute fidélité (équipement à rayons X, lidar).
La combinaison de données de capteur supplémentaires, de technologie d'imagerie et de la nécessité de corréler tout cela génère des mégaoctets et des mégaoctets de données par seconde. Pour générer des résultats à partir de ces vastes flux de données, la puissance de calcul est désormais déployée à proximité de l'endroit où les données sont générées.
La raison est simple : il n'y a tout simplement pas assez de bande passante et de temps disponible entre l'emplacement périphérique et le cloud. Les données à la périphérie importent le plus à court terme. Au lieu d'être traitées et analysées ultérieurement dans le cloud, les données peuvent désormais être analysées et utilisées en périphérie en temps réel. Pour atteindre le prochain niveau d'efficacité et d'excellence opérationnelle, l'informatique doit avoir lieu à la périphérie.
Cela ne veut pas dire que le cloud n'a pas d'importance. Le cloud a toujours un rôle à jouer dans l'informatique de périphérie, car c'est un endroit idéal pour déployer des capacités à la périphérie et pour la gestion sur tous les sites. Par exemple, le cloud permet d'accéder aux applications et aux données d'autres emplacements, ainsi qu'à des experts distants pour gérer les systèmes, les données et les applications à travers le monde. En outre, le cloud peut être utilisé pour analyser de grands ensembles de données couvrant plusieurs emplacements, afficher des tendances dans le temps et générer des modèles d'analyse prédictive.
Ainsi, la périphérie consiste à donner un sens aux flux de données volumineux sur un grand nombre d'emplacements géo-dispersés. Il faut adopter cette nouvelle perception de la périphérie pour vraiment comprendre ce qui est désormais possible avec l'informatique de pointe.
Aujourd'hui : analyses de périphérie en temps réel
Ce qui peut être fait à la périphérie aujourd'hui est stupéfiant par rapport à il y a quelques années. Au lieu que la périphérie soit limitée à quelques capteurs, les données peuvent désormais être générées à partir dede grandes quantités de capteurs et de caméras . Ces données sont ensuite analysées à la périphérie avec des ordinateurs qui sont des milliers de fois plus puissants qu'ils ne l'étaient il y a à peine deux décennies, le tout à des coûts raisonnables.
Des processeurs et des GPU à nombre élevé de cœurs, ainsi qu'un réseau à haut débit et des caméras haute résolution sont désormais facilement disponibles, permettant à l'analyse de périphérie en temps réel de devenir réalité. Déploiement d'analyses en temps réel à la périphérie (là où l'activité commerciale a lieu)aide les entreprises à comprendre leurs opérations et à réagir immédiatement . Grâce à ces connaissances, de nombreuses opérations peuvent être davantage automatisées, augmentant ainsi la productivité et réduisant les pertes.
Prenons quelques exemples d'analyses de périphérie en temps réel d'aujourd'hui :
- Prévention de la fraude dans les supermarchés
De nombreux supermarchés utilisent désormais une sorte de caisse automatique et, malheureusement, ils constatent également une augmentation de la fraude. Un acheteur infâme peut substituer un code-barres moins cher à un produit plus cher, payant ainsi moins cher. Pour détecter ce type de fraude, les magasins utilisent désormais des caméras puissantes qui comparent les produits scannés et leur poids à ce qu'ils sont censés être. Ces caméras sont relativement peu coûteuses, mais elles génèrent une énorme quantité de données. En déplaçant l'informatique vers la périphérie, les données peuvent être analysées instantanément. Cela signifie que les magasins peuvent détecter la fraude en temps réel plutôt qu'après que le « client » ait quitté le parking.
- Suivi de la production alimentaire
Aujourd'hui, une usine de fabrication peut être équipée de dizaines de caméras et de capteurs à chaque étape du processus de fabrication. L'analyse en temps réel et l'inférence basée sur l'IA peuvent révéler en quelques millisecondes, voire microsecondes, si quelque chose ne va pas ou si le processus dérive. Peut-être qu'un appareil photo révèle que trop de sucre est ajouté ou que trop de garnitures recouvrent un article. Grâce aux caméras et à l'analyse en temps réel, les chaînes de production peuvent être réglées pour arrêter la dérive, voire arrêtées si des réparations sont nécessaires, sans causer de pertes catastrophiques.
- Informatique de pointe pilotée par l'IA pour les soins de santé
Dans le domaine de la santé, les caméras infrarouges et à rayons X ont changé la donne car elles offrent une haute résolution et fournissent rapidement des images aux techniciens et aux médecins. Avec une résolution aussi élevée, l'IA peut désormais filtrer, évaluer et diagnostiquer les anomalies avant de consulter un médecin pour confirmation. En déployant l'informatique de périphérie pilotée par l'IA, les médecins gagnent du temps car ils n'ont pas à compter sur l'envoi de données vers le cloud pour obtenir un diagnostic. Ainsi, un oncologue cherchant à voir si un patient a un cancer du poumon peut appliquer des filtres d'IA en temps réel à l'image des poumons du patient pour obtenir un diagnostic rapide et précis et réduire considérablement l'anxiété d'un patient qui attend une réponse.
- Véhicules autonomes propulsés par l'analytique
Les véhicules autonomes sont aujourd'hui possibles car des caméras relativement peu coûteuses et disponibles offrent une vision stéréoscopique à 360 degrés. L'analyse permet également une reconnaissance d'image précise, de sorte que l'ordinateur peut déchiffrer la différence entre un tumbleweed et le chat du voisin – et décider s'il est temps de freiner ou de contourner l'obstacle pour assurer la sécurité. L'abordabilité, la disponibilité et la miniaturisation des GPU et CPU haute puissance permettent la reconnaissance de formes en temps réel et la planification vectorielle qui est l'intelligence de conduite des véhicules autonomes. Pour que les véhicules autonomes réussissent, ils doivent disposer de suffisamment de données et de puissance de traitement pour prendre des décisions intelligentes suffisamment rapidement pour appliquer des mesures correctives. Cela n'est désormais possible qu'avec la technologie de pointe d'aujourd'hui.
L'architecture distribuée en pratique
Lorsqu'une informatique extrêmement puissante est déployée à la périphérie, les entreprises peuvent mieux optimiser leurs opérations sans se soucier des retards ou de la perte de connectivité au cloud.Tout est maintenant réparti sur les emplacements périphériquesles problèmes sont donc résolus en temps réel et avec une connectivité sporadique.
Nous avons parcouru un long chemin depuis la première vague de technologies de pointe. Les entreprises adoptent désormais une vision plus globale de leurs opérations en raison des avancées technologiques à la périphérie. La technologie de pointe d'aujourd'hui n'aide pas seulement les entreprises à augmenter leurs bénéfices, mais en fait, elle les aide à réduire les risques et à améliorer les produits, les services et les expériences des personnes qui interagissent avec elles.
Pour en savoir plus sur la façon dont les données peuvent être analysées et utilisées en périphérie en temps réel, consultez le site Web,Intelligent Edge : solutions informatiques Edge pour les opérations axées sur les données . Pour comprendre ce qui se passe à la périphérie, au cœur et entre les deux, lisezce blog sur la façon dont HPE Ezmeral Data Fabric fournit une infrastructure de données modernequi permet une prise de décision basée sur les données à la périphérie.
____________________________________
À propos d'Al Madden

Al Madden est impliqué dans tout ce qui concerne Edge. Diplômé en chimie et en marketing, il s'est engagé à trouver les meilleures façons de mettre la technologie au travail. Que ce soit dans la surveillance de l'environnement, la distribution d'énergie, les semi-conducteurs ou l'informatique, Al se concentre désormais principalement sur la fabrication de technologies consommables, compréhensibles et utilisables grâce à une stratégie de marketing et de contenu.
À propos de Denis Vilfort

Denis Vilfort est directeur de PAN-HPE Marketing. Un penseur stratégique avec une combinaison unique d'expérience en vente/marketing et une compréhension approfondie de la technologie, Denis se concentre sur l'aide aux clients pour résoudre les défis technologiques. C'est un leader d'opinion qui non seulement sort des sentiers battus, Denis aide à en définir de nouveaux en posant de meilleures questions.
Source link