Quelles charges de travail appartiennent sur site dans le cadre de l’informatique hybride

Les entreprises qui s’orientent vers une modernisation axée sur les données doivent déterminer la stratégie multicloud optimale, en commençant par quelles applications et données sont les mieux adaptées pour migrer vers le cloud et ce qui doit rester au cœur et à la périphérie.
Une approche hybride est clairement établie comme le modèle de fonctionnement optimal de choix. UN Ramenez les flex ont constaté que le passage à l’infrastructure hybride était soutenu par un nombre écrasant de répondants à l’enquête, 89 % d’entre eux optant pour une stratégie multicloud et 80 % adoptant une approche hybride qui combine l’utilisation de clouds publics et privés.
Le passage à l’informatique hybride présente des avantages évidents, permettant aux organisations de choisir la bonne solution pour chaque tâche et charge de travail, en fonction de critères tels que les performances, la sécurité, la conformité et le coût, entre autres facteurs. Le défi est que les DSI doivent appliquer un processus rigoureux et une évaluation holistique pour déterminer la stratégie optimale de modernisation des données, étant donné qu’il n’y a pas de réponse unique.
De nombreuses organisations se sont lancées dans le parcours de modernisation guidées par le principe que le cloud d’abord ou le cloud uniquement est la destination ultime, pour constater que le chemin n’est pas approprié pour toutes les données et charges de travail. « Les DSI directionnellement corrects et la suite C ont examiné le cloud public et ont aimé le modèle d’exploitation : le paiement à l’utilisation, les services prédéfinis, l’automatisation et l’orchestration, ainsi que l’écosystème de partenaires, tous à votre disposition », déclare Rocco Lavista. , vice-président mondial des ventes et de la mise sur le marché de HPE GreenLake. « Beaucoup ont essayé de déplacer l’ensemble de leur domaine vers le cloud public, et ce qu’ils ont découvert, c’est que cela ne fonctionne pas pour tout. Il s’agit moins de savoir quelles applications et quelles données doivent aller sur le cloud public et plus d’un continuum de la périphérie au cœur [in colocated or private data centers] au cloud public.
Près du bord
Il existe plusieurs raisons pour lesquelles certaines données et charges de travail doivent rester à la périphérie, par opposition à la transition vers le cloud public. La gravité des données est peut-être l’arbitre le plus important de l’endroit où déployer les charges de travail, en particulier lorsqu’il est nécessaire d’analyser rapidement des quantités massives de données – par exemple, avec des appareils à rayons X ou d’IRM dans un environnement hospitalier, pour les données d’assurance qualité d’une fabrication ligne, et même avec des données collectées sur les systèmes de point de vente dans un environnement de vente au détail.
Les projets d’intelligence artificielle (IA) sont un autre exemple utile. « Là où j’ai vu des projets d’IA échouer, c’est en essayant d’apporter les quantités massives de données d’où elles ont été créées au modèle de formation [in some public cloud] et obtenir des informations en temps opportun, au lieu de prendre le modèle et de le rapprocher de l’endroit où les données sont créées », explique Lavista. « Ici, il existe un besoin synergique entre ce qui se passe à la périphérie et la puissance de traitement requise en temps réel pour faciliter vos objectifs commerciaux. »
L’enchevêtrement des applications présente un autre obstacle empêchant les organisations de migrer certaines applications et données vers le cloud. Certaines applications héritées ont été conçues d’une manière qui ne permet pas de migrer facilement des éléments de fonctionnalité et de données vers le cloud ; dans d’autres cas, il est hors de question de procéder à une migration massive, pour des raisons liées au coût et à la complexité. Il existe également des charges de travail qui n’ont pas de sens économique à refactoriser d’un fonctionnement dans un environnement fixe à une architecture basée sur des coûts variables et d’autres avec des obligations réglementaires ou sectorielles spécifiques liées à la souveraineté ou à la confidentialité des données qui empêchent une stratégie de migration holistique en faveur du public. nuage.
L’avantage HPE GreenLake
Compte tenu de l’importance de la périphérie dans la stratégie de modernisation des données, HPE cherche à lever toute incertitude quant à l’endroit où déployer les applications et les données. La plate-forme HPE GreenLake edge-to-cloud offre le modèle d’exploitation et l’expérience de plate-forme souhaités basés sur le cloud, mais avec des pratiques de gouvernance des données cohérentes et sécurisées, en commençant par la périphérie et jusqu’au cloud public. Cela peut être appliqué dans n’importe quel secteur, comme la vente au détail, la banque, la fabrication ou la santé, et quel que soit l’endroit où réside la charge de travail.
HPE GreenLake avec l’offre de services gérés inclut tous les clouds publics, garantissant une expérience cohérente, que les données et les applications soient déployées sur AWS, Microsoft Azure ou Google Cloud Platform dans le cadre d’un mix hybride qui englobe le cloud de concert avec l’infrastructure sur site dans un centre de données interne ou une installation de colocation.
« Les équipes informatiques veulent une solution unifiée qu’elles peuvent utiliser pour gérer tous les besoins technologiques, de l’infrastructure en tant que service (IaaS) à la plate-forme en tant que service (PaaS) et au conteneur en tant que service (CaaS), qui pilotent l’automatisation et l’orchestration qui ne sont pas des flocons de neige. », explique Lavista. « HPE GreenLake fournit ce modèle d’exploitation standard de la périphérie au cœur et jusqu’au cloud public. »
En s’alignant sur les solutions HPE GreenLake, les organisations informatiques se libèrent également des opérations quotidiennes d’exécution de l’infrastructure pour se concentrer sur la fourniture de fonctionnalités essentielles aux utilisateurs professionnels ainsi qu’aux équipes DevOps. L’équipe HPE GreenLake travaille avec les organisations pour déterminer quelles charges de travail sont les mieux adaptées au cloud ou à la périphérie, en évaluant divers facteurs, notamment la complexité technique, les dépendances du système, les exigences de l’accord de niveau de service (SLA) et les demandes de latence. Par exemple, un système de contrôle qualité sur une chaîne de fabrication pourrait être mieux adapté à une solution de pointe, en raison de la nécessité d’analyser les données en volume et en temps quasi réel. Mais une application d’IA qui pourrait bénéficier d’un service de reconnaissance faciale pourrait être mieux servie par le cloud public pour un tel service, étant donné le vaste écosystème de services tiers disponibles qui éliminent le besoin de recréer la roue pour chaque innovation.
Pour garantir des performances optimales, Lavista conseille aux entreprises de bien comprendre leurs principaux objectifs commerciaux et d’être pragmatiques quant à leurs objectifs de migration vers le cloud afin d’éviter le piège du déplacement des données et des charges de travail simplement parce qu’il s’agit de la dernière tendance technologique. « Comprenez vos options en fonction d’où vous venez », dit-il. « Si ce que vous recherchez est d’optimiser le modèle d’exploitation informatique, vous pouvez toujours l’obtenir sans déplacer les applications et les données. »
Pour plus d’informations, visitez https://www.hpe.com/us/en/greenlake/services.html.
Source link