Exploiter les avantages de l’hyperconvergence cloud native

La progression logique de la virtualisation des serveurs et du stockage dans les VSAN était l’hyperconvergence. En faisant abstraction des trois éléments que sont le stockage, le calcul et la mise en réseau, les centres de données se sont vu promettre un contrôle illimité de l’infrastructure. Cet idéal promis correspondait aux objectifs des opérateurs hyperscale qui devaient se développer pour répondre à une demande accrue et qui devaient moderniser leur infrastructure pour rester agiles. L’infrastructure hyperconvergée (HCI) offrait élasticité et évolutivité en fonction de l’utilisation pour plusieurs clients, chacun pouvant déployer plusieurs applications et services.
Il y a des mises en garde claires dans le monde HCI : un contrôle illimité est très bien, mais des détails d’infrastructure comme le manque de stockage local et un matériel réseau lent limitant les E/S définiraient toujours les limites strictes de ce qui est possible. De plus, certaines restrictions imposées par les fournisseurs HCI limitent la saveur de l’hyperviseur ou limitent les choix de matériel aux kits approuvés. Les inquiétudes concernant le verrouillage des fournisseurs entourent également la nature de boîte noire des appliances HCI-in-a-box.
L’éléphant dans la pièce pour les infrastructures hyperconvergées est indubitablement le cloud. C’est un peu un cliché dans le paysage technologique de mentionner la vitesse à laquelle la technologie se développe, mais les technologies natives du cloud comme Kubernetes montrent leurs capacités et leur potentiel futur dans le cloud, le centre de données et à la périphérie. Le concept de HCI a été présenté avant tout comme une technologie de centre de données. C’était clairement la seule compétence, à l’époque, de la très grande organisation avec ses propres installations. Ces installations sont en fait des boucles fermées avec des limites créées par les ressources physiques.
Aujourd’hui, les installations cloud sont disponibles auprès des hyperscalers à des prix attractifs pour un marché beaucoup plus large. Il est prévu que le marché des solutions HCI connaîtra une croissance significative au cours des prochaines années, avec une croissance d’un peu moins de 30 % d’une année sur l’autre. Les fournisseurs vendent des appliances (plus) bon marché et des niveaux de licence inférieurs pour essayer d’éponger le marché intermédiaire, et les technologies d’hyperconvergence commencent à fonctionner avec des topologies hybrides et multi-cloud. Cette dernière tendance est induite par la demande. Après tout, si une équipe informatique souhaite consolider sa pile pour plus d’efficacité et une gestion facile, toute consolidation doit être globale et inclure du matériel local, des conteneurs, plusieurs clouds et des installations en périphérie. Cette capacité implique également une élasticité inhérente et, par procuration, un degré de pérennité intégré.
Les technologies cloud natives autour des conteneurs sont bien au-delà du statut flash-in-the-pan. La CNCF (Fondation Cloud Native Computing) Enquête annuelle pour 2021 montre que les conteneurs et Kubernetes sont devenus courants. 96 % des organisations utilisent ou évaluent Kubernetes. De plus, 93 % des répondants utilisent actuellement ou prévoient d’utiliser des conteneurs en production. Portables, évolutifs et indépendants de la plate-forme, les conteneurs sont la prochaine évolution naturelle de la virtualisation. Les flux de travail CI/CD se produisent, de plus en plus, avec des microservices en leur cœur.
Alors, qu’en est-il de l’hyperconvergence dans ces environnements informatiques en constante évolution ? Comment les solutions HCI peuvent-elles gérer les charges de travail natives du cloud modernes aux côtés de machines virtuelles (VM) complètes sur une infrastructure distribuée. Cela peut être fait avec l’hyperconvergence « traditionnelle », mais la solution sera propriétaire et entraînera des coûts élevés.
L’année dernière, SUSE a lancé Moissonneuse, une solution d’infrastructure hyperconvergée moderne, open source et 100 % gratuite, construite sur une base de solutions cloud natives, notamment Kubernetes, Longhorn et Kubevirt. Construit sur Kubernetes, Harvester comble le fossé entre le logiciel HCI traditionnel et l’écosystème cloud natif moderne. Il unifie vos machines virtuelles avec des charges de travail natives du cloud et fournit aux organisations un point unique de création, de surveillance et de contrôle de l’ensemble d’une pile de réseau de calcul, de stockage et de stockage. Étant donné que les conteneurs peuvent s’exécuter n’importe où, des cartes SOC ARM aux clusters de supercalcul, Harvester est parfait pour les organisations dont les charges de travail sont réparties sur des centres de données, des clouds publics et des emplacements périphériques. Son faible encombrement en fait un ajustement parfait pour les scénarios de bord et lorsque vous le combinez avec Éleveur SUSEvous pouvez gérer de manière centralisée toutes vos charges de travail de VM et de conteneurs sur tous vos emplacements périphériques.
Les machines virtuelles, les conteneurs et HCI sont des technologies essentielles pour étendre le service informatique à de nouveaux sites. Harvester représente la façon dont les organisations peuvent les unifier et déployer HCI sans solutions fermées propriétaires, en utilisant un logiciel open source de niveau entreprise qui s’intègre directement dans un pipeline CI/CD moderne natif du cloud.
Pour en savoir plus sur Harvester, nous vous avons fourni le rapport complet ici.

SUSE
Vishal Ghariwala est le directeur de la technologie pour les régions APJ et Grande Chine pour SUSE, un leader mondial des véritables solutions open source. À ce titre, il s’engage auprès des dirigeants des clients et des partenaires de la région et est responsable de la croissance de la notoriété de SUSE en étant la voix technique exécutive du marché, de la presse et des analystes. Il a également une charte mondiale avec le bureau SUSE du CTO pour évaluer les tendances pertinentes de l’industrie, du marché et de la technologie et identifier les opportunités alignées sur la stratégie de l’entreprise.
Avant de rejoindre SUSE, Vishal était directeur des applications cloud natives chez Red Hat, où il dirigeait une équipe de technologues seniors chargés de stimuler la croissance et l’adoption des portefeuilles Red Hat OpenShift, API Management, Integration et Business Automation dans la région Asie-Pacifique. .
Vishal a plus de 20 ans d’expérience dans l’industrie du logiciel et est titulaire d’un baccalauréat en génie électrique et électronique de l’Université technologique de Nanyang à Singapour.
Vishal est ici sur LinkedIn : https://www.linkedin.com/in/vishalghariwala/
Source link