Créer des architectures cloud résilientes à l’aide de l’équilibrage de charge GCP
Introduction
Dans le monde numérique d’aujourd’hui, maintenir la disponibilité et les performances des applications est crucial. À mesure que la demande des utilisateurs augmente, une gestion efficace du trafic évite les temps d’arrêt et garantit une expérience fluide. Les équilibreurs de charge sont essentiels pour répartir le trafic entre les serveurs et maintenir la réactivité des applications. Google Cloud Platform (GCP) propose diverses solutions d’équilibrage de charge adaptées aux besoins de trafic internes, mondiaux ou spécifiques. Ce blog explore les options d’équilibrage de charge de GCP, offrant des conseils sur le moment de les utiliser et sur la manière de les configurer pour garantir la fiabilité du fonctionnement de vos applications.
Équilibrage de charge dans GCP
Les équilibreurs de charge sont essentiels pour distribuer le trafic réseau sur plusieurs serveurs, garantissant ainsi la haute disponibilité, la fiabilité et l’évolutivité des applications. Différents types d’équilibreurs de charge conçus pour des cas d’utilisation spécifiques sont disponibles dans Google Cloud Platform (GCP).
Les fonctionnalités d’équilibrage de charge suivantes sont fournies par l’équilibrage de charge cloud : –
- Adresse IP anycast unique :- Il utilise une seule adresse IP anycast pour gérer le trafic dans plusieurs régions.
- Prise en charge des couches 4 et 7 : – Gère l’équilibrage de charge de couche 4 (TCP, UDP, etc.) et de couche 7 (HTTP/HTTPS). Cela vous permet d’acheminer le trafic en fonction de protocoles réseau ou de données au niveau des applications telles que les en-têtes HTTP et les URL.
- Équilibrage de charge externe et interne: – Il peut gérer à la fois le trafic Internet à l’aide de l’équilibrage de charge externe et le trafic interne à l’aide de l’équilibrage de charge interne.
- Soutien mondial et régional : – Distribuez le trafic sur plusieurs ou des régions uniques pour améliorer les performances et garantir une haute disponibilité. Cette approche met fin aux connexions à proximité des utilisateurs, réduisant ainsi la latence.
- Interrégional : – Il prend également en charge l’équilibrage de charge entre régions avec basculement automatique, garantissant un service continu en cas de panne des backends principaux. Il s’adapte rapidement aux changements de trafic, à la demande des utilisateurs et à l’état du backend.
Types d’équilibreurs de charge dans GCP : –
Google Cloud propose deux types d’équilibreurs de charge : –
1. Équilibreurs de charge d’application
2. Équilibreurs de charge réseau.
Équilibreur de charge applicative :
Les Application Load Balancers sont des équilibreurs de charge de couche 7 qui agissent comme des proxys pour gérer et faire évoluer vos services derrière une seule adresse IP. Il distribue le trafic HTTP et HTTPS aux backends hébergés sur les plates-formes Google Cloud telles que Compute Engine et Google Kubernetes Engine, ainsi qu’aux backends externes en dehors de Google Cloud.
Les Application Load Balancers peuvent être déployés de deux manières :
- Équilibreurs de charge d’application externe : –
Pour les applications nécessitant un accès à Internet, vous pouvez le déployer en tant qu’équilibreur de charge externe. Ces équilibreurs de charge peuvent être déployés selon différents modes : global, régional ou classique.
Mondial : – Les Global Load Balancers distribuent le trafic aux backends dans plusieurs régions.
Régional : – Il distribue le trafic aux backends au sein d’une seule région.
Classique : – Les équilibreurs de charge d’application classiques sont mondiaux lors de l’utilisation du niveau Premium, mais dans le niveau Standard, ils peuvent être configurés pour fonctionner au niveau régional. - Équilibreurs de charge d’application internes : –
un. Cet équilibreur de charge gère le trafic interne au niveau de l’application (couche 7) et fonctionne comme un proxy.
b. Google Cloud utilise le proxy Envoy sur le backend pour l’équilibrage de charge et la gestion du trafic, en particulier l’équilibreur de charge HTTP(S), ainsi que Google Cloud Endpoints.
c. Il utilise une adresse IP interne, de sorte que seuls les appareils de votre réseau VPC ou ceux qui y sont connectés peuvent accéder à l’équilibreur de charge.
d. Ces équilibreurs de charge peuvent être déployés dans les modes suivants : régional et interrégional.
Régional : – Les équilibreurs de charge d’application internes prennent en charge les backends uniquement dans une seule région.
Inter-région : – Les équilibreurs de charge d’application internes peuvent prendre en charge les backends dans plusieurs régions et sont accessibles dans le monde entier.
Équilibreur de charge réseau :
- Les équilibreurs de charge réseau sont des équilibreurs de charge de couche 4 qui gèrent le trafic TCP, UDP ou tout autre protocole IP.
- Ces équilibreurs de charge sont disponibles sous forme équilibreurs de charge proxy ou équilibreurs de charge relais.
1. Équilibreur de charge réseau proxy : –
- Les équilibreurs de charge réseau proxy fonctionnent au niveau de la couche 4 qui fonctionne comme un proxy inverse qui distribue le trafic TCP aux serveurs backend de VPC ou autre cloud.
- Il est spécifiquement conçu pour gérer le trafic TCP, avec ou sans SSL. Ils peuvent être déployés dans les modes suivants : –
Équilibreur de charge réseau proxy externe : –
1. Il distribue le trafic depuis Internet vers les instances de VM dans un VPC Google Cloud.
2. Agit comme un proxy inverse, gérant le trafic TCP depuis Internet.
3. Prend en charge l’utilisation d’une seule adresse IP pour tous les utilisateurs du monde entier.
4. Peut être déployé en modes global, régional ou classique.
Équilibreur de charge réseau proxy interne : –
1. L’équilibreur de charge réseau proxy interne est un équilibreur de charge de couche 4 qui vous permet de gérer et de faire évoluer le trafic du service TCP derrière une adresse IP interne régionale. Cette adresse IP n’est accessible qu’aux clients du même réseau VPC ou à ceux qui y sont connectés.
2. Il prend en charge les déploiements régionaux et interrégionaux :
Régional : garantit que les clients et les services backend sont situés dans une région spécifiée.
Interrégional : permet l’équilibrage de charge sur les services backend distribués dans le monde entier.
2. Équilibreurs de charge relais : –
- Les équilibreurs de charge réseau Passthrough sont des équilibreurs de charge régionaux de couche 4 qui répartissent le trafic entre les backends dans la même région que l’équilibreur de charge.
- Ces équilibreurs de charge ne sont pas des proxys. Les paquets atteignent les machines virtuelles back-end avec les adresses IP, les protocoles et les ports source et destination d’origine inchangés.
- Les machines virtuelles back-end gèrent directement les connexions et envoient des réponses directement aux clients sans passer par l’équilibreur de charge. Ce processus est connu sous le nom de retour direct au serveur (DSR).
- Il peut être déployé selon deux modes : –
Équilibreurs de charge réseau relais externes : –
- Les équilibreurs de charge réseau de relais externes gèrent le trafic des clients Internet et des VM Google Cloud avec des adresses IP externes, y compris celles utilisant Cloud NAT.
- Il fonctionne avec des backends dans la même région et dans le même projet, mais sur différents VPC.
- Contrairement aux proxys, ils ne mettent pas fin aux connexions mais transmettent les paquets avec les adresses IP, les protocoles et les ports d’origine. Les VM backend gèrent les connexions et répondent directement aux clients.
- Cela peut être Équilibreurs de charge basés sur les services backend et Ciblez les équilibreurs de charge basés sur un pool.
- Équilibreurs de charge basés sur les services backend aider à contrôler la distribution du trafic backend. Il prend en charge IPv4 et IPv6, gère divers protocoles (TCUDP, ESP, GRE, ICMP, ICMPv6) et fonctionne avec les groupes d’instances gérés et non gérés, ainsi qu’avec les groupes de points de terminaison de réseau zonaux (NEG).
- Équilibreurs de charge basés sur un pool cible servir de backend pour l’équilibreur de charge, définissant quelles instances reçoivent le trafic. Chaque règle de transfert fait office de frontal pour l’équilibreur de charge. Il prend en charge uniquement le trafic IPv4 et prend uniquement en charge les protocoles TCP et UDP.
- Un équilibreur de charge réseau relais externe possède un pool cible unique, qui peut être référencé par plusieurs règles de transfert.
Équilibreurs de charge réseau de relais internes : –
- Il distribue le trafic entre les instances de machines virtuelles (VM) internes dans la même région du réseau Virtual Private Cloud (VPC).
- Cela nous aide à exécuter et à faire évoluer nos services derrière une adresse IP interne qui n’est accessible qu’aux systèmes du même réseau VPC ou à ceux qui y sont connectés.
- Les équilibreurs de charge réseau de relais internes sont également accessibles via l’appairage de réseaux VPC, Cloud VPN et Cloud Interconnect.
Guide étape par étape pour configurer un équilibreur de charge dans GCP : –
Étape 1:- Choisissez le bon équilibreur de charge
Déterminez l’équilibreur de charge approprié en fonction des exigences de votre application :
● Pour une portée mondiale : – Utilisez les équilibreurs de charge d’application externes pour HTTP(s) et les équilibreurs de charge réseau proxy externes pour TCP.
● Pour le trafic régional : – Utilisez des équilibreurs de charge d’application internes pour HTTP(s), des équilibreurs de charge réseau proxy internes et des équilibreurs de charge relais pour TCP/UDP.
- Choisissez un équilibreur de charge mondial ou régional : –
Étape 2 :- Configurer l’équilibreur de charge
un. Pour la charge de travail globale :
b. Pour la charge de travail régionale : –
1. Choisissez votre région.
2. Créez un sous-réseau proxy pour le pass proxy ALB.
Sous-réseau proxy est un sous-réseau spécifique au sein de votre Virtual Private Cloud (VPC) conçu pour gérer le trafic passant par un équilibreur de charge, tel qu’un
équilibreur de charge d’application (ALB) et dirigez-le vers des services ou des applications backend.
c. Configurer le frontend : – Définissez l’adresse IP et le port de votre équilibreur de charge. Pour les équilibreurs de charge globaux, choisissez une adresse IP externe ; pour les équilibreurs de charge internes, utilisez une adresse IP interne.
Étape 3 : Créer un service backend
1. Créer un back-end :- Définissez le service backend qui connecte votre équilibreur de charge aux instances backend ou aux points de terminaison.
2. Spécifiez le groupe d’instances ou le groupe de points de terminaison du réseau (NEG) qui desservira le trafic.
3. Configuration du bilan de santé : – Configurez les vérifications de l’état pour garantir que les instances backend sont saines et capables de gérer le trafic.
Étape 4 : Règles de routage
Configurez des règles de routage en fonction du type d’équilibreur de charge. Pour les équilibreurs de charge HTTP(S), configurez les mappages d’URL pour acheminer le trafic en fonction des modèles d’URL.
Étape 5 : Tests et surveillance
Déployer et tester : – Déployez votre équilibreur de charge et testez-le pour vous assurer qu’il achemine correctement le trafic vers les instances backend.
Conclusion
Les équilibreurs de charge de GCP offrent une haute disponibilité, sécurité et performances pour gérer le trafic des applications. En comprenant leurs types et leurs cas d’utilisation, vous pouvez sélectionner la bonne solution pour maintenir vos applications résilientes et évolutives.
VOUS TROUVEZ CECI UTILE ? PARTAGEZ-LE
Source link