Blog ENI : Toute la veille numérique !
Accès illimité 24h/24 à tous nos livres & vidéos ! 
Découvrez la Bibliothèque Numérique ENI. Cliquez ici
💥 Les 22 & 23 novembre : Accès 100% GRATUIT
à la Bibliothèque Numérique ENI. Je m'inscris !

Agrégation de liens et haute disponibilité

Définition d’agrégation

1. Introduction

Par défaut, en ajoutant un ou plusieurs liens vers la même destination, seul un lien est actif à la fois. Ceci est dû au protocole STP (Spanning Tree Protocol) qui est activé par défaut sur les switchs, empêchant les boucles de multidiffusions (Broadcoast) pour protéger le réseau.

images/08EI0.png

Dans l’exemple ci-dessus, un port a été placé en veille, par défaut, pour éviter les boucles. Ainsi, si une trame de broadcast est reçue par le port FA0/1 du switch S-2, elle ne sera pas retournée au switch S-1 à partir du port FA0/2, car ce dernier est en mode veille.

Si le port FA0/1 tombe, le lien sur le port FA0/2 prendra le relais automatiquement, ce qui nous permet d’assurer une haute disponibilité. Cependant, nous ne pouvons pas utiliser les deux liens en même temps pour augmenter la bande passante et bénéficier de la répartition de charges avec le protocole STP. Pour cela, nous avons besoin de l’agrégation des liens.

2. Définition

L’agrégation des liens est une technique utilisée entre équipements réseaux permettant de regrouper plusieurs liens Ethernet en un seul lien virtuel.

L’agrégation des liens utilise deux protocoles connus qui seront expliqués un peu plus loin. Le premier est LACP, standardisé...

L’agrégation des liens sous Windows Server

L’agrégation des liens est prise en charge par Windows Server à partir de la version 2012, elle n’a pas cessé d’évoluer et apporter des améliorations depuis.

Sous Windows Server, l’agrégation des liens aussi appelée NIC Teaming (en français, association de cartes réseau) possède les mêmes fonctionnalités que sur les équipements réseau. Ainsi, on pourra fusionner plusieurs cartes réseau pour n’en faire qu’une seule et gagner en performance en augmentant le débit de la bande passante.

Exemple

images/08EI1.png

Dans l’exemple ci-dessus, les trois cartes réseau de 1 Gbits agiront comme une carte de 3 Gbits (ceci est plus avantageux lors de grands transferts sur un serveur de fichiers).

En cas de panne d’une carte, les autres continueront de répondre, mais le débit de transfert sera réduit.

L’agrégation des liens n’est pas activée par défaut sur Windows Server, cependant sa configuration reste simple et à la portée de tout le monde.

La carte réseau créée est une carte virtuelle, possédant les mêmes caractéristiques qu’une carte normale, à savoir une adresse MAC et une adresse IP dite VIP (Virtual address IP), qui sera vue par l’ensemble des équipements de notre réseau comme une interface réseau classique.

1. Les avantages de l’agrégation de liens sous Windows

Parmi les avantages de l’utilisation du NIC Teaming (agrégation des liens sous Windows), on trouve l’augmentation de la bande passante, la tolérance de panne, la haute disponibilité.

Augmentation de la bande passante

En activant l’agrégat de liens sur chaque équipement connecté, la vitesse du lien logique est égale à celle de l’ensemble des bandes passantes des liaisons individuelles, permettant ainsi de transférer plus de flux simultanément que ce qui est supporté par un seul lien.

Tolérance de panne

En cas d’indisponibilité d’un élément (port ou carte réseau) d’un agrégat de liens, les flux réseau continuent à être assurés par le ou les liens survivants. C’est...

Mise en place de l’agrégation des liens

Pour mettre en place l’agrégation de liens sur un serveur physique, aussi connue sous le nom de NIC Teaming, assurez-vous d’abord que le serveur est équipé d’au moins deux cartes réseau connectées au réseau, idéalement à un switch indépendant.

Notez qu’il n’est pas possible de configurer l’agrégation directement sur une VM dans Hyper-V, car les cartes émulées redirigées vers la VM ne prendront pas en compte cette configuration.

Avant de procéder, vérifiez que les cartes réseau ne sont pas déjà utilisées par des machines virtuelles pour éviter des erreurs. Vous devrez les dissocier et connecter la nouvelle interface réseau virtuelle qui regroupera les deux cartes physiques.

1. Bonnes pratiques

images/08EI12.png

Assurez-vous que les deux cartes réseau soient connectées à des ports distincts sur des switches séparés, afin d’éviter la formation de boucles dans le réseau interne.

Il est également recommandé d’éviter de connecter les machines au même commentateur ou d’utiliser un concentrateur (hub).

La carte réseau résultant de l’agrégation devrait ensuite être configurée à partir de la ligne de commande pour se connecter aux machines virtuelles, optimisant ainsi la distribution du trafic réseau.

2. Mise en place du NIC Teaming avec l’interface graphique

Pour configurer l’association des cartes, assurez-vous que les deux cartes réseau sont activées et connectées au réseau. À partir du centre réseau :

images/08EI13.png

Dans notre lab, nous avons renommé les cartes "interne-1" et "interne-2".

 Ouvrez le Gestionnaire de serveur et cliquez sur Serveur local, puis sur Association de cartes réseau.

images/08EI14.png

 Sélectionnez les cartes faisant partie du NIC Teaming et faites un clic droit en choisissant Ajouter à une nouvelle équipe.

images/08EI15.png

 Entrez le nom du NIC Teaming, cochez les cartes à utiliser...

Équilibrage de charge

1. Introduction

Nous venons d’explorer le concept de haute disponibilité, qui garantit la continuité d’un service ou d’une ressource (comme sur une machine virtuelle), même en cas de défaillance de la source. Ce concept présente un avantage significatif : il permet de maintenir le même contenu intact. Par exemple, sur un serveur web ou une base de données, les fichiers modifiés localement seront conservés.

Cependant, contrairement à la haute disponibilité, la répartition de charge ne se limite pas simplement à assurer la disponibilité constante du service. Elle se distingue par son processus d’équilibrage de charge et de routage selon des règles prédéfinies et des affinités, offrant ainsi un double avantage : une haute disponibilité en cas de panne et une optimisation des ressources.

Dans cette section, nous explorerons les différentes architectures, les cas d’utilisation possibles, ainsi que les avantages et les prérequis à prendre en compte pour la mise en œuvre de la répartition de charge.

2. Rappel du principe

Le schéma suivant illustre le fonctionnement de la haute disponibilité au sein d’un cluster. Généralement, la ressource est partagée entre les différents nœuds d’un cluster, comprenant au minimum deux nœuds en mode actif/passif. En cas de défaillance d’un nœud ou de surcharge, la ressource bascule sur l’autre nœud. Bien que cette configuration réduise le risque d’interruption du service après une panne ou un incident, elle ne résout pas nécessairement le problème d’une forte charge. En effet, en cas de sollicitation intense, le réseau peut être saturé ou surchargé.

images/08EI36.png

À la différence de la haute disponibilité, la répartition de charge ne requiert pas la présence de plusieurs nœuds partageant la ressource. L’accès est géré par des règles directement appliquées aux ressources.

Cependant, pour un fonctionnement optimal, il est important de veiller à la similarité des ressources. Toute modification sur une ressource, telle qu’une...