Maîtriser EtherChannel en 5 Minutes

Article de blog | Finger In The Net

EtherChannel est une technologie développée par Cisco qui permet de regrouper (agréger) plusieurs ports physiques pour former une seule liaison logique, offrant ainsi une bande passante cumulée et une redondance accrue. En d’autres termes, EtherChannel permet de combiner plusieurs liens Ethernet en un seul agrégat de liens, une expression souvent utilisée dans le jargon technique français.

Nous utiliserons ici la terminologie anglaise EtherChannel, car elle est largement adoptée dans la documentation Cisco et dans le monde des réseaux. Il est essentiel de se familiariser avec ce terme pour mieux comprendre les configurations et les pratiques recommandées dans les infrastructures Cisco.

Sachant qu’un bon schéma vaut mieux qu’un long discours, passons directement aux illustrations pour comprendre comment EtherChannel fonctionne dans les réseaux modernes.

Dans une configuration sans EtherChannel, le protocole Spanning Tree (STP) joue un rôle crucial pour éviter les boucles réseau, qui peuvent provoquer des tempêtes de diffusion et une saturation du réseau. STP est conçu pour détecter les chemins redondants dans le réseau et désactiver automatiquement les liaisons excédentaires, ne laissant qu’un seul chemin actif vers chaque destination.

 

Dans le cas illustré ici, lorsque plusieurs liaisons individuelles existent entre deux switches, Spanning Tree désactive trois des quatre liaisons pour empêcher les boucles. Ainsi, seule une liaison reste active pour le transfert de données, tandis que les trois autres sont mises en état de blocage. Cela signifie que, même si plusieurs câbles sont physiquement connectés, la bande passante totale est limitée à celle d’une seule liaison active. De plus, ces liaisons bloquées ne sont activées que si la liaison principale échoue, ce qui limite l’utilisation efficace de la bande passante.

 

Avec EtherChannel, cette limitation est surmontée. Le protocole Spanning Tree voit l’EtherChannel comme une seule liaison logique, ce qui permet de garder tous les ports agrégés actifs simultanément. Cela permet de maximiser la bande passante tout en conservant la redondance sans créer de boucles réseau.

Avant de monter un EtherChannel entre deux équipements réseau, il est essentiel de s’assurer que certaines conditions soient remplies pour garantir la stabilité et la compatibilité de l’agrégat de liens. Voici les principaux critères à vérifier :

  1. Compatibilité des ports : Assurez-vous que tous les ports à agréger ont les mêmes paramètres (vitesse, duplex, mode VLAN et type de port : access ou trunk).

  2. Même protocole : Utilisez le même protocole de gestion d’EtherChannel des deux côtés, soit PaGP ou LACP. Si aucun protocole n’est utilisé, configurez les ports en mode on.

  3. Nombre de ports : Limitez l’agrégat à un maximum de 8 ports pour chaque EtherChannel.

  4. Configuration identique : Appliquez des paramètres uniformes pour le port-channel sur tous les ports participants.

  5. Modes compatibles : Pour PaGP, combinez Desirable avec Auto ou Desirable. Pour LACP, combinez Active avec Active ou Passive.

Diagramme comparatif montrant un réseau sans agrégation de liens (sans EtherChannel) et avec agrégation de liens (avec EtherChannel), utilisant les protocoles LACP et PaGP.

Pour automatiser et simplifier la configuration d’un EtherChannel, deux protocoles principaux peuvent être utilisés : PaGP (Port Aggregation Protocol) et LACP (Link Aggregation Control Protocol). Ces protocoles permettent de vérifier la compatibilité des ports et de gérer dynamiquement l’agrégat de liens en assurant la redondance et la résilience du réseau.

  • PaGP est un protocole propriétaire de Cisco, idéal pour les environnements Cisco homogènes.
  • LACP est un standard IEEE (802.3ad), recommandé pour les environnements multi-fournisseurs.

Chaque protocole offre des modes de fonctionnement spécifiques et des fonctionnalités uniques pour optimiser et sécuriser les liaisons agrégées dans une infrastructure réseau.

Diagramme montrant les méthodes de load balancing pour EtherChannel avec les options de répartition de charge par adresse MAC, adresse IP, et numéro de port entre deux switches.

Load balancing dans un EtherChannel permet de répartir le trafic réseau de manière équilibrée entre les différents liens physiques qui composent l’agrégat. Cela optimise l’utilisation de la bande passante et améliore les performances globales du réseau en évitant la surcharge d’un seul lien.

Dans EtherChannel, le load balancing ne divise pas le trafic de manière strictement égale entre les liens, mais utilise différents critères pour affecter chaque flux à un lien spécifique. Ces critères sont basés sur certains attributs des paquets, tels que l’adresse IP, l’adresse MAC, le port TCP/UDP, etc.

 

Méthodes de Load Balancing pour EtherChannel

Les switches Cisco offrent plusieurs méthodes de load balancing pour répartir le trafic entre les liens d’un EtherChannel. Ces méthodes sont choisies en fonction des attributs spécifiques d’un paquet, comme décrit ci-dessous :

  1. Basé sur l’adresse MAC source (src-mac) : Le switch utilise l’adresse MAC source des paquets pour déterminer le lien à utiliser. Cela convient aux réseaux avec de nombreuses sources uniques.
  2. Basé sur l’adresse MAC de destination (dst-mac) : Le lien est choisi en fonction de l’adresse MAC de destination des paquets. Utile dans les réseaux où il y a de nombreux hôtes de destination différents.
  3. Basé sur les adresses MAC source et destination (src-dst-mac) : Combine l’adresse MAC source et destination pour déterminer le lien. Cela offre une meilleure répartition dans les réseaux avec des flux variés entre de nombreux appareils.
  4. Basé sur l’adresse IP source (src-ip) : Le switch utilise l’adresse IP source pour sélectionner le lien. Utile dans les réseaux où il y a une grande variété d’adresses IP source.
  5. Basé sur l’adresse IP de destination (dst-ip) : Le lien est choisi en fonction de l’adresse IP de destination. Cela peut être utile pour équilibrer le trafic vers différentes destinations IP.
  6. Basé sur les adresses IP source et destination (src-dst-ip) : Combine l’adresse IP source et destination, offrant une meilleure granularité de répartition, surtout dans les réseaux avec des échanges fréquents entre de nombreux hôtes.
  7. Basé sur les ports TCP/UDP source et destination (src-dst-port) : Cette méthode est utilisée pour des applications spécifiques où plusieurs sessions se connectent aux mêmes hôtes, comme dans le cas des serveurs web. Elle permet un load balancing plus fin au niveau des applications.

Tu veux débloquer l'intégralité du site et avoir accès à notre formation CCNA 200-301 ?

Noël NICOLAS

Auteur de l'article

Expert Réseau
15 ans d’expérience
CCNP Routing and Switching
Fondateur du site FingerInTheNet

Eric JOUFFRILLON

Co-auteur de l'article

Expert SATCOM
Technicien Réseau
17 ans d’éxpérience déploiement réseau SATCOM
Spécialisé LFN (Long Fat Network).Diffusion vidéo et QOS.

CURSUS DE FORMATION

Administrateur Réseau