Voici comment Arista façonne l’avenir des réseaux d’IA avec Etherlink et l’Ultra Ethernet Consortium

Adhérant aux spécifications de l'Ultra Ethernet Consortium, Arista Networks a révélé une partie de sa technologie Etherlink.

Le paysage d’Arista pour les réseaux basés sur l’IA #

Cette technologie servira de base pour les futurs réseaux Ethernet capables de gérer les charges de travail basées sur l’IA.

La plateforme Etherlink d’Arista comprendra une vaste gamme de systèmes 800G et de cartes de ligne. Le tout sera basé sur le système d’exploitation EOS du fournisseur, qui inclura des fonctions Ethernet suralimentées, en accord avec les spécifications de l’Ultra Ethernet Consortium.

Promesse d’évolution avec l’Ultra Ethernet Consortium #

L’Ultra Ethernet Consortium, qui compte à ce jour plus de 50 fournisseurs, est en train de développer des technologies pour améliorer l’échelle, la stabilité et la fiabilité des réseaux Ethernet. Cela va permettre de répondre aux demandes des charges de travail de l’IA en matière de réseaux haute performance.

À lire Perte de poids : cet aliment pour diminuer les ballonnements et avoir un ventre plat avant l’été

Le consortium prévoit de publier des spécifications officielles qui mettront en avant une série d’améliorations Ethernet, comme de meilleures options de livraison de paquets et de trajets multi-chemin, ainsi que des fonctions modernes de gestion de la congestion et de télémétrie.

Avantages clés de la technologie Etherlink #

Les plateformes Etherlink d’Arista possèdent deux caractéristiques clés : une latence prévisible et une gestion de la congestion. Pour la latence prévisible, un transfert rapide et fiable de la source à la destination est essentiel pour toutes les tâches d’IA.

En ce qui concerne la gestion de la congestion, la technologie Etherlink utilise des mécanismes pour équilibrer, signaler et répartir uniformément la charge sur les trajets multi-chemin. Cela améliore l’utilisation et le coût total de possession des coûteux clusters de GPU.

Des analyses de trafic précises pour une meilleure performance #

Le réseau AI d’Arista dépend également d’une combinaison de son système d’exploitation EOS et de son système d’assistance virtuelle autonome. Ces systèmes fournissent des informations pertinentes sur le réseau.

À lire Picard : cet apéritif vous aide à garder la ligne pendant les vacances

La pile logicielle EOS d’Arista peut aider les clients à construire des clusters d’IA résilients. EOS offre des algorithmes d’équilibrage de charge améliorés et des mécanismes de hachage qui mappent le trafic des ports d’entrée de l’hôte vers les liaisons montantes.

  • Transfert de masse rapide et fiable de la source à la destination
  • Utilisation de tous les chemins Etherlink pour une communication prévisible de bout en bout
  • Équilibrage dynamique de charge à des vitesses de plusieurs térabits
  • Radix de soutien de 1 000 à 100 000 nœuds GPU, potentiellement plus à l’avenir

Pour conclure, l’approche de Arista au développement de réseaux pour l’IA est révolutionnaire. En tenant compte des charges de travail massivement parallélisées qui peuvent causer des congestions, Arista cherche à bâtir des clusters d’IA avec une capacité massive pour gérer ces modèles de trafic à partir de GPU distribués. Cela est rendu possible en assurant une latence déterministe et des fabricants Deep Buffer sans perte, capables d’éliminer la congestion indésirable. Ces avancées sont un pas en avant important vers une nouvelle ère des réseaux d’IA.

Partagez votre avis