Aurora Networks® (ANS) et RUCKUS® Networks sont désormais Vistance Networks
La migration vers des débits 400G/800G : Partie II
Jusqu’à présent, dans notre discussion concernant la migration vers la 400G et au-delà, nous avons couvert beaucoup de points. Dans la Partie I, nous avons décrit les moteurs du marché et techniques qui poussent les datacenters à adopter des capacités plus rapides. Nous avons abordé les avancées des formats d’émetteur-récepteur, des schémas de modulation et des commutateurs à rayons plus élevés alimentés par des ASIC plus rapides. Ensuite, il existe les options de connecteur pour allouer la bande passante supplémentaire des modules octaux au niveau du port. Les connecteurs comprennent des connecteurs MPO (multi-push-on) à huit, 12, 16 et 24 fibres optiques parallèles traditionnels, ainsi que des connecteurs LC, SN, MDC et CS duplex plus récents.
Mais la Partie I ne raconte que la moitié de l’histoire. Bien que le développement des modules optiques et des connecteurs 400G soit bien en cours, les responsables de datacenter ont généralement du mal à définir une stratégie de câblage d’infrastructure logique, tant sur le plan opérationnel que financier. Ils ne peuvent pas se permettre de se tromper. La couche physique, le câblage et la connectivité, est la colle qui maintient ensemble tout ce qui se trouve dans le réseau. Une fois qu’une infrastructure de câblage structurée est installée, son remplacement peut être risqué et coûteux. Pour bien faire les choses, il faut en grande partie prêter une attention particulière aux normes, qui évoluent également rapidement.
Il suffit de dire que développer une infrastructure prête pour l’avenir dans l’environnement actuel des datacenters à enjeux élevés et en évolution rapide, c’est comme essayer de changer vos pneus tout en volant sur l’autoroute. Il faut de la planification, de la précision et plus qu’un petit aperçu de ce qui nous attend. Dans la Partie II, nous essaierons de vous donner les informations et la vision prospective dont vous avez besoin pour créer une infrastructure basée sur des normes qui offre beaucoup de marge de croissance. Allons-y.
Voulez-vous lire hors ligne ?
Téléchargez une version PDF de cet article pour le relire ultérieurement.
Restez informé !
Abonnez-vous à The Enterprise Source et obtenez des mises à jour lorsque de nouveaux articles sont publiés.
Câblage
Pour élargir leur capacité, de nombreux datacenters tirent parti d'une variété d'options existantes et nouvelles. Il peut s’agir d’applications duplex traditionnelles et de nouvelles applications optiques parallèles, de connecteurs monomodes et multimodes à quatre paires et huit paires, WDM. L’objectif est d’augmenter la capacité et l’efficacité. Le défi pour beaucoup est de tracer un parcours qui mène de votre état actuel (souvent avec une base installée très importante) à quelque chose qui pourrait avoir deux étapes à venir avec différentes topologies de réseau, différents types de connecteurs et modules de câblage.
Pour fournir la bande passante supplémentaire dont les centres de données ont besoin, les concepteurs réseau ont deux options : augmenter la vitesse du réseau ou augmenter le nombre de chemins (voies) utilisés pour fournir des données. La figure 1 illustre les options permettant d’augmenter les vitesses (optiques) et de réduire le nombre de voies (commutateurs).
À mesure que la vitesse du réseau augmente, l’augmentation de la vitesse devient difficile et coûteuse, du point de vue du coût et de la puissance, et peut être lente à mettre en œuvre. Il existe également d’autres compromis. Alors, où devez-vous concentrer vos ressources ? C'est une question délicate, car pour prendre en charge les applications 400G et 800G, les datacenters doivent évoluer. Il y a quelques développements importants qui peuvent faciliter cela.
Depuis 2019, le groupe de travail IEEE 802,3 travaille sur la norme IEEE P802.3ck pour les voies 100G. Espérons qu’ils terminent la norme dans 2022. La spéculation concernant les normes 200G-per-lane est qu’elles seront prêtes d’ici 2025.
Figure 2 : Calendrier de la norme IEEE P802.3ck à compter du août 2020
De nombreux gestionnaires de datacenters estiment que le calendrier de la norme IEEE P802.3ck mettrait l'industrie en retard. Par conséquent, d’autres options sont envisagées. Une option (déploiement de plus de voies [mise à l’échelle]) a déjà été utilisée pour atteindre 400G. Le 800G est livré avec la norme électrique 100G, avec des produits pré-standard en 2021. Pour atteindre 1.6 T, les centres de données peuvent évoluer jusqu'à 200G ou 16 voies. Nous abordons la migration finale vers 1.6 T vers la fin.
Un défi fondamental pour tenter d’atteindre le prochain plateau de vitesse consiste à décider d’augmenter la quantité de fibre ou d’utiliser le multiplexage pour augmenter le nombre de longueurs d’onde porteuses de signaux par fibre. Encore une fois, c’est une question délicate.
Répondre aux exigences des débits 400G, 800G et plus élevés impliquera généralement une combinaison de multiplexage par division de longueur d’onde (WDM) déployé sur un réseau plus dense en fibres. L’ajout de longueurs d’onde est plus facile que l’ajout de fibres. Cependant, si vous vous retrouvez avec trop peu de fibres, vous pourriez être obligé de payer plus pour la technologie WDM, alors que des solutions parallèles moins chères seraient un meilleur choix. Compte tenu de la feuille de route technologique actuelle, les infrastructures à 16 fibres sont de plus en plus populaires.
Le compromis (fibre physique contre longueur d’onde virtuelle) est basé sur l’application, le principal influenceur étant les coûts de transition. Les coûts d’investissement et d’exploitation sont comparés au coût de mise en œuvre de l’infrastructure de fibre physique requise. Étant donné que les vitesses électriques sont lentes et difficiles à augmenter, il semble probable que davantage de voies/fibres/longueurs d’onde seront nécessaires.
Il est intéressant de noter que, bien que la migration vers des vitesses de voie plus rapides ait des problèmes spécifiques liés aux coûts, le coût relatif de la vitesse pourrait en fait diminuer, comme illustré dans la Figure 3.
Figure 3 : Coût par Gb/s par rapport à la vitesse de voie optique
WDM est une approche commune du datacenter qui utilise différentes longueurs d’onde de lumière pour créer plusieurs chemins de données sur la même fibre. Les deux technologies WDM monomode les plus populaires sont le multiplexage grossier par division de longueur d’onde (CWDM) et le multiplexage dense par division de longueur d’onde (DWDM). CWDM est optimisé pour moins de canaux et des applications à portée plus courte, ce qui en fait une option WDM à moindre coût. Le DWDM est optimisé pour atteindre autant de capacité que possible sur une seule fibre, ce qui le rend coûteux et utile principalement dans les réseaux longue distance.
Les technologies Ethernet CWDM incluent CLR4, CWDM4 et FR4. Comme le « 4 » le suggère, ces technologies utilisent quatre longueurs d’onde, chacune portant un canal de données (1270 nm, 1290 nm, 1310 m et 1330 nm). Cela permet aux opérateurs de datacenters de prendre en charge un débit plus élevé sur les connexions à fibre optique duplex.
Les options WDM peuvent fournir plus de longueurs d’onde (FR8, par exemple, utilise huit longueurs d’onde). Les fonctionnalités supplémentaires nécessitent des modules optiques plus chers, mais des applications à plus longue distance pourraient justifier l’augmentation des coûts.
Il existe deux domaines principaux dans lesquels la WDM devrait jouer un rôle plus important dans la gestion de l’effondrement des capacités. La première concerne les interconnexions entrant dans le datacenter. Les applications actuelles et émergentes telles que la 5G, l’IdO et l’apprentissage machine-à-machine (M2M) entraînent le besoin d’une connectivité plus rapide entre le centre de données et les réseaux extérieurs. WDM est utilisé pour augmenter la capacité par fibre et répondre à la demande croissante de capacité et de vitesse tout en utilisant les actifs fibre existants.
Le deuxième domaine dans lequel WDM devrait jouer un rôle plus important est le renforcement de la connectivité entre les commutateurs réseau. À mesure que les datacenters passent de la topologie traditionnelle à trois niveaux à des conceptions de feuilles et de broches de type mesh, la densité du port serveur devient cruciale. Les connexions de commutateur à fibre optique à haut débit prennent en charge un trafic plus important tout en économisant plus de ports pour les connexions de serveur. WDM augmente la capacité des réseaux à fibre optique duplex existants sans ajouter d’infrastructure à fibre optique, ce qui permet d’économiser du temps et de l’argent ; les installations vierges peuvent trouver que les options de fibre optique parallèle sont encore plus rentables.
La fibre multimode prend également en charge une troisième technologie WDM : le multiplexage par division de courte longueur d’onde (SWDM), qui tire parti des longueurs d’onde courtes (850 nm, 880 nm, 910 nm et 940 nm) espacées de 30 nm. Dans le datacenter, SWDM est particulièrement attrayant en raison de sa capacité et de sa rentabilité dans les applications à courte portée. Le SWDM exécuté sur MMF fournit deux fois la vitesse d’un WDM sur un chemin de transmission bidirectionnel (BiDi) duplex.
Cette capacité améliorée offre aux gestionnaires de datacenters un parcours de mise à niveau attrayant pour leurs architectures duplex et permet des vitesses plus rapides sur de longues distances. En utilisant des fibres parallèles, le multimode atteint désormais 100 m à 400G ; avec les normes IEEE 802.3ck et 802.3db presque terminées, cette vitesse est réglée pour augmenter à 800G. Ce chemin est optimisé avec le câblage MMF large bande OM5 (WBMMF), qui offre une prise en charge supérieure de WDM sur multimode.
Pour plus d’informations sur cette fonctionnalité, consultez notre article sur la fibre optique OM5.
Figure 4 : Expéditions portuaires annuelles d’optique Ethernet SMF, 2020
Figure 5 : WBMMF transmet simultanément quatre longueurs d’onde
Historiquement, le câblage réseau central contenait 24, 72, 144 ou 288 fibres. À ces niveaux, les centres de données pouvaient faire passer de manière gérable des fibres optiques discrètes entre le réseau principal et les commutateurs ou serveurs, puis utiliser des ensembles de câbles pour les répartir afin d’assurer une installation efficace. Aujourd’hui, les câbles à fibres optiques sont déployés avec jusqu’à 20 fois plus de brins de fibres, jusqu’à 6 912 fibres par câble. L’augmentation est en grande partie due au passage à des réseaux en maille plus denses en fibres. La connectivité de n'importe quel type entre les serveurs et les commutateurs pousse également le développement de panneaux de brassage haute et ultra haute densité, qui, à leur tour, nécessitent des connecteurs et des modules de facteur de forme plus petits.
Alors, où le câblage à plus grand nombre de fibres est-il déployé ? L’une des zones est les interconnexions de datacenter (DCI) où les câbles extérieurs de l’usine (dont le nombre de fibres augmente également) entrent dans le datacenter. Le câblage de jonction DCI avec plus de 3 000 fibres optiques est commun pour connecter deux installations hyperscale, et les opérateurs prévoient de doubler cette capacité de conception dans un avenir proche.
Des fibres à plus grand nombre sont également utilisées lorsque les câbles de jonction de réseau principal, entre les commutateurs principaux et les salles de réunion, se connectent aux commutateurs de colonne vertébrale de rangée d’armoires. L’augmentation du nombre de fibres est nécessaire, mais elle crée deux grands défis. Le premier est de savoir comment le déployer de la manière la plus rapide et la plus efficace ? Cela implique de le mettre physiquement sur la bobine, de le retirer et de l’exécuter entre les points et à travers les voies. Une fois installé, le deuxième défi consiste à le décomposer et à le gérer au niveau des commutateurs et des racks de serveurs. Pour en savoir plus : S’adapter à une hausse de la quantité de fibre optique dans le data center.
Figure 6 : Exemple de câblage à nombre élevé de fibres optiques
Figure 7 : Fibre de ruban roulante
La tendance actuelle des centres de données et des réseaux d’entreprise plus importants est vers une architecture maillée dense en fibres qui optimise le trafic est-ouest (souvent 10X le trafic nord-sud), toujours orientée vers la colonne vertébrale, mais avec moins de couches réseau et souvent en vue de vitesses de connexion de serveur plus élevées. Le plus grand volume de connexions se trouve à la périphérie où les serveurs sont connectés. Les serveurs représentent des frais généraux ; par conséquent, moins il y a de commutateurs (et plus leur latence est faible), mieux c’est.
La plupart des réseaux de feuilles de colonne vertébrale ont aujourd’hui plusieurs couches ou niveaux. La taille du centre de données (nombre de serveurs à connecter) détermine le nombre de niveaux de commutation réseau et le nombre maximal de commutateurs à feuilles qui se connectent aux commutateurs. Souvent, le niveau le plus bas est situé en haut des racks serveur (ToR). Cette conception était optimale pour les commutateurs plus petits (à faible rayon) existants, ce qui permet de réduire le nombre d'accessoires de serveur à vitesse réduite. Un commutateur ToR correspondrait à peu près au nombre de serveurs dans un rack. Avec toutes les liaisons au sein d’un rack, les connexions courtes et peu coûteuses entre le serveur et le commutateur ToR utilisent souvent des câbles de connexion en cuivre (CNA) à faible coût.
Passer à des commutateurs à radix plus élevé signifie que, même si vous utilisez toujours le même commutateur à 32 ports, il y a deux fois plus de voies (huit par port de commutateur) disponibles pour connecter les serveurs. Cela offre une opportunité intrigante. Avec les commutateurs à radix plus élevé, vous pouvez désormais migrer vers une conception dans laquelle plusieurs commutateurs à feuilles ToR sont remplacés par un seul commutateur à feuilles de niveau 1. Ce commutateur unique peut désormais prendre en charge environ quatre armoires de serveurs. Le câblage structuré connecte le nombre réduit de commutateurs à feuilles du serveur, soit en fin de ligne (EoR) soit au milieu de ligne (MoR). L’élimination des commutateurs ToR signifie moins de sauts, une latence d’application plus faible et une conception moins chère et plus efficace.
Figure 8 : Des commutateurs à radix plus élevés permettent des conceptions EoR/MoR plus efficaces
La solution idéale pour cette application nécessitera que le radix soit maintenu avec huit connexions par module optique. Le maintien de coûts inférieurs pour cette option est possible en utilisant des optiques MM moins coûteuses, ainsi qu’une nouvelle prise en charge d’application 400GSR8 pour huit connexions de serveur 50 Gbit/s sur 100 m de câblage OM4. Pour l’avenir, le développement de la norme 802.3db vise à doubler la vitesse de la voie à 100 Go sur cette même infrastructure MMF1. Il est idéal pour les pods IA/ML à densité plus élevée, qui nécessitent absolument des vitesses de réseau de serveur beaucoup plus élevées, mais ne nécessitent pas de liaisons réseau plus longues qui nécessiteraient des optiques SM plus coûteuses.
Lorsque l’OM4 a été lancé en 2009, l’OM3 était le type de fibre préféré du marché, mais peu étaient disposés à adopter la nouvelle technologie OM4. Ce n’est que lorsque les progrès de la technologie Ethernet ont réduit la portée de l’OM3 à 70 mètres que l’adoption de l’OM4 a pris son envol. Aujourd’hui, l’OM4 est le type de fibre préféré, mais la technologie Ethernet évolue à nouveau, donnant naissance à l’OM5.
La fibre optique OM5 offre deux avantages principaux par rapport aux fibres optiques OM3 et OM4. Premièrement, son atténuation (3 dB/km) est inférieure à celle des OM3 et OM4 (3.5 dB/km). Deuxièmement, la spécification de bande passante modale effective (EMB) pour OM3 et OM4 est limitée à 850 nm, tandis que l’EMB pour OM5 s’étend de 850 nm à 953 nm. La fenêtre EMB étendue rend l’OM5 idéal pour SWDM, qui transmet plusieurs flux de données sur plusieurs longueurs d’onde sur une seule fibre. Cette capacité fait également de l’OM5 un catalyseur clé de la 400GBase-SR4.2, et un élément important d’une stratégie de migration 400G, car elle permet des portées étendues jusqu’à 150 m.
Pour en savoir plus sur l’OM5 et l’optique utilisée pour tirer parti de ses avantages, consultez le chapitre MMF dans The Enterprise Source.
Figure 9 : Évolution des classes MMF
Source : MMF, Fichier d’informations, CommScope, 2021
L'infrastructure monomode et multimode complète différentes applications dans le datacenter. Trouver la bonne combinaison d’applications optimise votre coût pour les liaisons optiques. Cependant, il est difficile de faire les choses correctement, car le coût et les capacités de chaque support progressent. Explorons les éléments à prendre en compte lors de la prise de cette décision.
Distances de liaison
Les centres de données nécessitent généralement un grand nombre de liaisons réseau avec des distances relativement courtes. Par « court », nous entendons généralement moins de 100 m. En revanche, la portée moyenne est généralement définie comme étant de 500 m pour la plupart des datacenters à grande échelle. Les distances à longue portée, telles que celles d’un campus ou d’un datacenter de très grande envergure, sont généralement de 2 km ou plus.
Le monomode, avec ses capacités longue distance et sa promesse de bande passante « illimitée », est couramment utilisé dans les datacenters hyperscale. Plus précisément, il est utilisé dans les installations d’entrée pour mettre fin aux liaisons DCI des réseaux métropolitains/régionaux. En fait, de nombreuses options haute vitesse à longue portée ne sont disponibles qu’en monomode.
Figure 10 : Anatomie du multimode et du SMF
Source : MMF, Fichier d’informations, CommScope, 2021
Volume de liens
Toute discussion sur les volumes de liaison dans le centre de données doit commencer avec les serveurs omniprésents, les éléments les plus nombreux du réseau. Dans les configurations actuelles, les serveurs sont désormais connectés à 100G et plus. Le cas d’utilisation de la fibre optique pour ces embouts implique une optique multimode VCSEL à moindre coût, qui doit être mise en œuvre aux deux extrémités de la liaison. Étant donné le nombre important de serveurs dans un datacenter même de taille modérée, le nombre combiné de ports optiques requis rend cette application très sensible aux coûts.
Cependant, lorsque vous passez à des niveaux de réseau supérieurs, le nombre de fibres diminue rapidement en fonction du radix des commutateurs et d’autres considérations architecturales. De plus, les distances dépassent souvent la limite de courte portée de 100 m imposée au multimode, faisant de la technologie monomode le seul choix viable.
La bonne nouvelle est que le prix des optiques monomodes enfichables continue de baisser. Par conséquent, nous constatons que l’Ethernet 100G capture une plus grande part du marché des ports de commutateur de datacenter. Mais la conversation concernant les types de transmission doit aller bien au-delà du coût des optiques enfichables. Il doit également inclure une analyse du coût total du canal, ainsi que la croissance anticipée du datacenter et de sa feuille de route de migration. Réfléchissez aux questions suivantes avant de prendre une décision.
Topologie du réseau : Certains centres de données peuvent avoir plus de 100 000 serveurs, tandis que d'autres n'en ont que quelques-uns. Certains utilisent un emplacement centralisé de l'équipement réseau tandis que d'autres distribuent l'équipement réseau dans tout le centre de données. Ces exigences et choix de conception déterminent le nombre de liaisons réseau et la distance que les liaisons réseau doivent prendre en charge.
Coût total du canal : La comparaison des coûts de liaison entre les types de fibre optique implique d’évaluer le coût de la liaison entière : émetteurs-récepteurs, lignes réseau et cordons de raccordement. Divers modèles de calcul des coûts ont été développés pour aider à comparer le coût relatif des différents types de liaisons réseau. Par exemple, lorsque vous choisissez entre 100G CWDM4 et 100G PSM4, une longueur de liaison moyenne plus longue tend à favoriser l’option duplex. Cependant, une installation sur terrain complet peut ne pas disposer de suffisamment de fibres disponibles pour prendre en charge les liaisons PSM4.
Autres considérations :Les différences d’installation et de maintenance peuvent favoriser l’utilisation du MMF. Voici quelques considérations clés :
- Sensibilité à la poussière/saleté : Un cœur de fibre plus grand est moins sensible à la contamination. Ceci est important dans la connectivité des serveurs à volume élevé.
- Vitesses de liaison : Le MMF fonctionne actuellement à une vitesse maximale de 100G par longueur d’onde.
- Cycle de vie et stabilité de l'infrastructure : à quelle vitesse le datacenter doit-il augmenter sa capacité ?
Figure 11 : Coût de liaison 100G par rapport au SR4, 2X, cordons 2X 3 m
La capacité du datacenter repose sur le câblage à fibre optique physique, qui doit s’adapter constamment aux nouvelles optiques pour augmenter la vitesse et l’efficacité de la transmission des données en préservant autant de signaux de données que possible. Le câblage et les connexions fibre optique perdent une certaine quantité de signal (lois de physique), mais leurs performances ne cessent de s’améliorer. Aujourd’hui, les composants à ultra-faible perte (ULL) sont conçus pour dépasser les limites standard de l’industrie, ce qui permet de faire progresser les applications optiques à l’aide de systèmes de câblage préconnectorisés. Mais que signifie « ultra-faible perte » ?
Il est courant d’affirmer que les systèmes préconnectorisés ont des performances à très faible perte. Mais, sans norme ULL, comment comparer les performances ? En d’autres termes, si vous payez pour la performance ULL, comment savez-vous que vous obtenez la valeur de votre argent ?
Au cours des années précédentes, l’évolution de la bande passante des applications Ethernet et Fiber Channel a entraîné une réduction considérable des budgets de perte de canal et de la longueur de canal. Le tableau 1 montre que les exigences de perte d’insertion (IL) pour les canaux de câblage sont de plus en plus strictes pour les canaux multimodes et monomodes. Traditionnellement, les paramètres de performance optique des jonctions MPO préterminées et des cassettes MPO/LC sont exprimés en termes de perte d’insertion (IL) et de perte de retour (RL) des cassettes en dB (y compris le connecteur de jonction). Actuellement, les systèmes les plus performants du marché revendiquent une performance IL de 0,35 dB.
Tableau 1 : Exigences de perte d’insertion pour les canaux multimodes et monomodes
Ces chiffres de performance sont basés sur la configuration illustrée à la figure 12 conçue pour une application 100GBase-SR4 en utilisant l’atténuation de câble spécifiée par les normes internationales.
Figure 12 : Atténuation standard pour une configuration de canal pour une application 100GBase-SR4
L'exemple ci-dessus est basé sur une configuration à quatre cassettes, mais que faire si le canal nécessite plus de quatre cassettes ? En règle générale, plus il y a de connecteurs dans le canal, plus la perte de retour du canal est faible. Pour le cas ci-dessus, la RL doit être supérieure à 12 dB pour que l’émetteur-récepteur optique fonctionne correctement. Sur la base de la RL par connexion, comme indiqué dans la norme ISO/IEC 11801-1 éd.3, chaque connexion doit avoir une RL minimale de 20 dB. Chaque cassette d'un système préconnectorisé a deux connexions (arrière et avant). En utilisant la configuration de canal de la Figure 12 et l’exigence RL de la norme ISO/IEC 11801-1 éd.3, la RL du canal chutera en dessous du seuil de 20 dB RL après la troisième cassette. Ceci est visible sur la Figure 13.
Ces observations montrent que les considérations de performance optique doivent inclure à la fois IL et RL pour assurer le fonctionnement de l’application. Les solutions SYSTIMAX® ULL de CommScope vont bien plus loin.
- Flexibilité de conception maximale grâce aux canaux à six cassettes
- Longueur de canal étendue pour moins de six cassettes
- Outil pour le soutien à la conception et aux tests
- Assurance d’application
Figure 13 : RL total de X nombre de cassettes
Les solutions SYSTIMAX ULL combinent des performances optiques exceptionnelles avec des approches statistiques qui garantissent de véritables performances à très faible perte pour Il et RL.
Le calculateur de performance de la fibre optique de CommScope peut être utilisé pour concevoir des canaux de câblage et vérifier le fonctionnement des applications, y compris leur longueur de liaison maximale.
La configuration ci-dessous indique que, même avec six cassettes consécutives, la longueur du canal dépasse les longueurs d’application standard (voir applications marquées).
CommScope soutient les performances de nos produits, avec une garantie garantie pour de nombreuses applications optiques prises en charge. L’outil de conception du calculateur de performance des fibres optiques SYSTIMAX et les directives de prise en charge des applications sont spécifiques à l’assurance des applications SYSTIMAX.
Selon les termes de la garantie étendue de 25-Year de CommScope sur les produits et applications (« garantie du système »), la spécification du système SYSTIMAX contient une assurance d’application qui garantit que les applications de câblage et optiques désignées répondront aux spécifications de performance telles qu’elles y sont énoncées, conformément aux spécifications de performance SYSTIMAX.
La garantie système et les spécifications SYSTIMAX fournissent des détails sur les conditions générales de notre garantie système et de l’assurance d’application SYSTIMAX. La garantie étendue de 25-Year actuelle pour les produits et applications est disponible ici.
La spécification du système et l’assurance d’application SYSTIMAX actuelles sont disponibles sur SYSTIMAX Application Assurance.
Ressources supplémentaires :
La tendance actuelle aux clusters de datacenters régionaux entraîne le besoin de liaisons DCI à plus grande capacité et à moindre coût. Les nouvelles normes IEEE (voir la section des normes ci-dessous) ouvriront la voie à des options plug-and-play à moindre coût avec des déploiements point à point, mais les opérateurs de datacenter ont des décisions difficiles à prendre concernant la détection cohérente par rapport à la détection directe, les schémas de modulation et la manière de gérer le nombre croissant de fibres.
Vous trouverez plus d’informations à ce sujet dans un article à venir.
Combiner les quatre piliers pour permettre 400G/800G et plus
Les quatre piliers de l'infrastructure du datacenter, à savoir la densité des ports, les émetteurs-récepteurs, les connecteurs et le câblage, offrent un moyen logique de visualiser les composants de base nécessaires pour prendre en charge la 400G et au-delà. Au sein de chaque pilier se trouvent une multitude d’options. Le défi pour les opérateurs réseau est de comprendre les avantages et les inconvénients des options individuelles tout en étant en mesure de reconnaître l’interrelation entre les quatre piliers. Un changement de câblage affectera probablement la sélection appropriée des émetteurs-récepteurs, des configurations de ports et des connecteurs. Ceux qui conçoivent et gèrent les réseaux du futur doivent simultanément vivre dans la micro et la macro. Voici des exemples de situations où cela est fait.
Dans le cadre de nouveaux projets, les concepteurs de réseaux et d’installations ont le luxe (et le défi) de créer des infrastructures à plus grande vitesse qui peuvent atteindre le sol avec 400G, 800G ou même 1.6 T dès le premier jour. Alors, qu’est-ce que cela exige exactement ? Vous trouverez ci-dessous quelques tendances et informations à prendre en compte lors de la conception d’une infrastructure plus rapide à partir de zéro.
Densités portuaires : Pour les applications de commutateur leaf-spine, le marché privilégie le radix le plus élevé (nombre de ports) par commutateur. Pour obtenir la conception la plus efficace, les réseaux minimisent le nombre de niveaux de structure de commutateur (aplatis). Les ASIC plus récents prennent en charge plus d'E/S, mais à mesure que la vitesse augmente, il y a un compromis entre le taux de voie et le radix. Cependant, Radix est la clé pour réduire le nombre de commutateurs pour une taille de réseau donnée. Comme le montre la figure 14, un datacenter hyperscale typique contient environ 100 000 serveurs ; un réseau de cette taille peut être pris en charge avec seulement deux niveaux de commutateurs réseau. Cela est dû, en partie, à l’évolution rapide des ASIC et des modules, qui permettent des commutateurs à rayons plus élevés et des réseaux de plus grande capacité.
Figure 14 : Un radix plus élevé peut aider à réduire le nombre de commutateurs
Technologies d’émetteur-récepteur : Comme indiqué dans la Partie I, les deux facteurs de forme dominants pour la 400G sont QSFP-DD et OSFP. Les deux prennent en charge jusqu’à 32 ports dans un commutateur à une unité de rack (1RU) et acceptent les connecteurs LC, MPO, SN (OSPF) et CS. Les principales différences sont que le QSFP-DD est rétrocompatible avec QSFP+ et QSFP28, tandis que l’OSFP nécessite un adaptateur pour la rétrocompatibilité. Les émetteurs-récepteurs OSFP, qui sont également conçus pour le 800G, peuvent également avoir une durée de conservation plus longue. Chaque E/S ASIC doit être mappée via l’émetteur-récepteur à un port optique individuel pour maintenir le radix du commutateur. L'infrastructure de câblage doit également mapper ces ports optiques aux liaisons de serveur.
Câblage et architecture : Les chemins de câbles doivent prendre en compte les câbles à très grand nombre de fibres optiques, en particulier dans les interconnexions du réseau de base et du centre de données. Tirer parti des nouvelles conceptions de câblage avec des empreintes réduites, comme la fibre de ruban de 200 microns et roulant, permettra de minimiser les problèmes d’acheminement des câbles et de rayon de courbure. Quelle que soit leur taille, les centres de données vierges doivent se préparer aux architectures cloud. Cela implique un chemin direct optimisé pour la communication serveur à serveur à l’aide d’une architecture « feuille-spine ». Cette conception permet aux applications sur n'importe quel appareil de calcul et de stockage de fonctionner ensemble de manière prévisible et évolutive, quel que soit leur emplacement physique au sein du datacenter. La structure a une redondance inhérente, car plusieurs ressources de commutation sont réparties dans le centre de données pour aider à garantir une meilleure disponibilité des applications. La bande passante totale du tissu peut être calculée en multipliant le nombre de ports de périphérie par la vitesse des ports de périphérie, ou le nombre de ports de colonne vertébrale par la vitesse des ports de colonne vertébrale. S’il n’y a pas de surabonnement, ces deux chiffres seront les mêmes.
De nombreuses installations existantes ont été conçues comme des lignes réseau MPO à 8, 12 ou 24 sous-unités de fibres optiques à faible perte ou ultra-faible perte. Les applications 400G et 800G sont toutefois optimisées à l’aide de 16 fibres optiques vers l’émetteur-récepteur. Alors que les conceptions à 16 fibres simplifient la migration et les dérivations pour les applications vierges, les installations existantes construites avec des jonctions de sous-unités à huit, 12 ou 24 fibres peuvent toujours prendre en charge les applications octales plus rapides.
Voici quelques éléments à prendre en compte pour décider de la configuration la plus logique : performances de perte de canal, nombre de fibres optiques entre les terminaux, type de fibre (SM, OM4, OM5), polarité, longueurs de câble de jonction MPO et sexe.
Les performances des canaux, y compris IL et RL, doivent être testées et documentées à l’aide d’un équipement de test portatif pour répondre aux exigences des applications SM et MM. Une application CommScope comme le calculateur de performance de fibre optique SYSTIMAX peut être exécutée pour vérifier les performances du canal comme point de départ.
Douze câbles de jonction de sous-unités en fibres sont disponibles depuis les années 1990. À l’époque, ils étaient efficaces pour les applications duplex. Au fur et à mesure que le secteur est passé des applications duplex aux applications multipaires avec connecteurs MPO, des sous-unités à 16 fibres à huit, 24 et (plus récemment) ont été ajoutées. Il s’agit d’ajouts bienvenus, car la prise en charge des nouvelles applications octales nécessite un nombre suffisant de fibres optiques entre les terminaux. Dans certains cas, les datacenters peuvent tirer parti de leur câblage existant pour répondre aux nouvelles demandes, en supposant que le nombre de fibres optiques agrégées dans le canal entre les emplacements permet la transition. Si le nombre de fibres entre les emplacements s’aligne sur les regroupements à 16 ou 8 fibres, la transition vers les ports réseau peut être effectuée à l’aide de câbles de dérivation.
Par exemple, un canal vérifié constitué de 144 fibres dans un câble de liaison entre des panneaux avec des ports LC duplex comme interface avant peut se terminer à un émetteur-récepteur à l’aide d’un câble de réseau de huit connecteurs LC duplex vers MPO16 (Figure 15). Le canal à 144 fibres peut prendre en charge jusqu’à neuf de ces câbles de réseau dans une seule RU. D’autres options de baie, qui gèrent ces canaux fibre optique, peuvent également permettre la connectivité. De même, les ports à 16 fibres peuvent se diviser en ports de serveur duplex à l’extrémité distante.
Figure 15 : Ports de commutation à 16 fibres connectés via un canal traditionnel
À titre d’exemple, la figure 16 montre un canal vérifié constitué de 144 fibres dans un câble de jonction entre les panneaux avec des ports LC duplex comme interface avant.
Figure 16 : Ports de commutateur à 16 fibres répartis sur les ports de serveur duplex
Il existe également des applications 400G et 800G qui divisent huit voies de 50G ou 100G en applications 2 x 4 voies pour les déploiements 200G ou 400G. Pour ces applications, les connexions pour les jonctions MPO8 héritées peuvent utiliser des ensembles de matrice MPO16 à 2x MPO8, comme illustré à la Figure 17.
Figure 17 : 2 baies MPO8-to-MPO16
Une autre façon de permettre aux ensembles de conversion d’utiliser pleinement la fibre existante est de raccorder les câbles de jonction aux adaptateurs en ligne. Cela est efficace pour utiliser les fibres existantes, mais peut présenter des défis en matière de gestion des câbles. S’ils ne sont pas mis en œuvre correctement, les longueurs de dérivation et les emplacements des ports peuvent bloquer la capacité. Assurez-vous que les ports sont localisés et situés dans un rack ou une armoire pour permettre une utilisation complète.
Mise en garde concernant les connexions brochées et non brochées : Étant donné qu’un émetteur-récepteur à base de MPO est doté de broches d’alignement internes, son équipement de connexion ou son câble de raccordement doit être non broché du côté de l’équipement. Si vous utilisez des câbles de conversion MPO, utilisez un adaptateur pour connecter l’extrémité opposée du câble au câble principal. Si les connexions des câbles de jonction sont également brochées, les câbles de conversion doivent être non brochés à non brochés. Si les câbles de jonction ne sont pas brochés, l’extrémité correspondante du câble d’équipement doit être brochée. Les techniciens devront s’assurer que l’extrémité appropriée est connectée de chaque côté afin d’éviter d’endommager l’optique à partir d’un cordon broché.
Un mot sur la polarité : Alors que l’industrie est passée à la polarité de la méthode B pour sa simplicité dans la connectivité duplex et multifibres, d’autres schémas de polarité hérités sont toujours déployés dans les centres de données. Si les performances et le nombre de fibres du canal installé répondent aux besoins de l’application, des câbles de transition personnalisés peuvent être utilisés pour se connecter aux émetteurs-récepteurs à grande vitesse.
Ressources supplémentaires :
Guide de commande : Plateforme fibre optique et de connectivité propel
802.3bs
L’IEEE a introduit plusieurs nouvelles normes permettant des applications 400G. Une décision importante a été prise d’introduire un nouveau schéma de modulation, PAM4. PAM4 permet aux voies électriques et optiques de progresser vers des vitesses plus élevées que celles qui étaient pratiques avec la modulation NRZ traditionnelle. PAM4 double efficacement les taux de voie, de 25G à 50G, ainsi que le nombre de voies, de quatre à huit. Par conséquent, les émetteurs-récepteurs optiques 400G sont désormais normalisés.
802,3 cm
Cette norme, qui traite la 400G sur MMF, a introduit la prise en charge de quatre paires (400GBASE-SR4.2) et huit paires (400GBASE-SR8). Les deux applications utilisent des VCSEL, qui continuent de fournir une bande passante plus élevée tout en maintenant des conceptions de coûts et de puissance plus faibles que les alternatives SMF. SR4.2 et SR8 utilisent également les émetteurs-récepteurs MMF à courte portée de 100 m conçus pour les liaisons de serveur à haut volume et à grande vitesse. Ceci est notable car, à mesure que la vitesse augmente, les câbles en cuivre doivent devenir plus courts. Dans le même temps, des capacités de radix plus élevées permettent de réduire les couches réseau en éliminant les commutateurs TOR. Une connexion optique-serveur MMF à faible coût prend en charge cette conception et permet d’économiser de l’argent.
802.3ck (ébauche)
Avec l’introduction de PAM4, une étape suivante pour prendre en charge des vitesses plus élevées consiste à augmenter le taux de voie des signaux électriques et optiques à 100G. C’est l’objectif de la norme 802.3ck en attente. Une fois achevée, cette norme aura un impact positif sur le coût par bit pour les applications 400G et activera les modules 800G (le taux MAC 800G est proposé via le groupe d’étude IEEE Beyond 400G). Cette norme est presque terminée et devrait être terminée dans 2022.
802,3 cu
Le protocole 802.3cu a introduit des modules 100G et 400G (basés désormais sur les voies 100G) et a ajouté des options DR, FR, LR, ER. Les options de nomenclature incluent désormais le nombre de voies ; 400GBASE-FR4 définit quatre voies de 100G sur quatre longueurs d’onde en utilisant deux fibres optiques d’une portée de 2 km (le F). Le groupe de travail n’a pas pu convenir d’une portée de 10 km (pour le LR4) et d’une distance maximale de 6 km. Par conséquent, une nouvelle nomenclature (400GBASE-LR4-6) a été créée dans laquelle « 6 » signifie 6 km, par rapport au « L » commun, ce qui signifie une portée de 10 km.
Bien que la norme 802.3cu ait été achevée avant la norme 802.3ck, la vue à long terme voit les voies électriques 100G correspondre aux voies optiques 100G. Cela réduira le besoin d’appariement du taux de boîte de vitesses, requis pour les normes 25G et 50G. L’interface optique commune devrait fusionner avec la 100G à l’avenir, facilitant ainsi la rétrocompatibilité sur plusieurs générations ASIC.
802,3 db (ébauche) :
Au moment de la rédaction, le groupe de travail 802.3db continue d’ajouter des mises en œuvre MMF qui augmentent celles de 802.3cm. Ces nouvelles implémentations augmentent les taux de voie à 100G avec un nombre de voies de huit, ouvrant ainsi la voie à 400G et 800G sur 100 m d’OM4. Les connexions au serveur MMF sont une priorité. Compte tenu du volume élevé de ces connexions, le coût de l’optique est important. Étant donné que de nombreux serveurs vers des liaisons de niveau 1 (feuille) seront probablement en rangée et très courts, 802.3db cherche à optimiser les applications de moins de 50 m. L’ajout de « VR » à la nomenclature identifie la portée de 50 m, tandis que SR continuera à indiquer une portée de 100 m. Les applications anticipées incluent le 400GBASE-SR4 utilisant huit fibres optiques, les optiques QSFP-DD restant à huit voies pour correspondre à la capacité d’E/S ASIC. Ainsi, les implémentations à 16 fibres seront utilisées pour le SR4 2X400G. Une capacité de 800G est également disponible. Mais, étant donné qu’il n’y a pas de MAC IEEE 800G pour le moment, cette norme ne traitera pas encore 800GBASE-SR8.
Passage au 800G
Les choses se déplacent rapidement et, en cas d’alerte, elles viennent de sauter à nouveau. La bonne nouvelle est que, entre les organismes de normalisation et l'industrie, des développements significatifs et prometteurs sont en cours, qui permettront aux datacenters d'atteindre 400G et 800G dans un avenir proche. Cependant, éliminer les obstacles technologiques n’est que la moitié du défi. L’autre est le timing. Avec des cycles de rafraîchissement tous les deux à trois ans et de nouvelles technologies en ligne à un rythme accéléré, il devient plus difficile pour les opérateurs de planifier correctement leurs transitions, et plus coûteux s’ils ne parviennent pas à bien faire les choses. Voici quelques éléments à garder à l’esprit lorsque vous planifiez les changements à venir.
Avec des E/S 100G doublant la vitesse des ports de commutation, les mêmes stratégies de câblage 400G et le MMF à bande passante plus élevée peuvent prendre en charge la transition vers les modules 800G. Le MSA enfichable 800G capitalise sur l’introduction de modules octaux et de voies électriques 100G pour développer des accords de mise en œuvre pour les applications optiques 800G. Les ingénieurs se déplacent rapidement pour ajouter une prise en charge des options de répartition telles que 2x400, 4x200 et 8x100 ; cependant, les applications nécessitant un MAC 800G sont limitées à l’heure actuelle.
L’IEEE a lancé un groupe d’étude pour aider à passer au prochain plateau de taux Ethernet plus élevés. La 800G est certainement sur la carte, et un chemin vers 1.6 T et au-delà est également en cours d’exploration. Au début du travail, de nombreux nouveaux objectifs sont introduits. Ce groupe d’étude participe largement à l’industrie, y compris les plus grands opérateurs de réseaux qui considèrent les normes comme nécessaires à l’écosystème du réseau.
Il est très possible que ces normes soient utilisées pour développer de nouvelles stratégies de module pour atteindre 1.6 T. L’Optical Internetworking Forum (OIF) travaille désormais sur un moteur optique 3.2 T, une version miniaturisée d’un émetteur-récepteur optimisé pour être « co-emballé » à côté de l’ASIC de commutation.
Les consortiums d’accords multi-sources (MSA) du secteur sont impliqués dans des efforts continus pour accélérer le développement et l’adoption de technologies de réseau nouvelles ou nouvelles. Dans certains cas, comme l’ajout de mises en œuvre 800G, les efforts de MSA peuvent entraîner le développement de nouvelles technologies avant l’achèvement des normes du secteur.
MSA enfichable 800G
Dans septembre 2019, un MSA enfichable 800G a été formé. Le travail IEEE sur les VCSEL 100G est toujours en cours, la MSA a donc choisi de travailler sur un remplacement monomode à faible coût pour les options populaires de MMF SR 8x100G. L'objectif est de fournir une solution SR8 800G à faible coût et de premier plan qui permettrait aux centres de données de prendre en charge des applications de serveur à faible coût. Le module enfichable 800G prendrait en charge l’augmentation des radix de commutation et la diminution du nombre de serveurs par rack
Figure 18 : Modules 8x100, 2x400 GbE
MSA BiDi 400G
En juillet 2018, le 400G BiDi MSA a été créé pour promouvoir l’adoption d’émetteurs-récepteurs optiques 400G interopérables pour un transport bidirectionnel de 100 m sur MMF. Dans septembre 2019, le MSA a annoncé la publication de la version 1.0 de sa spécification 400G-BD4.2 pour une interface optique 400G de plus de 100 m de MMF. La spécification exploite le BiDi 100G pour les applications Ethernet et est compatible avec l’infrastructure de câblage MMF parallèle largement déployée. La norme 400G-BD4.2 s'adresse aux applications à courte portée, y compris aux grandes portées critiques dans les datacenters modernes entre les commutateurs. Bien que ces étapes soient importantes, elles ne font pas progresser la technologie au-delà de la norme IEEE 802.3cm.
Figure 19 : MMF Bi-Di et SMF 400G
MSA Lambda 100G
Dans octobre 2020, le groupe MSA Lambda 100G a annoncé sa spécification Ethernet 400 Gigabit qui prend en charge la transmission PAM4-enabled, 100G-per-wavelength jusqu’à 10 km. La norme 400G-LR4-10 est destinée aux liaisons monomodes duplex jusqu’à 10 km. Il repose sur le multiplexage de quatre longueurs d’onde de signaux optiques 100G PAM4-modulated. Entre autres choses, il assure l’interopérabilité multifournisseur pour les émetteurs-récepteurs optiques dans divers facteurs de forme. Actuellement, le groupe MSA Lambda 100G traite des spécifications à portée étendue au-delà de 10 km.
Figure 20 : PAM4 QSFP lambda simple
OSFP MSA
L’OSFP MSA a été créé en novembre 2016 pour se concentrer sur la définition d’un facteur de forme de module enfichable compatible avec l’avant de nouvelle génération pour les applications de mise en réseau à grande vitesse. Dans mai 2021, le groupe a publié la spécification OSFP 4.0 pour les modules OSFP 800G. Alors que le module OSFP a été conçu dès le début pour prendre en charge le 800G, la spécification OSFP 4.0 ajoute la prise en charge des modules breakout double 400G et octal 100G avec options de connecteur fibre optique double LC, double Mini-LC, double MPO et octal SN/MDC.
Figure 21 : Module OSFP-LS
QSFP-DD MSA
Dans mai 2021, le groupe QSFP-DD MSA a publié la révision 6.0 de sa spécification matérielle QSFP-DD/QSFP-DD800/QSFP112. Les révisions mettent à jour QSFP-DD et introduisent QSFP-DD800 et QSFP112. Les autres modifications incluent la prise en charge des interfaces hôtes électriques 100G et l’ajout des définitions mécaniques et de carte QSFP-DD800 et QSFP112. Il ajoute également une temporisation électrique et de gestion QSFP112 et prend en charge une puissance nominale de module supérieure de 25 watts.
Figure 22 : Émetteur-récepteur QSFP-DD
Au-delà de 800G (1.6 T)
La peinture étant encore humide sur les modules 400G et 800G, la course aux 1.6 T et 3.2 T a déjà commencé. Il y a des défis techniques à résoudre et des normes et alliances à construire avant d’y arriver. Les ingénieurs en conception optique continuent de peser le coût et le risque d’augmentation des taux de voie par rapport à l’ajout de voies supplémentaires. Quoi qu’il en soit, l’industrie aura besoin de tous ses outils pour atteindre les vitesses de réseau suivantes.
De nombreux opérateurs de datacenters de grande taille constatent un besoin urgent d’augmenter l’efficacité du réseau tout en définissant des délais de mise en œuvre extrêmement difficiles. La question du pouvoir continue de s’étendre au secteur et d’avoir un impact sur chaque décision. La consommation d'énergie est une taxe lourde que les réseaux imposent aux applications de datacenter, et elle deviendra plus lourde à mesure que nous envisagerons les vitesses de réseau futures. L’augmentation de la capacité des liaisons est un outil important utilisé pour améliorer l’efficacité, mais, bien sûr, la technologie pour y parvenir doit évoluer continuellement. La Figure 23 montre les améliorations de coûts et d’énergie qui sont attendues à mesure que les vitesses migrent plus haut.
Figure 23 : Une vitesse plus élevée réduit le nombre de liaisons requises et la puissance par bit pour les réseaux de datacenter.
Les optiques co-emballées (CPO) représentent une excellente occasion de réduire les besoins en puissance à quelques pico-joules et de définir une voie vers des vitesses d'E/S optiques 3.2 T supérieures. Pour y parvenir, il faut résoudre certains défis techniques difficiles et réinventer la chaîne d’approvisionnement des réseaux et son fonctionnement. Si tout se met en place, nous pourrions voir des CPO disponibles dans le commerce dans 2025 cas ; sinon, ce calendrier pourrait être repoussé.
Figure 24 : QSFP-XD 16 voies avec 100G par voie
D’autre part, il existe un chemin qui verrait les modules enfichables évoluer pour répondre à ces vitesses de réseau sans avoir besoin de CPO. La présentation d’Andy Bechtolsheim à l’OFC 21 a ouvert la voie à une compétition entre CPO et les pluggables avec l’introduction d’un nouvel OSFP-XD MSA. S’appuyant sur les spécifications du module OSFP 800G, l’OSFP-XD MSA double le nombre de voies de huit à 16. Ces voies fonctionneront à 100G et fourniront une capacité de module de 1.6 T. L’idée est que le défi électrique ASIC-module peut être résolu avec une technologie connue. L’estimation de la puissance est de ≈10 pJ, ce qui la place dans la plage cible pour la génération 1.6 T. Le délai de mise sur le marché est plus court et avec moins de risques par rapport au CPO.
Figure 25 : L’OSFP MSA a introduit la spécification de nouvelle génération « OSFP-XD » ou une densité supplémentaire avec 16 E/S électriques et une capacité attendue de 200G/voie
Comme le montre la Figure 26, atteindre 3.2 T nécessitera très probablement des voies électriques/optiques de 200G (16 * 200G). Si le débit de voie n’augmente pas, le nombre de fibres parallèles ou de longueurs d’onde devrait doubler, et ces deux options ne sont pas souhaitables (et peut-être pas réalisables).
Considérez que l'augmentation des débits des voies électriques est un travail difficile. Le groupe de travail IEEE802.3ck travaille sur cette norme électrique 100G depuis mai 2019 et devrait actuellement terminer son travail fin 2022. Un nouveau projet IEEE va passer aux étapes suivantes, y compris la signalisation électrique 200G. Ce travail sera probablement très difficile, et les estimations actuelles suggèrent que cette technologie pourrait être prête dans 2025.
Quel que soit le chemin initial, les modules enfichables ou CPO, les E/S électriques 200G semblent être une étape nécessaire. Les défenseurs de la CPO considèrent leur voie vers la 200G comme la prochaine étape naturelle, compte tenu des avantages de leur architecture. Cependant, ceux qui défendent l’approche du module pensent pouvoir faire évoluer l’OSFP-XD pour qu’il soit compatible avec la 200G. Selon eux, la réduction du nombre de nœuds permet d'atteindre l'objectif global, car les progrès du silicium réduiront les besoins en énergie.
Ce que nous savons, c'est que les E/S 200G sont essentielles pour que les datacenters puissent faire évoluer avec succès leur bande passante de commutateur et l'efficacité de leur structure réseau. De plus, des vitesses de voie optique plus rapides sont essentielles pour réduire le coût global et améliorer l'efficacité énergétique. Les modules et les CPO fournissent tous deux des chemins potentiels vers les voies 200G. Les deux chemins sont difficiles et risqués, mais il faut trouver un chemin à suivre.
À des voies optiques de 200G (même la fibre monomode), la capacité de portée sera réduite au point que les topologies actuelles basées sur une portée de 2 km peuvent être à risque. Peut-être que, à l’approche de ces vitesses plus élevées, nous verrons d’autres technologies devenir plus attrayantes. Une possibilité est que les modules enfichables cohérents deviennent plus rentables et plus économes en énergie. Nous pouvons également voir l’introduction de modules plus cohérents dans les applications DC/DCI à mesure que les vitesses continuent d’augmenter.
Figure 26 : Tendances de capacité 2014-2024
Conclusions
Certes, il y a une longue liste de choses à prendre en compte concernant une migration à grande vitesse vers 400 Gbit/s et au-delà. La question est : que devez-vous faire ? Une excellente première étape consiste à faire le point sur ce que vous avez dans votre réseau aujourd’hui. Comment est-il actuellement conçu ? Par exemple, vous avez des panneaux de brassage et des câbles de jonction entre les points, mais qu’en est-il des connexions ? Vos câbles de jonction ont-ils des broches ou non ? Le choix de l’épingle correspond-il aux émetteurs-récepteurs que vous prévoyez d’utiliser ? Considérez les transitions dans le réseau. Utilisez-vous MPO-duplex, un seul MPO à deux MPO ? Sans informations détaillées sur l’état actuel de votre réseau, vous ne saurez pas ce qu’implique son adaptation aux applications de demain.
En parlant des applications futures, à quoi ressemble la feuille de route technologique de votre organisation ? De combien de pistes avez-vous besoin pour préparer votre infrastructure à prendre en charge les exigences en constante évolution en matière de vitesse et de latence ? Disposez-vous du nombre et de l’architecture de fibres optiques adéquats ?
Ce sont toutes les choses que vous envisagez peut-être déjà, mais qui d’autre est à la table ? Si vous faites partie de l’équipe réseau, vous devez dialoguer avec vos homologues du côté infrastructure. Ils peuvent vous aider à comprendre ce qui est installé, et vous pouvez les alerter des exigences et plans futurs qui pourraient être plus longs dans la route.
Enfin, il n’est jamais trop tôt pour faire appel à des experts extérieurs qui peuvent vous donner une nouvelle paire d’yeux et une perspective différente. Bien que personne ne connaisse mieux vos besoins que vous, un expert indépendant est plus susceptible de mieux gérer les technologies existantes et émergentes, les tendances de conception et les meilleures pratiques.
Solutions de centre de données d’entreprise
Solution
Data centers Cloud et Hyperscale
Solution
Data centers en colocation
Solution
Fournisseurs de services pour centres de données
Connaissances approfondies
Fibre optique multimode : le dossier d’information
Ressources
Bibliothèque de migration haut débit
Infos sur les spécifications
OSFP MSA
Infos sur les spécifications
QSFP-DD MSA
Spécification
Matériel QSFP-DD
Connaissances approfondies
Migration vers des débits 400G/800G : dossier d’information - Partie I
À première vue, le domaine des partenaires d’infrastructure potentiels qui s’attaquent à votre entreprise semble assez encombré. Il n’y a pas de pénurie de fournisseurs prêts à vous vendre des fibres optiques et de la connectivité. Mais lorsque vous vous rapprochez et réfléchissez à ce qui est essentiel pour la réussite à long terme de votre réseau, les choix commencent à se réduire. C’est parce qu’il faut plus que de la fibre et de la connectivité pour alimenter l’évolution de votre réseau... beaucoup plus. C’est là que CommScope se démarque.
Une performance éprouvée : L’histoire de l’innovation et des performances de CommScope s’étend sur 40plusieurs années, notre fibre monomode TeraSPEED® a été lancée trois ans avant la première norme OS2, et notre multimode large bande pionnier a donné naissance au multimode OM5. Aujourd’hui, nos solutions de fibre optique et cuivre end-to-end et l’intelligence AIM prennent en charge vos applications les plus exigeantes avec la bande passante, les options de configuration et les performances à perte ultra faible dont vous avez besoin pour croître en toute confiance.
Agilité et adaptabilité : Notre portefeuille modulaire vous permet de répondre rapidement et facilement aux demandes changeantes de votre réseau. Ensembles de câbles monomodes et multimodes préconnectorisés, panneaux de brassage hautement flexibles, composants modulaires, connectivité MPO 8à 24 fibres 12et 16-, connecteurs duplex et parallèles à très faible facteur de forme. CommScope vous maintient rapide, agile et opportuniste.
Tourné vers l’avenir : Lorsque vous migrez du 100G au 400G, du 800G et au-delà, notre plateforme de migration haut débit offre un chemin clair et gracieux vers des densités de fibres optiques plus élevées, des vitesses de voie plus rapides et de nouvelles topologies. Réduisez les niveaux de réseau sans remplacer l’infrastructure de câblage, passez à des réseaux de serveurs à plus haut débit et à plus faible latence à mesure que vos besoins évoluent. Une plateforme robuste et agile vous emmène d’aujourd’hui à la prochaine.
Fiabilité garantie : Grâce à notre Assurance d’application, CommScope garantit que les liaisons que vous concevez aujourd’hui répondront à vos exigences d’application des années plus tard. Nous soutenons cet engagement avec un programme holistique de service du cycle de vie (planification, conception, mise en œuvre et exploitation), une équipe mondiale d’ingénieurs d’application sur le terrain et la garantie de 25 ans de CommScope.
Disponibilité mondiale et soutien local : L’empreinte mondiale de CommScope comprend la fabrication, la distribution et les services techniques locaux qui s’étendent sur six continents et comprennent des professionnels 20 000 passionnés. Nous sommes là pour vous, quand et où vous avez besoin de nous. Notre réseau mondial de partenaires garantit que vous disposez des concepteurs, installateurs et intégrateurs certifiés pour faire avancer votre réseau.
Forger un chemin vers le 1.6 T
Lisez ce que les datacenters en colocation et hyperscale doivent savoir pour planifier leur passage à 1.6 T avec prévoyance et discernement.