NVIDIA GB200 NVL72 Infrastruktur und MPO-8 APC Verkabelung für skalierbare Einheiten
Dekonstruktion der Verkabelungsarchitektur einer Blackwell Scalable Unit (SU), wo 8 Racks in 9.216 aktive Glasfaserstränge münden.
Die DGX GB200 Scalable Unit (SU) stellt einen großen Wandel in der Rechenzentrumsarchitektur dar. Die SU ist eine vereinheitlichte 576-GPU-Einheit, die über 9.216 aktive Glasfaserstränge miteinander verbunden ist. ScaleFibre liefert die präzisionsterminierten Trunks, die zur Bewältigung dieser Dichte erforderlich sind.
Die 4 physischen SuperPOD-Fabrics
NVIDIA unterteilt die SU in verschiedene physische Schichten, um den GPU-Verkehr zu isolieren.
MN-NVL (NVLink 5)
Scale-UpDas ‘interne’ Rack-Netzwerk, das 72 GPUs mit 1,8 TB/s verbindet.
- Keine optische Faser
- Passive Kupfer-Backplane
- Blindsteckverbinder
Compute InfiniBand
Scale-OutDas primäre ‘Ost-West’-Fabric für massives Multi-Node-Training.
- 4.608 aktive Fasern pro SU
- Rail-optimierte Topologie
- Quantum-3/Quantum-2
Speicher & In-Band
FrontendEthernet-basiertes Fabric für Hochgeschwindigkeits-Datenerfassung und -Bereitstellung.
- 5:3 Blockierungsfaktor
- BlueField-3 DPU Offload
- VXLAN/RoCE-Unterstützung
OOB Management
SteuerungsebeneDas isolierte Netzwerk für Hardware-Telemetrie, BMC und PDU-Management.
- RJ45/Cat6 Kupfer
- SN2201 Switch-Tier
- Physische Air-Gap-Sicherheit
Exascale SU-Metriken
Eine 8-Rack Scalable Unit stellt den grundlegenden Baustein der NVIDIA AI Factory dar.
9,216
Aktive Fasern pro SU4,608
Nur-Rechen-Stränge5:3
Speicher-Blockierungsverhältnis400G/800G
Native PortgeschwindigkeitenDie drei Ebenen der SU-Konnektivität
Ebene A: Server-zu-Leaf
1.152 Fasern pro Rack unter Verwendung von Hochfaser-Trunks oder Jumpern zur Verbindung von NVL72-Knoten mit Leaf-Switches.
Ebene B: Leaf-zu-Spine
Aggregieren von Rail-ausgerichtetem Datenverkehr innerhalb der SU unter Verwendung von 1:1 nicht-blockierenden Links für Compute.
Ebene C: Spine-zu-Core
Skalierung über die SU hinaus zu einem zentralen Core-Bereich unter Verwendung von Hochfaser-Trunks.
Herkömmliche Patching-Methoden (Punkt-zu-Punkt)
- ✕Manuelle Komplexität: Erfordert 9.216 einzelne Patchkabel pro 8-Rack-Block.
- ✕Luftstrombehinderung: Dichte Kabelbündel blockieren die Abluftwege der Flüssigkeitskühlung.
- ✕Risikoprofil: Hohe Wahrscheinlichkeit von ‘gekreuzten Leitungen’ beim manuellen 1:1-Patching.
- ✕Implementierungszeit: Über 115 Stunden für manuelle Verkabelung und Beschriftung pro SU.
Modulare Hochfaserzahl-Trunkverkabelung
- ✓Plug-and-Play: Konsolidiert Tausende von Fasern in vor-terminierten, maßgeschneiderten 128F/144F/256F/288F/576F-Trunks.
- ✓Thermische Optimierung: Kabel mit kleinem Durchmesser maximieren den Luftstrom in dichten Racks.
- ✓Wegeffizienz: Konsolidiert 1.152 aktive Fasern pro Rack in MPO-Backbones mit hoher Faserzahl.
- ✓Installationsprofil: Schnelle Bereitstellung mittels vor-terminierter, werkseitig getesteter Baugruppen.
Wachstum der aktiven Fasern: Knoten zu vollständigem SuperPOD
VerkabelungskomplexitätScalable Unit visualisiert
Der 8-Rack Compute Block
Eine NVIDIA GB200 SU (Scalable Unit) besteht aus 8 Racks, die jeweils ein DGX GB200 NVL72 System mit 72 GPUs beherbergen.
Hochfaser-Trunk-Verteilung
Konsolidierung Tausender Rack-Fasern in hochdichte Trunks zur Freihaltung des Luftstroms, schnellen Installation und minimalen Kabelwegnutzung.
Flüssigkeitskühlung
Flüssigkeitsgekühlte Cold Plates stabilisieren die Tray-Umgebung, wodurch OSFP-Transceiver Wärme über mitlaufende Kühlkörper effektiv abführen können.
Technical FAQ
Architektieren Sie Ihre AI-Fabrik
ScaleFibre liefert vor-terminierte Verkabelungslösungen für NVIDIA DGX SuperPOD-Implementierungen.
Kontakt aufnehmenErhalten Sie Details zu Hochfaser-Trunks für Ihre NVIDIA DGX SU.


