Das Angebot von Supermicro ist für NVIDIAs Blackwell-GPUs optimiert und umfasst eine Reihe von Systemen, darunter die 8-GPU-Systeme NVIDIA HGX B100 und B200 sowie ein flüssigkeitsgekühltes 4U-System. Diese Systeme sollen bahnbrechende Leistung für KI-Training und Inferenz liefern und NVIDIAs KI-Unternehmenssoftware und NIM-Inferenz-Microservices unterstützen.

  • NVIDIA HGX B100 8-GPU und HGX B200 8-GPU Systeme
  • 5U/4U PCIe GPU System mit bis zu 10 GPUs
  • SuperBlade® mit bis zu 20 B100-GPUs für 8U-Gehäuse und bis zu 10 B100-GPUs in 6U-Gehäusen
  • 2U Hyper mit bis zu 3 B100-GPUs
  • Supermicro 2U x86 MGX Systeme mit bis zu 4 B100 GPUs

Supermicro KI-Systeme mit GB200 Grace Blackwell

In Zusammenarbeit mit NVIDIA bringt Supermicro außerdem den NVIDIA GB200 NVL72 auf den Markt, eine Rack-Scale-Lösung, die 36 Grace-CPUs und 72 Blackwell-GPUs kombiniert und eine bis zu 30-fache Beschleunigung für KI-Inferenzaufgaben im Vergleich zu früheren Modellen bietet.

Supermicros Systeme mit NVIDIA B200 und GB200

  • Supermicros luft- und flüssigkeitsgekühlte NVIDIA HGX B200 8-GPU-Systeme, die für höchste generative KI-Trainingsleistung ausgelegt sind. Dieses System verfügt über 8 NVIDIA Blackwell GPUs, die über NVLink der fünften Generation mit einem Pool von 1,5 TB Speicher mit hoher Bandbreite (bis zu 60 TB/s) verbunden sind, um die KI-Trainingslasten zu beschleunigen.
  • Supermicros meistverkauftes AI Training System, das 4U/8U System mit NVIDIA HGX H100/H200 8-GPU, wird NVIDIAs kommende HGX B100 8-GPU unterstützen.
  • Einer Supermicro Rack-Level Lösung mit GB200 Superchip Systemen als Serverknoten mit 2 Grace CPUs und 4 NVIDIA Blackwell GPUs pro Knoten. Die Direct-to-Chip-Flüssigkeitskühlung von Supermicro maximiert die Dichte mit 72 GB200 192GB GPUs (1200W TDP pro GPU) in einem einzigen 44U ORV3 Rack.

Mit diesen Weiterentwicklungen setzt Supermicro in Zusammenarbeit mit NVIDIA die Grenzen der KI-Infrastruktur und -Leistung neu fest.