2 april 2026
De NVIDIA H100 SXM5 is momenteel een van de krachtigste GPU’s die beschikbaar zijn voor AI-training en high-performance computing. Supermicro biedt meerdere serversystemen aan die specifiek voor deze GPU zijn ontworpen, waaronder de SYS-821GV-TNR en systemen uit de A+ Server-lijn, met ondersteuning voor acht H100 SXM5-kaarten per node. Deze systemen combineren hoge geheugenbandbreedte, NVLink-interconnects en snelle netwerkopties om de maximale prestaties uit de H100 SXM5 te halen. Of je nu AI-modellen traint, wetenschappelijk onderzoek uitvoert of grootschalige inferentie draait: er is een Supermicro H100 SXM5-configuratie die bij jouw workload past.
De NVIDIA H100 SXM5 is een datacenter-GPU uit de Hopper-generatie, ontworpen voor de zwaarste AI- en HPC-workloads. De SXM5-variant gebruikt het SXM-socketformaat, wat een hogere stroomlevering en directe NVLink-interconnects mogelijk maakt. Daardoor levert de H100 SXM5 aanzienlijk meer rekenkracht en geheugenbandbreedte dan zijn PCIe-tegenhanger.
De H100 SXM5 beschikt over 80 GB HBM3-geheugen en ondersteunt NVLink 4.0, waarmee meerdere GPU’s in een node kunnen samenwerken als één grote rekeneenheid. Dit maakt de kaart bij uitstek geschikt voor het trainen van grote taalmodellen, wetenschappelijke simulaties, genomicaonderzoek en andere toepassingen waarbij enorme hoeveelheden data razendsnel verwerkt moeten worden. Organisaties die serieus bezig zijn met AI-infrastructuur kiezen dan ook massaal voor de H100 SXM5 als fundament van hun GPU-cluster.
Supermicro biedt specifieke serversystemen aan die zijn ontworpen voor de H100 SXM5, waarvan de SYS-821GV-TNR de bekendste is. Dit 8U-systeem ondersteunt acht H100 SXM5-GPU’s via NVLink en is volledig geoptimaliseerd voor de thermische en elektrische eisen van deze kaarten. Daarnaast biedt Supermicro systemen binnen de A+ Server-lijn voor vergelijkbare GPU-configuraties.
Supermicro onderscheidt zich doordat het een van de eerste fabrikanten is die nieuwe NVIDIA GPU-generaties ondersteunt. Waar merken als HP en Dell hun productlijnen later aanpassen, heeft Supermicro de hardware vaak al klaar voor levering. Dit geeft organisaties die snel willen opschalen of de nieuwste generatie AI-hardware nodig hebben een concreet voordeel. De systemen zijn bovendien modulair opgebouwd, wat betekent dat je ze kunt aanpassen op basis van jouw specifieke netwerk-, opslag- en koelingsbehoeften.
Een Supermicro H100 SXM5-server, zoals de SYS-821GV-TNR, biedt ruimte voor acht NVIDIA H100 SXM5-GPU’s met in totaal 640 GB HBM3-geheugen. Het systeem ondersteunt twee Intel Xeon Scalable-processors van de vierde generatie (Sapphire Rapids), tot 8 TB DDR5-systeemgeheugen en meerdere NVMe-SSD-slots voor snelle lokale opslag.
De H100 SXM5-systemen van Supermicro ondersteunen standaard hogesnelheidsnetwerken zoals InfiniBand HDR en NDR, evenals 100GbE- en 400GbE-Ethernet. Dit is belangrijk voor multi-node GPU-clusters, waarbij de communicatie tussen nodes een knelpunt kan vormen. NVLink 4.0 verbindt de acht GPU’s intern met een totale bandbreedte van 900 GB/s per GPU.
De H100 SXM5 heeft een TDP van 700 watt per kaart, wat betekent dat een volledig bezet 8-GPU-systeem al snel richting de 6 kilowatt aan GPU-vermogen alleen gaat. Supermicro-systemen voor deze GPU zijn uitgerust met directe luchtkoeling of ondersteuning voor directe vloeistofkoeling (DLC), afhankelijk van de configuratie. Dit maakt ze geschikt voor zowel traditionele datacenters als omgevingen met geavanceerde koelinfrastructuur.
Het belangrijkste verschil tussen de H100 SXM5 en de H100 PCIe zit in de interconnect en het prestatieniveau. De SXM5-variant gebruikt het SXM-socketformaat met NVLink 4.0, wat directe GPU-naar-GPU-communicatie met hoge bandbreedte mogelijk maakt. De PCIe-versie communiceert via de standaard PCIe-bus, wat eenvoudiger te integreren is in bestaande serverhardware, maar minder GPU-naar-GPU-bandbreedte biedt.
In de praktijk betekent dit dat de H100 SXM5 beter presteert bij workloads waarbij meerdere GPU’s intensief samenwerken, zoals het trainen van grote taalmodellen. De H100 PCIe is flexibeler inzetbaar in bestaande serverplatforms en is daardoor vaak een betere keuze voor inferentie-workloads of omgevingen waarin je GPU’s wilt toevoegen aan een bestaand systeem. De SXM5-variant vereist een specifiek moederbord en serverplatform, wat de keuze voor een gespecialiseerd systeem zoals de Supermicro SYS-821GV-TNR noodzakelijk maakt.
In één Supermicro H100 SXM5-server passen maximaal acht GPU’s. Dit is het geval bij systemen zoals de SYS-821GV-TNR, waarbij alle acht kaarten via NVLink 4.0 met elkaar verbonden zijn en als één grote rekeneenheid samenwerken. Dit is ook het maximale aantal dat NVIDIA binnen één NVLink-domein voor de H100 SXM5-generatie ondersteunt.
Voor grotere GPU-clusters combineer je meerdere nodes via InfiniBand of hogesnelheids-Ethernet. Zo bouw je schaalbare clusters van tientallen of zelfs honderden GPU’s, waarbij elke node intern maximaal presteert en de nodes onderling efficiënt communiceren. Dit is de standaardbenadering bij grootschalige AI-trainingsinfrastructuur, waarbij de netwerktopologie en de keuze van switches een grote rol spelen in de totale systeemprestaties.
Een Supermicro H100 SXM5-server is het meest geschikt voor workloads die intensief gebruikmaken van GPU-rekenkracht en veel geheugenbandbreedte vereisen. Denk aan het trainen van grote taalmodellen, deep learning-onderzoek, moleculaire simulaties, genomica en financiële risicomodellen. Dit zijn toepassingen waarbij de hoge HBM3-bandbreedte en NVLink-interconnects van de SXM5 het verschil maken.
Naast AI-training is de H100 SXM5 ook uitstekend geschikt voor inferentie bij grote modellen, waarbij de geheugenomvang van 80 GB per GPU het mogelijk maakt om zware modellen volledig in het GPU-geheugen te laden. Universiteiten, onderzoeksinstellingen, ziekenhuizen met beeldverwerkingstoepassingen en technologiebedrijven die eigen AI-modellen ontwikkelen, zijn typische gebruikers van dit type systeem. Ook voor high-performance computing in de energiesector, klimaatmodellering en defensietoepassingen is de H100 SXM5 een sterke keuze.
Bij ons configureer je een Supermicro H100 SXM5-server volledig op maat. Je geeft aan wat je workload is, hoeveel GPU’s je nodig hebt, welke netwerk- en opslagvereisten er gelden en wat je schaalbaarheidsplannen zijn. Wij vertalen dat naar een concrete serverspecificatie die aansluit bij jouw omgeving, nu en in de toekomst.
We werken zonder tussenpersonen. Je hebt direct contact met onze technische specialisten, die precies weten welke Supermicro-systemen beschikbaar zijn en wat de levertijden zijn. Dat is belangrijk in een markt waarin de vraag naar H100 SXM5-hardware het aanbod regelmatig overtreft en prijzen sterk kunnen fluctueren door schaarste en grote inkooporders van hyperscalers. Door vroeg in gesprek te gaan, vergroot je de kans dat je tijdig de hardware krijgt die je nodig hebt.
Als enige Supermicro-distributeur in Nederland met 24/7 on-site garantieservice zorgen wij er ook na levering voor dat jouw systemen operationeel blijven. Wil je weten welke configuratie het beste bij jouw situatie past? Bekijk dan onze oplossingen of neem direct contact met ons op. We denken graag met je mee.
Een volledig bezet 8-GPU-systeem verbruikt al snel 6 tot 7 kilowatt aan GPU-vermogen alleen, dus je datacenter moet beschikken over voldoende stroomcapaciteit (doorgaans 10–15 kW per rack) en adequate koeling. Afhankelijk van de gekozen koelingsmethode — luchtkoeling of directe vloeistofkoeling (DLC) — gelden er specifieke eisen aan de koelinfrastructuur. Het is sterk aan te raden om vóór aanschaf samen met een technisch specialist de rack- en facilitaire vereisten in kaart te brengen.
Je breidt een cluster uit door meerdere nodes te koppelen via InfiniBand (HDR of NDR) of hogesnelheids-Ethernet (100GbE/400GbE), waarbij de keuze van switches en netwerktopologie bepalend is voor de algehele clusterprestaties. Elk systeem blijft intern maximaal presteren via NVLink 4.0, terwijl de inter-node communicatie via het externe netwerk verloopt. Het is verstandig om de netwerktopologie al bij de eerste node mee te ontwerpen, zodat je later zonder grote infrastructuurwijzigingen kunt opschalen.
Luchtkoeling is eenvoudiger te implementeren in bestaande datacenters en vereist geen aanpassingen aan de koelinfrastructuur, maar is minder efficiënt bij zeer hoge vermogensdichtheden. Directe vloeistofkoeling (DLC) is aanzienlijk efficiënter, produceert minder geluid en is beter schaalbaar voor omgevingen met meerdere high-density racks. Kies voor DLC als jouw datacenter al beschikt over de benodigde leidinginfrastructuur, of als je van plan bent meerdere nodes te draaien waarbij de warmteafvoer een knelpunt dreigt te worden.
Ja, de H100 SXM5 is ook uitstekend geschikt voor inferentie, met name voor grote taalmodellen die 80 GB GPU-geheugen per kaart benutten en daardoor volledig in het geheugen geladen kunnen worden. Voor kleinere modellen of lagere inferentievolumes kan een H100 PCIe-configuratie kostenefficiënter zijn. Als je zowel training als inferentie wilt draaien op hetzelfde systeem, is de SXM5-configuratie de meest veelzijdige keuze.
Een veelgemaakte fout is het onderschatten van de infrastructuurvereisten, zoals onvoldoende stroomcapaciteit, koeling of netwerkbandbreedte, waardoor de GPU's niet op volle capaciteit kunnen draaien. Ook wachten met bestellen is een risico: door de hoge vraag en schaarste aan H100 SXM5-hardware kunnen levertijden aanzienlijk oplopen. Zorg er tot slot voor dat je de totale cost of ownership meeneemt, inclusief energie, koeling en onderhoud, en niet alleen de aanschafprijs van de hardware.
Voor AI-training wordt doorgaans gewerkt met NVIDIA CUDA, cuDNN en frameworks zoals PyTorch of TensorFlow, bij voorkeur via de geoptimaliseerde NVIDIA NGC-containers die speciaal zijn afgestemd op Hopper-architectuur GPU's. Voor multi-node training is NCCL (NVIDIA Collective Communications Library) essentieel voor efficiënte GPU-communicatie over InfiniBand of Ethernet. Het is aan te raden om ook NVIDIA DCGM (Data Center GPU Manager) te installeren voor monitoring en beheer van de GPU-gezondheid en prestaties.
NCS is de enige Supermicro-distributeur in Nederland die 24/7 on-site garantieservice aanbiedt, wat betekent dat bij een hardwareprobleem een technicus ter plaatse komt zonder dat je het systeem hoeft op te sturen. Dit is cruciaal voor organisaties die afhankelijk zijn van continue beschikbaarheid van hun AI-infrastructuur. Naast garantie biedt NCS ook technische ondersteuning bij configuratie, ingebruikname en eventuele uitbreidingen van het systeem.
Den Sliem 89
7141 JG Groenlo
The Netherlands
+31 544 470 000
info@ncs.nl