8 april 2026
De Nvidia H100 bestaat in twee uitvoeringen: de SXM5- en de PCIe-variant. Het grootste verschil zit in de manier waarop de GPU verbinding maakt met de rest van het systeem. De SXM5 gebruikt een eigen socket met NVLink voor een extreem hoge bandbreedte tussen meerdere GPU’s, terwijl de PCIe-variant via een standaard PCIe-slot in vrijwel elke server past. Voor zware multi-GPU-AI-training is de SXM5 de beste keuze; voor flexibele inferentie of kleinere workloads is de PCIe H100 vaak meer dan voldoende.
Het kernverschil tussen de H100 SXM5 en de H100 PCIe zit in de verbindingstechnologie en de bijbehorende geheugenbandbreedte. De SXM5 is via een SXM-socket op een speciaal moederbord gemonteerd, wat hogere vermogenslimieten en directe NVLink-verbindingen mogelijk maakt. De PCIe-variant past in een standaard PCIe Gen5-slot en werkt in een veel bredere selectie servers.
In de praktijk betekent dit dat de SXM5 beschikt over een geheugenbandbreedte van circa 3,35 TB/s via HBM3, terwijl de PCIe-versie uitkomt op circa 2 TB/s. Beide varianten hebben 80 GB HBM-geheugen, maar de snelheid waarmee data naar en van de GPU stroomt, verschilt aanzienlijk. Voor workloads waarbij GPU’s intensief met elkaar moeten communiceren, maakt dit een groot verschil in doorvoer en latentie.
NVLink is Nvidia’s eigen interconnecttechnologie waarmee meerdere GPU’s direct met elkaar communiceren zonder via de CPU of de PCIe-bus te gaan. Bij de H100 SXM5 levert NVLink 4.0 een totale bidirectionele bandbreedte van 900 GB/s tussen GPU’s. Dat is een veelvoud van wat PCIe kan bieden, en precies wat grootschalige AI-modellen nodig hebben.
Wanneer je acht H100 SXM5-kaarten combineert in een systeem, vormen ze via NVLink een gedeeld geheugendomein van 640 GB. Een AI-model dat groter is dan het geheugen van één GPU kan dan naadloos over meerdere kaarten worden verdeeld. Bij PCIe-GPU’s verloopt die communicatie via de PCIe-bus, wat trager is en vaker een knelpunt vormt bij grote modellen of intensieve training.
Voor inferentie op kleinere modellen merk je dit verschil nauwelijks. Maar zodra je werkt met grote taalmodellen, diffusion models of wetenschappelijke simulaties waarbij GPU’s continu data uitwisselen, is NVLink de reden waarom de SXM5 structureel sneller presteert.
Met een PCIe H100 lever je vooral in op inter-GPU-bandbreedte en maximaal trainingstempo bij grootschalige workloads. De rekensnelheid van de GPU-kern zelf is vergelijkbaar, maar de lagere geheugenbandbreedte en de beperktere GPU-naar-GPU-communicatie zorgen ervoor dat de PCIe-variant bij parallelle training meetbaar trager is.
Concreet: bij single-GPU-taken of inferentie is het prestatieverschil klein. Zodra je meerdere GPU’s nodig hebt die intensief samenwerken, loopt het verschil op. De PCIe-variant heeft ook een lager TDP, wat in sommige gevallen een voordeel is voor koeling en stroomverbruik, maar in een high-performance-omgeving betekent het ook minder ruimte voor sustained performance onder zware belasting.
Het is geen slechte GPU, integendeel. Maar als je een systeem bouwt voor het trainen van grote modellen op schaal, moet je realistisch zijn over wat PCIe kan leveren vergeleken met een volledig NVLink-systeem.
Een PCIe H100 is de betere keuze wanneer je flexibiliteit, lagere kosten of brede servercompatibiliteit belangrijker vindt dan maximale multi-GPU-prestaties. Dit geldt specifiek voor inferentieworkloads, kleinere modellen of omgevingen waar je niet acht GPU’s tegelijk nodig hebt.
Typische situaties waarin de PCIe-variant goed past:
De PCIe H100 is ook interessant voor organisaties die nog niet zeker weten hoe hun AI-workloads zich gaan ontwikkelen. De lagere instapprijs en de bredere compatibiliteit geven meer ruimte om te experimenteren voordat je investeert in een volledig SXM5-platform.
De H100 SXM5 is de juiste keuze wanneer je werkt met grootschalige AI-training, grote taalmodellen of wetenschappelijke berekeningen waarbij meerdere GPU’s continu en snel met elkaar moeten communiceren. Zodra je meer dan twee GPU’s tegelijk nodig hebt voor één workload, is de SXM5 vrijwel altijd de betere investering.
Denk aan situaties zoals:
De hogere prijs van SXM5-systemen is een reële overweging, zeker gezien de marktdynamiek rondom Nvidia-hardware. Door schaarste en de grote vraag vanuit hyperscalers en AI-bedrijven zijn de prijzen van SXM5-systemen de afgelopen jaren sterk gestegen. Maar voor organisaties waarbij trainingstijd direct doorwerkt in projectdoorlooptijden of operationele kosten, verdient de SXM5 zichzelf terug in efficiëntie.
De H100 SXM5 vereist specifieke serverplatforms die zijn ontworpen rond het SXM-socketformaat en de bijbehorende koeling en stroomvoorziening. De bekendste configuratie is een systeem met acht SXM5-kaarten die via een NVLink Switch met elkaar zijn verbonden, zoals Supermicro’s SYS-821GE-TNHR. De PCIe H100 past in elk systeem met voldoende PCIe Gen5-slots en adequate koeling.
Supermicro biedt gespecialiseerde 4U- en 8U-systemen voor de H100 SXM5, inclusief kant-en-klare HGX-platforms. Deze systemen zijn ontworpen voor maximale GPU-dichtheid en thermisch beheer bij de hoge TDP van SXM5-kaarten. Ze vereisen doorgaans een dedicated stroominfrastructuur en zijn bedoeld voor datacenters of colocatie-omgevingen.
Voor de PCIe H100 biedt Supermicro een breed scala aan GPU-servers, van 1U-systemen met twee GPU’s tot 4U-configuraties met acht PCIe-kaarten. Deze systemen zijn flexibeler inzetbaar en vereisen minder gespecialiseerde infrastructuur. Ze zijn populair bij organisaties die GPU-capaciteit willen toevoegen aan een bestaand datacenter zonder de volledige investering in een SXM5-platform.
De keuze tussen H100 SXM5 en PCIe draait om drie vragen: hoe groot zijn je modellen, hoeveel GPU’s werken tegelijk samen, en wat is je budget? Beantwoord je die drie vragen eerlijk, dan wijst de keuze zichzelf uit.
Een praktisch besliskader:
Wij bij NCS International helpen je dagelijks bij dit soort beslissingen. Als grootste en oudste Supermicro-distributeur van Nederland kennen we het volledige Supermicro-portfolio van binnen en van buiten, inclusief alle GPU-serverplatforms voor zowel SXM5- als PCIe H100-configuraties. We configureren elk systeem volledig op maat, zodat je niet betaalt voor wat je niet nodig hebt, maar ook niet vastloopt op wat je later wél nodig hebt. Neem contact op en leg ons je workload voor, dan denken we met je mee.
Een directe upgrade van PCIe naar SXM5 is niet mogelijk, omdat de twee varianten fundamenteel verschillende serverplatforms vereisen. Je zou in dat geval een volledig nieuw SXM5-systeem moeten aanschaffen. Het is daarom verstandig om bij je initiële aanschaf al rekening te houden met je verwachte groei, zodat je niet onnodig investeert in een platform dat je later moet vervangen.
De H100 SXM5 heeft een TDP van circa 700W per kaart, terwijl de PCIe-variant uitkomt op circa 350W. In een systeem met acht SXM5-kaarten praat je al snel over 5,6 kW aan GPU-vermogen alleen, exclusief moederbord, opslag en koeling. Voor een SXM5-platform heb je dus een datacenter of colocatie-omgeving nodig met voldoende stroomcapaciteit en actieve koeling; dit is iets om vooraf goed in kaart te brengen met je facilitair team.
Nee, NVLink is bij de H100 exclusief beschikbaar voor de SXM5-variant. PCIe H100-kaarten communiceren onderling via de standaard PCIe-bus of via NVLink Bridge, wat een beperktere bandbreedte biedt dan de volledige NVLink-implementatie in SXM5-systemen. Als GPU-naar-GPU-bandbreedte kritiek is voor jouw workload, is de SXM5 de enige optie binnen de H100-generatie.
Een veelgemaakte fout is het onderschatten van de infrastructuurvereisten: organisaties schaffen een SXM5-systeem aan zonder dat hun datacenter de benodigde stroom- en koelcapaciteit heeft. Een andere valkuil is het kiezen van de PCIe-variant puur op basis van prijs, terwijl de workload al snel multi-GPU-samenwerking vereist. Zorg dat je je workload grondig in kaart brengt voordat je een beslissing maakt, en laat je adviseren door een partij die het volledige Supermicro-portfolio kent.
De Nvidia B200 en GB200 (Blackwell-architectuur) bieden significant hogere prestaties dan de H100, maar zijn op dit moment nog beperkt beschikbaar en aanzienlijk duurder. Voor de meeste organisaties is de H100 nog altijd de meest praktische en beschikbare keuze. Als je nu een infrastructuurbeslissing maakt, is het verstandig om je leverancier te vragen hoe toekomstige upgradepaden eruitzien, zodat je platform niet op korte termijn verouderd is.
Ja, de H100 PCIe is zeer geschikt voor zogenaamde multi-tenant inferentie, waarbij meerdere kleinere modellen gelijktijdig op één GPU draaien. Met 80 GB HBM-geheugen is er ruimte voor meerdere modellen van 7B tot 13B parameters naast elkaar. Tools zoals Nvidia Triton Inference Server helpen je om de GPU-capaciteit efficiënt te verdelen over meerdere workloads.
De levertijd voor H100-systemen varieert sterk afhankelijk van de configuratie en marktbeschikbaarheid. PCIe-systemen zijn doorgaans sneller leverbaar dan SXM5-platforms, die meer gespecialiseerde componenten vereisen. Bij NCS International configureren we systemen volledig op maat en kunnen we je een realistische levertijdindicatie geven op basis van de actuele voorraad en jouw specifieke configuratiewensen.
Den Sliem 89
7141 JG Groenlo
The Netherlands
+31 544 470 000
info@ncs.nl