17 april 2026
Een Supermicro 8-GPU HGX-server verbruikt onder volledige belasting doorgaans tussen de 10 en 14 kilowatt, afhankelijk van de GPU-generatie en de systeemconfiguratie. Voor een HGX-platform met acht Nvidia B200- of B300-GPU’s moet je rekenen op voedingseenheden van minimaal 3000 watt per unit, verdeeld over meerdere redundante PSU’s. Daarnaast stelt zo’n systeem hoge eisen aan de datacenterinfrastructuur: denk aan gespecialiseerde stroomaansluitingen, voldoende koelcapaciteit en bij voorkeur vloeistofkoeling voor de warmste componenten.
Of je nu een AI-trainingscluster opzet, een HPC-omgeving uitbreidt of nadenkt over on-premise inferentie met de nieuwste Nvidia-hardware, de stroomvereisten zijn een van de eerste praktische vragen die je moet beantwoorden. In dit artikel lopen we stap voor stap door alles heen wat je moet weten.
Een enkele Nvidia HGX-GPU verbruikt onder volledige belasting tussen de 700 en 1000 watt, afhankelijk van de generatie. De Nvidia B200 heeft een TDP van 1000 watt, terwijl de nieuwere B300 nog hogere vermogens bereikt. Acht van deze GPU’s samen komen daarmee al snel op een GPU-only verbruik van 7000 tot 8000 watt of meer.
Maar de GPU’s zijn niet het enige wat stroom trekt. De CPU’s, het moederbord, de NVMe-opslag, de netwerkkaarten en de koelventilatoren voegen daar nog eens aanzienlijk aan toe. In de praktijk kom je voor een volledig belaste 8-GPU HGX-server al snel uit op een totaal systeemverbruik van 10 tot 14 kilowatt. Bij de nieuwste generatie GPU’s, zoals de Nvidia B300, kan dat nog hoger uitvallen, zeker bij langdurige AI-trainingsworkloads waarbij de GPU’s continu op maximaal vermogen draaien.
Een 8-GPU HGX-server heeft meerdere voedingseenheden met hoog vermogen nodig, typisch zes tot acht PSU’s van 3000 watt of meer per unit. Supermicro-systemen voor dit type workload zijn standaard uitgerust met redundante PSU-configuraties, zodat uitval van één voeding het systeem niet stillegt.
De exacte PSU-configuratie hangt af van het specifieke Supermicro-platform. Systemen als de SYS-821GE-TNHR zijn ontworpen voor precies dit soort zware GPU-werklasten en bieden voldoende vermogensbudget voor acht HGX-GPU’s plus alle overige componenten. Redundantie is hierbij geen luxe, maar een noodzaak: in een productieomgeving wil je geen single point of failure in je stroomvoorziening. Zorg er ook voor dat de PSU’s gecertificeerd zijn voor het vereiste ingangsvoltage in jouw datacenter, want veel high-density systemen werken het efficiëntst op 240 V of zelfs een 380 V-draaifasige aansluiting.
TDP staat voor Thermal Design Power en geeft aan hoeveel warmte een component maximaal produceert onder de zwaarste gecertificeerde belasting. Het werkelijke stroomverbruik kan zowel lager als tijdelijk hoger uitvallen dan de TDP, afhankelijk van de workload, de power-limitinstellingen en de omgevingstemperatuur.
In de praktijk draaien GPU’s bij inferentie-workloads vaak op 60 tot 80 procent van hun maximale TDP. Bij intensieve AI-training, waarbij de GPU’s continu matrixoperaties uitvoeren, liggen ze veel dichter bij het maximum. Supermicro en Nvidia bieden beide mogelijkheden om via software de power limit aan te passen, wat nuttig kan zijn als je stroomcapaciteit in het rack krap is. Belangrijk om te weten: voor het dimensioneren van je stroominfrastructuur moet je altijd uitgaan van de maximale TDP, niet van een gemiddeld werkelijk verbruik. Zo voorkom je dat je systeem uitvalt op het moment dat alle GPU’s tegelijk pieken.
Een 8-GPU HGX-server vereist een datacenterinfrastructuur die is afgestemd op hoge stroomdichtheid: dedicated stroomaansluitingen van minimaal 30 tot 63 ampère per rack, gespecialiseerde PDU’s en koelcapaciteit die aansluit bij een warmteproductie van 10 kilowatt of meer per server.
Standaard 16-ampèreaansluitingen zijn niet toereikend voor dit type systeem. Je hebt zwaardere circuits nodig, bij voorkeur met een draaifasige aansluiting voor maximale efficiëntie. Veel datacenters die GPU-servers hosten werken met een Power Usage Effectiveness van rond de 1,2 tot 1,4, wat betekent dat je voor elke kilowatt IT-vermogen ook extra stroomcapaciteit nodig hebt voor koeling en overige infrastructuur.
Naast stroom stelt een HGX-server ook hoge eisen aan de netwerkinfrastructuur. De NVLink- en NVSwitch-verbindingen tussen GPU’s zijn intern geregeld, maar voor de verbinding met de buitenwereld heb je InfiniBand of high-speed Ethernet nodig, typisch 400GbE of HDR/NDR InfiniBand. Zorg dat je datacenterswitches en bekabeling hierop zijn voorbereid voordat je het systeem in gebruik neemt.
De totale stroomcapaciteit voor een GPU-serverrack bereken je door het maximale vermogensverbruik van alle servers bij elkaar op te tellen, daar 20 procent overhead bij te rekenen voor koeling en infrastructuur, en vervolgens te controleren of de beschikbare stroomaansluiting en PDU dat aankunnen.
Een praktisch rekenvoorbeeld: stel, je hebt twee 8-GPU HGX-servers in één rack, elk met een maximaal verbruik van 12 kilowatt. Dat is 24 kilowatt aan IT-vermogen. Met een PUE van 1,3 kom je op een totale stroomvraag van ongeveer 31 kilowatt voor dat rack. Standaard datacenters met 10 kilowatt per rack zijn hier simpelweg niet voor gebouwd. Je hebt een high-density racklocatie nodig, of je moet meerdere racks gebruiken. Controleer ook altijd de maximale belasting van de PDU’s in het rack: die vormen een veelvoorkomende bottleneck die pas zichtbaar wordt als het systeem al is geïnstalleerd.
Vloeistofkoeling is nodig bij een Supermicro HGX-server zodra de warmtedichtheid per rack de grens van 30 tot 40 kilowatt overschrijdt, of wanneer luchtkoeling onvoldoende is om de GPU’s binnen de maximale bedrijfstemperatuur te houden. Bij de nieuwste GPU-generaties, zoals de Nvidia B300, is vloeistofkoeling in veel configuraties al de standaardaanpak.
Supermicro biedt voor HGX-platforms meerdere koeloplossingen: van directe vloeistofkoeling via koelplaten op de GPU’s tot volledige immersion cooling, waarbij de server in een niet-geleidende vloeistof wordt ondergedompeld. Directe vloeistofkoeling is de meest toegankelijke stap: het vereist een koelwaterinfrastructuur in het datacenter, maar is technisch goed beheersbaar. Immersion cooling biedt de hoogste koelefficiëntie, maar vraagt om een grotere aanpassing van de faciliteiten. Voor AI-trainingsomgevingen waar GPU’s continu op maximaal vermogen draaien, is vloeistofkoeling niet alleen nuttig, maar in veel gevallen de enige manier om de hardware stabiel te houden over langere perioden. Luchtgekoelde systemen zijn doorgaans geschikt voor lichtere of meer afwisselende werklasten.
Als je serieus nadenkt over een 8-GPU HGX-server op basis van de Nvidia B300 of een vergelijkbare high-density GPU-configuratie, dan weet je nu waar je op moet letten. Bij NCS International helpen wij je om de juiste Supermicro-configuratie te kiezen die past bij jouw stroominfrastructuur, koelcapaciteit en werklastvereisten. Als grootste en oudste Supermicro-distributeur van Nederland leveren wij als eerste de nieuwste GPU-generaties in de Benelux, inclusief systemen die als eerste de Nvidia B300 ondersteunen. Neem gerust contact op als je wilt sparren over de mogelijkheden voor jouw omgeving.
Een standaard datacenter met een capaciteit van 10 kilowatt per rack is in de meeste gevallen niet toereikend voor een 8-GPU HGX-server. Je hebt een high-density locatie nodig die minimaal 12 tot 15 kilowatt per server aankan, inclusief de bijbehorende koelinfrastructuur. Sommige colocatieproviders bieden speciale GPU-ready racks aan; vraag hier altijd expliciet naar voordat je een contract tekent.
De meest gemaakte fout is het dimensioneren op gemiddeld verbruik in plaats van op het maximale piekvermogen. GPU's kunnen bij bepaalde AI-trainingsworkloads plotseling naar hun maximale TDP pieken, waardoor zekeringen uitslaan of PDU's overbelast raken. Een andere veelgemaakte fout is het vergeten van de overhead voor koeling en infrastructuur (PUE), waardoor de totale stroomvraag structureel wordt onderschat.
Om te bepalen of jouw datacenter gereed is voor vloeistofkoeling, moet je controleren of er een koelwaterdistributiesysteem (CDU) aanwezig is of geïnstalleerd kan worden, of de vloerbelasting de extra gewichten aankan, en of het datacenter beschikt over de juiste leidinginfrastructuur. Voor directe vloeistofkoeling via koelplaten is de drempel relatief laag; voor immersion cooling zijn de facilitaire aanpassingen aanzienlijk groter. Een site-assessment door een gespecialiseerde partij is sterk aan te raden voordat je investeert.
Ja, via software-gebaseerde power capping — beschikbaar via Nvidia's NVML-bibliotheek of tools zoals nvidia-smi — kun je een maximale power limit instellen per GPU. Dit is nuttig als je stroomcapaciteit in het rack krap is, maar het gaat altijd gepaard met enig prestatieverlies, afhankelijk van de workload. Voor inferentie-workloads is de impact doorgaans beperkt; voor zware AI-trainingsworkloads kan het de doorlooptijd merkbaar verlengen.
De voorbereidingstijd hangt sterk af van de huidige staat van je datacenterinfrastructuur. Als de stroomaansluitingen en koelcapaciteit al aanwezig zijn, kan een installatie binnen enkele dagen worden gerealiseerd. Moeten er zwaardere stroomcircuits worden aangelegd, PDU's worden vervangen of een vloeistofkoelsysteem worden geïnstalleerd, dan moet je rekenen op een doorlooptijd van vier tot twaalf weken, inclusief engineering, levering van materialen en eventuele bouwkundige aanpassingen.
Een HGX-platform is specifiek ontworpen voor maximale GPU-dichtheid en interconnectiviteit, met NVLink en NVSwitch die de GPU's onderling verbinden met zeer hoge bandbreedte. Dit maakt HGX ideaal voor grootschalige AI-training en HPC-workloads waarbij de GPU's intensief samenwerken. Standaard GPU-servers met losse PCIe-GPU's zijn geschikter voor inferentie, rendering of workloads waarbij de GPU's relatief onafhankelijk van elkaar opereren, en stellen bovendien minder zware eisen aan de stroom- en koelinfrastructuur.
Bij het aansluiten van high-density GPU-servers moet je rekening houden met de NEN 1010-norm voor elektrische installaties, de IEC 60364-richtlijnen voor laagspanningsinstallaties en de eisen van je netbeheerder bij aansluitingen boven 3x25 ampère. Daarnaast zijn de PSU's in professionele Supermicro-systemen doorgaans gecertificeerd volgens 80 PLUS Titanium of Platinum-standaarden. Laat de elektrische installatie altijd uitvoeren en keuren door een gecertificeerd installatiebedrijf, zeker bij draaifasige aansluitingen.
Den Sliem 89
7141 JG Groenlo
The Netherlands
+31 544 470 000
info@ncs.nl
GPU-servers verwerken duizenden berekeningen parallel — ontdek wanneer ze onmisbaar zijn voor jouw organisatie.
Wat is een AI-server en wanneer heb je er een nodig? Ontdek de techniek, hardware en toepassingen.