26 maart 2026
Een 8-GPU HGX-server verbruikt doorgaans tussen de 10 en 14 kilowatt, afhankelijk van de GPU-generatie en de workload. Voor een stabiele en veilige installatie heb je minimaal redundante PSU’s met een gecombineerde capaciteit van 12 tot 16 kW nodig, bij voorkeur op een 208V- of 380V-stroomcircuit. Reken daarbij ook de koelingsinfrastructuur mee, want die zorgt voor een aanzienlijk extra stroomverbruik. Wie dit onderschat, loopt tegen problemen aan die duur en tijdrovend zijn om op te lossen.
Of je nu een datacenter uitbreidt, een on-premise AI-cluster bouwt of een HPC-omgeving opzet: stroomplanning is een van de meest onderschatte onderdelen van het hele project. In dit artikel beantwoorden we de meest gestelde vragen over stroomcapaciteit voor 8-GPU HGX-servers, zodat je goed voorbereid bent voordat je de eerste hardware bestelt.
Een 8-GPU HGX-server is een krachtig serverplatform dat acht NVIDIA HGX GPU-modules integreert op een gedeelde backplane, verbonden via NVLink en NVSwitch voor maximale bandbreedte tussen de GPU’s. Dit maakt het platform geschikt voor workloads waarbij de GPU’s intensief met elkaar moeten communiceren, zoals het trainen van grote taalmodellen en andere vormen van AI-training.
De NVIDIA HGX-architectuur onderscheidt zich van standaard multi-GPU-servers doordat de GPU’s niet via de CPU communiceren, maar rechtstreeks met elkaar. Dat levert de enorme bandbreedte die nodig is voor gedistribueerde AI-training, large language model-inferentie en wetenschappelijke simulaties. Typische toepassingen zijn onder andere:
Vanwege de hoge rekenkracht en de nauwe integratie van de GPU’s stelt dit type server ook hoge eisen aan de omgeving waarin hij draait. Stroom, koeling en rackinfrastructuur moeten allemaal op dit niveau zijn afgestemd, wat de planning aanzienlijk complexer maakt dan bij een gewone serverinstallatie.
Een 8-GPU HGX-server verbruikt gemiddeld tussen de 10 en 14 kilowatt onder volledige belasting. Bij de nieuwste GPU-generaties, zoals de NVIDIA H100 of H200, ligt het TDP per GPU rond de 700 watt, wat neerkomt op 5,6 kW voor de GPU’s alleen. Tel daar het verbruik van de CPU’s, het moederbord, de opslag en de netwerkhardware bij op, en je zit al snel boven de 10 kW.
Het gemiddelde stroomverbruik is relevant voor de energierekening, maar voor de infrastructuurplanning telt het piekverbruik. Bij AI-training draait een 8-GPU HGX-server vrijwel continu op maximale capaciteit, waardoor het piekverbruik en het gemiddelde verbruik dicht bij elkaar liggen. Bij inferentie-workloads kunnen de pieken korter zijn, maar de infrastructuur moet altijd het maximum aankunnen.
Reken bij de planning altijd met het maximale TDP van alle componenten bij elkaar opgeteld en voeg daar een veiligheidsmarge van 20 tot 25 procent aan toe. Dat klinkt ruim, maar het voorkomt dat stroomcircuits overbelast raken en dat servers onverwacht uitvallen op het moment dat je ze het hardst nodig hebt.
Een 8-GPU HGX-server vereist een redundante PSU-configuratie met een gecombineerde capaciteit van minimaal 12 tot 16 kW. Supermicro HGX-platforms werken standaard met meerdere high-efficiency voedingen in een N+1- of N+N-redundantieconfiguratie, zodat de server blijft draaien als een PSU uitvalt.
In de praktijk zien we platforms met zes of meer PSU-modules van elk 3.000 watt of hoger. De voedingen zijn ontworpen voor 80 Plus Titanium- of Platinum-efficiëntie, wat het energieverlies door warmte beperkt. Dat is niet alleen goed voor de energierekening, maar ook voor de koelingsbelasting in het rack.
Bij de selectie van een PSU-configuratie zijn de volgende factoren bepalend:
Het verschil tussen 208V, 380V en 480V voor GPU-servers zit in de stroomsterkte die nodig is om hetzelfde vermogen te leveren. Bij een hogere spanning heb je minder ampère nodig voor hetzelfde aantal kilowatts, wat leidt tot dunnere kabels, minder warmteontwikkeling in de bekabeling en efficiëntere vermogensoverdracht.
In Noord-Amerika is 208V de standaard in veel datacenters, terwijl Europa en Azië doorgaans werken met 380V of 400V (driefasig). Een server van 12 kW op 208V trekt ongeveer 33 ampère per fase, terwijl dezelfde server op 380V slechts circa 18 ampère per fase nodig heeft. Dat maakt een groot verschil bij de dimensionering van PDU’s, bekabeling en stroomgroepen.
480V wordt vooral gebruikt in grotere industriële datacenters en biedt het voordeel van een nog lagere stroomsterkte bij hetzelfde vermogen. Voor de meeste Europese datacenters is 380V tot 400V driefasig de meest gangbare en praktische keuze voor zware GPU-servers.
Een rack met meerdere 8-GPU HGX-servers heeft al snel 60 tot 100 ampère per fase nodig op 380V, afhankelijk van het aantal servers en de GPU-generatie. Een volledig rack met twee of drie HGX-servers kan een stroomverbruik van 30 tot 40 kW bereiken, wat ver buiten het bereik van een standaard datacenter-rack valt.
Traditionele datacenters zijn ontworpen op 5 tot 10 kW per rack. Moderne AI-infrastructuur vereist 20 tot 50 kW of meer per rack, wat betekent dat je de stroomtoevoer, de PDU’s en de rackstructuur opnieuw moet dimensioneren. Sommige datacenters werken met dedicated high-density racks of zelfs met aparte stroomgroepen per server.
Praktische richtlijnen voor de berekening:
Bij een stroomverbruik van 10 tot 14 kW per server is traditionele luchtkoeling nog mogelijk, maar je zit al aan de grens van wat haalbaar is. Boven de 30 kW per rack is luchtkoeling in de meeste gevallen niet meer toereikend en zijn directe vloeistofkoeling of rear-door heat exchangers nodig.
Luchtkoeling werkt goed tot ongeveer 20 kW per rack, mits de airflow in het datacenter goed is ingericht met hot-aisle- en cold-aisle-containment. Boven dit niveau neemt de koelingsefficiëntie snel af en stijgt het risico op thermische problemen bij de GPU’s.
Directe vloeistofkoeling (Direct Liquid Cooling, of DLC) brengt koelvloeistof rechtstreeks naar de warmtebronnen in de server, zoals de GPU’s en CPU’s. Dit is aanzienlijk efficiënter dan luchtkoeling en maakt hoge rackdichtheden mogelijk. Supermicro biedt HGX-platforms met ondersteuning voor DLC, wat de implementatie in moderne high-density datacenters vereenvoudigt.
De PUE van een datacenter geeft aan hoeveel extra energie de koeling en overige infrastructuur verbruiken ten opzichte van de IT-apparatuur zelf. Bij een PUE van 1,4 verbruikt een server van 12 kW in totaal 16,8 kW aan de meter. Bij de planning van de totale stroomcapaciteit moet je dus altijd de PUE van het datacenter meenemen in de berekening.
De meest gemaakte fouten bij het plannen van stroom voor GPU-servers zijn het onderschatten van het piekverbruik, het vergeten van de koelingsbelasting en het niet reserveren van groeicapaciteit. Deze fouten leiden tot dure aanpassingen aan de infrastructuur nadat de hardware al is geleverd.
Hieronder staan de meest voorkomende valkuilen op een rij:
Een goede stroomplanning begint bij de specificaties van de hardware, maar is pas klaar als de volledige infrastructuur, van stroomaansluiting tot koeling, is doorgerekend. Wie dit overslaat, merkt de gevolgen pas wanneer de servers al in het rack staan.
Bij NCS International helpen wij je niet alleen aan de juiste hardware, maar ook bij het doordenken van de volledige infrastructuur eromheen. Als grootste en oudste Supermicro-distributeur van Nederland weten wij precies welke NVIDIA HGX-serverconfiguraties beschikbaar zijn, wat ze vereisen en hoe je ze optimaal inzet. Neem contact met ons op als je een 8-GPU HGX-project plant; dan denken we graag met je mee over stroom, koeling en configuratie.
Begin met het verzamelen van de volledige technische specificaties van de beoogde hardware, inclusief het maximale TDP van GPU's, CPU's, opslag en netwerkhardware. Stel vervolgens een vermogensbudget op waarbij je het totale piekverbruik berekent, een veiligheidsmarge van 20 tot 25 procent toevoegt en de PUE van het datacenter meeneemt. Bespreek dit budget daarna met de facilitaire afdeling of datacentermanager voordat je hardware bestelt, zodat je zeker weet dat de beschikbare stroomaansluiting en PDU-capaciteit toereikend zijn.
Dat is mogelijk, maar vereist in de meeste gevallen aanpassingen aan de infrastructuur. Traditionele datacenters zijn doorgaans ontworpen op 5 tot 10 kW per rack, terwijl een enkele 8-GPU HGX-server al 10 tot 14 kW verbruikt. Je zult waarschijnlijk moeten upgraden naar high-density racks, zwaardere PDU's, aangepaste stroomgroepen en mogelijk een verbeterd koelingsysteem. Laat een infrastructuuraudit uitvoeren voordat je de hardware aanschaft om verrassingen te voorkomen.
Bij overbelasting van een stroomcircuit zal de beveiliging, zoals een zekering of aardlekschakelaar, de stroom onderbreken, wat resulteert in een plotselinge uitval van de server. Dit onderbreekt lopende AI-trainingsjobs, wat afhankelijk van de checkpointconfiguratie kan leiden tot verlies van uren of zelfs dagen aan trainingsvoortgang. Daarnaast kan herhaalde overbelasting schade veroorzaken aan PSU's en andere componenten. Plan daarom altijd met voldoende marge en gebruik monitoring om het stroomverbruik in real time bij te houden.
De PDU (Power Distribution Unit) is een kritieke schakel tussen het stroomcircuit en de servers in het rack en moet zijn gedimensioneerd op het maximale gecombineerde verbruik van alle aangesloten apparatuur. Kies voor een intelligente, gemanagte PDU met per-outlet monitoring, zodat je het verbruik per server in real time kunt bijhouden en vroegtijdig kunt ingrijpen bij afwijkingen. Zorg er ook voor dat de PDU de juiste ingangsspanning ondersteunt (208V, 380V of 480V) en voldoende uitgangsconnectoren heeft voor alle PSU-aansluitingen van de HGX-servers.
Luchtkoeling is technisch mogelijk voor een enkele 8-GPU HGX-server, mits de datacenteromgeving beschikt over goede hot-aisle- en cold-aisle-containment en voldoende koelcapaciteit per rack. Zodra je echter meerdere HGX-servers in hetzelfde rack plaatst en het rackverbruik boven de 20 tot 30 kW uitkomt, is directe vloeistofkoeling sterk aan te raden of zelfs noodzakelijk. DLC is ook op de lange termijn energiezuiniger en vermindert de slijtage van GPU's door stabielere operationele temperaturen.
Een gangbare vuistregel is om bij de initiële installatie maximaal 60 tot 70 procent van de beschikbare stroomcapaciteit te benutten, zodat er ruimte overblijft voor toekomstige uitbreiding zonder dat de infrastructuur opnieuw gedimensioneerd hoeft te worden. Denk daarbij niet alleen aan extra servers, maar ook aan nieuwe GPU-generaties die doorgaans een hoger TDP hebben dan hun voorgangers. Bespreek je groeiplannen voor de komende twee tot drie jaar met je infrastructuurpartner en laat die meenemen in het ontwerp van de stroominfrastructuur.
Voor het monitoren van het stroomverbruik op serverniveau kun je gebruikmaken van NVIDIA's DCGM (Data Center GPU Manager), dat gedetailleerde GPU-vermogensdata biedt, gecombineerd met de IPMI- of BMC-interface van de server voor systeembrede stroommetingen. Op infrastructuurniveau bieden gemanagte PDU's van fabrikanten zoals Vertiv, Raritan of Schneider Electric real-time per-outlet verbruiksdata die je kunt integreren in een centraal DCIM-platform. Door server- en infrastructuurmonitoring te combineren, krijg je een volledig beeld van het werkelijke verbruik en kun je tijdig bijsturen voordat capaciteitsgrenzen worden bereikt.
Den Sliem 89
7141 JG Groenlo
The Netherlands
+31 544 470 000
info@ncs.nl