Een Supermicro 8-GPU HGX-server verbruikt onder volledige belasting doorgaans tussen de 10 en 14 kilowatt, afhankelijk van de GPU-generatie en de systeemconfiguratie. Voor een HGX-platform met acht Nvidia B200- of B300-GPU’s moet je rekenen op voedingseenheden van minimaal 3000 watt per unit, verdeeld over meerdere redundante PSU’s. Daarnaast stelt zo’n systeem hoge eisen aan de datacenterinfrastructuur: denk aan gespecialiseerde stroomaansluitingen, voldoende koelcapaciteit en bij voorkeur vloeistofkoeling voor de warmste componenten.

Of je nu een AI-trainingscluster opzet, een HPC-omgeving uitbreidt of nadenkt over on-premise inferentie met de nieuwste Nvidia-hardware, de stroomvereisten zijn een van de eerste praktische vragen die je moet beantwoorden. In dit artikel lopen we stap voor stap door alles heen wat je moet weten.

Hoeveel watt verbruikt een Nvidia HGX-GPU onder volledige belasting?

Een enkele Nvidia HGX-GPU verbruikt onder volledige belasting tussen de 700 en 1000 watt, afhankelijk van de generatie. De Nvidia B200 heeft een TDP van 1000 watt, terwijl de nieuwere B300 nog hogere vermogens bereikt. Acht van deze GPU’s samen komen daarmee al snel op een GPU-only verbruik van 7000 tot 8000 watt of meer.

Maar de GPU’s zijn niet het enige wat stroom trekt. De CPU’s, het moederbord, de NVMe-opslag, de netwerkkaarten en de koelventilatoren voegen daar nog eens aanzienlijk aan toe. In de praktijk kom je voor een volledig belaste 8-GPU HGX-server al snel uit op een totaal systeemverbruik van 10 tot 14 kilowatt. Bij de nieuwste generatie GPU’s, zoals de Nvidia B300, kan dat nog hoger uitvallen, zeker bij langdurige AI-trainingsworkloads waarbij de GPU’s continu op maximaal vermogen draaien.

Welke voedingseenheden zijn nodig voor een 8-GPU HGX-server?

Een 8-GPU HGX-server heeft meerdere voedingseenheden met hoog vermogen nodig, typisch zes tot acht PSU’s van 3000 watt of meer per unit. Supermicro-systemen voor dit type workload zijn standaard uitgerust met redundante PSU-configuraties, zodat uitval van één voeding het systeem niet stillegt.

De exacte PSU-configuratie hangt af van het specifieke Supermicro-platform. Systemen als de SYS-821GE-TNHR zijn ontworpen voor precies dit soort zware GPU-werklasten en bieden voldoende vermogensbudget voor acht HGX-GPU’s plus alle overige componenten. Redundantie is hierbij geen luxe, maar een noodzaak: in een productieomgeving wil je geen single point of failure in je stroomvoorziening. Zorg er ook voor dat de PSU’s gecertificeerd zijn voor het vereiste ingangsvoltage in jouw datacenter, want veel high-density systemen werken het efficiëntst op 240 V of zelfs een 380 V-draaifasige aansluiting.

Wat is het verschil tussen TDP en werkelijk stroomverbruik bij GPU-servers?

TDP staat voor Thermal Design Power en geeft aan hoeveel warmte een component maximaal produceert onder de zwaarste gecertificeerde belasting. Het werkelijke stroomverbruik kan zowel lager als tijdelijk hoger uitvallen dan de TDP, afhankelijk van de workload, de power-limitinstellingen en de omgevingstemperatuur.

In de praktijk draaien GPU’s bij inferentie-workloads vaak op 60 tot 80 procent van hun maximale TDP. Bij intensieve AI-training, waarbij de GPU’s continu matrixoperaties uitvoeren, liggen ze veel dichter bij het maximum. Supermicro en Nvidia bieden beide mogelijkheden om via software de power limit aan te passen, wat nuttig kan zijn als je stroomcapaciteit in het rack krap is. Belangrijk om te weten: voor het dimensioneren van je stroominfrastructuur moet je altijd uitgaan van de maximale TDP, niet van een gemiddeld werkelijk verbruik. Zo voorkom je dat je systeem uitvalt op het moment dat alle GPU’s tegelijk pieken.

Welke datacenterinfrastructuur is vereist voor een HGX-GPU-server?

Een 8-GPU HGX-server vereist een datacenterinfrastructuur die is afgestemd op hoge stroomdichtheid: dedicated stroomaansluitingen van minimaal 30 tot 63 ampère per rack, gespecialiseerde PDU’s en koelcapaciteit die aansluit bij een warmteproductie van 10 kilowatt of meer per server.

Stroom en bekabeling

Standaard 16-ampèreaansluitingen zijn niet toereikend voor dit type systeem. Je hebt zwaardere circuits nodig, bij voorkeur met een draaifasige aansluiting voor maximale efficiëntie. Veel datacenters die GPU-servers hosten werken met een Power Usage Effectiveness van rond de 1,2 tot 1,4, wat betekent dat je voor elke kilowatt IT-vermogen ook extra stroomcapaciteit nodig hebt voor koeling en overige infrastructuur.

Netwerk en connectiviteit

Naast stroom stelt een HGX-server ook hoge eisen aan de netwerkinfrastructuur. De NVLink- en NVSwitch-verbindingen tussen GPU’s zijn intern geregeld, maar voor de verbinding met de buitenwereld heb je InfiniBand of high-speed Ethernet nodig, typisch 400GbE of HDR/NDR InfiniBand. Zorg dat je datacenterswitches en bekabeling hierop zijn voorbereid voordat je het systeem in gebruik neemt.

Hoe bereken je de totale stroomcapaciteit voor een GPU-serverrack?

De totale stroomcapaciteit voor een GPU-serverrack bereken je door het maximale vermogensverbruik van alle servers bij elkaar op te tellen, daar 20 procent overhead bij te rekenen voor koeling en infrastructuur, en vervolgens te controleren of de beschikbare stroomaansluiting en PDU dat aankunnen.

Een praktisch rekenvoorbeeld: stel, je hebt twee 8-GPU HGX-servers in één rack, elk met een maximaal verbruik van 12 kilowatt. Dat is 24 kilowatt aan IT-vermogen. Met een PUE van 1,3 kom je op een totale stroomvraag van ongeveer 31 kilowatt voor dat rack. Standaard datacenters met 10 kilowatt per rack zijn hier simpelweg niet voor gebouwd. Je hebt een high-density racklocatie nodig, of je moet meerdere racks gebruiken. Controleer ook altijd de maximale belasting van de PDU’s in het rack: die vormen een veelvoorkomende bottleneck die pas zichtbaar wordt als het systeem al is geïnstalleerd.

Wanneer is vloeistofkoeling nodig bij een Supermicro HGX-server?

Vloeistofkoeling is nodig bij een Supermicro HGX-server zodra de warmtedichtheid per rack de grens van 30 tot 40 kilowatt overschrijdt, of wanneer luchtkoeling onvoldoende is om de GPU’s binnen de maximale bedrijfstemperatuur te houden. Bij de nieuwste GPU-generaties, zoals de Nvidia B300, is vloeistofkoeling in veel configuraties al de standaardaanpak.

Supermicro biedt voor HGX-platforms meerdere koeloplossingen: van directe vloeistofkoeling via koelplaten op de GPU’s tot volledige immersion cooling, waarbij de server in een niet-geleidende vloeistof wordt ondergedompeld. Directe vloeistofkoeling is de meest toegankelijke stap: het vereist een koelwaterinfrastructuur in het datacenter, maar is technisch goed beheersbaar. Immersion cooling biedt de hoogste koelefficiëntie, maar vraagt om een grotere aanpassing van de faciliteiten. Voor AI-trainingsomgevingen waar GPU’s continu op maximaal vermogen draaien, is vloeistofkoeling niet alleen nuttig, maar in veel gevallen de enige manier om de hardware stabiel te houden over langere perioden. Luchtgekoelde systemen zijn doorgaans geschikt voor lichtere of meer afwisselende werklasten.

Als je serieus nadenkt over een 8-GPU HGX-server op basis van de Nvidia B300 of een vergelijkbare high-density GPU-configuratie, dan weet je nu waar je op moet letten. Bij NCS International helpen wij je om de juiste Supermicro-configuratie te kiezen die past bij jouw stroominfrastructuur, koelcapaciteit en werklastvereisten. Als grootste en oudste Supermicro-distributeur van Nederland leveren wij als eerste de nieuwste GPU-generaties in de Benelux, inclusief systemen die als eerste de Nvidia B300 ondersteunen. Neem gerust contact op als je wilt sparren over de mogelijkheden voor jouw omgeving.

Veelgestelde vragen

Kan ik een 8-GPU HGX-server ook in een standaard datacenter plaatsen, of heb ik altijd een gespecialiseerde locatie nodig?

Een standaard datacenter met een capaciteit van 10 kilowatt per rack is in de meeste gevallen niet toereikend voor een 8-GPU HGX-server. Je hebt een high-density locatie nodig die minimaal 12 tot 15 kilowatt per server aankan, inclusief de bijbehorende koelinfrastructuur. Sommige colocatieproviders bieden speciale GPU-ready racks aan; vraag hier altijd expliciet naar voordat je een contract tekent.

Wat zijn de meest voorkomende fouten bij het dimensioneren van de stroominfrastructuur voor GPU-servers?

De meest gemaakte fout is het dimensioneren op gemiddeld verbruik in plaats van op het maximale piekvermogen. GPU's kunnen bij bepaalde AI-trainingsworkloads plotseling naar hun maximale TDP pieken, waardoor zekeringen uitslaan of PDU's overbelast raken. Een andere veelgemaakte fout is het vergeten van de overhead voor koeling en infrastructuur (PUE), waardoor de totale stroomvraag structureel wordt onderschat.

Hoe weet ik of mijn datacenter klaar is voor vloeistofkoeling?

Om te bepalen of jouw datacenter gereed is voor vloeistofkoeling, moet je controleren of er een koelwaterdistributiesysteem (CDU) aanwezig is of geïnstalleerd kan worden, of de vloerbelasting de extra gewichten aankan, en of het datacenter beschikt over de juiste leidinginfrastructuur. Voor directe vloeistofkoeling via koelplaten is de drempel relatief laag; voor immersion cooling zijn de facilitaire aanpassingen aanzienlijk groter. Een site-assessment door een gespecialiseerde partij is sterk aan te raden voordat je investeert.

Is het mogelijk om het stroomverbruik van een HGX-server te beperken zonder in te leveren op prestaties?

Ja, via software-gebaseerde power capping — beschikbaar via Nvidia's NVML-bibliotheek of tools zoals nvidia-smi — kun je een maximale power limit instellen per GPU. Dit is nuttig als je stroomcapaciteit in het rack krap is, maar het gaat altijd gepaard met enig prestatieverlies, afhankelijk van de workload. Voor inferentie-workloads is de impact doorgaans beperkt; voor zware AI-trainingsworkloads kan het de doorlooptijd merkbaar verlengen.

Hoe lang duurt het gemiddeld om een datacenter klaar te maken voor een 8-GPU HGX-serverinstallatie?

De voorbereidingstijd hangt sterk af van de huidige staat van je datacenterinfrastructuur. Als de stroomaansluitingen en koelcapaciteit al aanwezig zijn, kan een installatie binnen enkele dagen worden gerealiseerd. Moeten er zwaardere stroomcircuits worden aangelegd, PDU's worden vervangen of een vloeistofkoelsysteem worden geïnstalleerd, dan moet je rekenen op een doorlooptijd van vier tot twaalf weken, inclusief engineering, levering van materialen en eventuele bouwkundige aanpassingen.

Wat is het verschil tussen een HGX-platform en een standaard GPU-server, en wanneer kies ik voor welke optie?

Een HGX-platform is specifiek ontworpen voor maximale GPU-dichtheid en interconnectiviteit, met NVLink en NVSwitch die de GPU's onderling verbinden met zeer hoge bandbreedte. Dit maakt HGX ideaal voor grootschalige AI-training en HPC-workloads waarbij de GPU's intensief samenwerken. Standaard GPU-servers met losse PCIe-GPU's zijn geschikter voor inferentie, rendering of workloads waarbij de GPU's relatief onafhankelijk van elkaar opereren, en stellen bovendien minder zware eisen aan de stroom- en koelinfrastructuur.

Welke certificeringen of normen zijn relevant bij het aansluiten van een high-density GPU-server op het stroomnet?

Bij het aansluiten van high-density GPU-servers moet je rekening houden met de NEN 1010-norm voor elektrische installaties, de IEC 60364-richtlijnen voor laagspanningsinstallaties en de eisen van je netbeheerder bij aansluitingen boven 3x25 ampère. Daarnaast zijn de PSU's in professionele Supermicro-systemen doorgaans gecertificeerd volgens 80 PLUS Titanium of Platinum-standaarden. Laat de elektrische installatie altijd uitvoeren en keuren door een gecertificeerd installatiebedrijf, zeker bij draaifasige aansluitingen.

Gerelateerde artikelen

NCS International

Den Sliem 89
7141 JG Groenlo
The Netherlands
+31 544 470 000
info@ncs.nl

Meer berichten

Wat is een GPU-server?

GPU-servers verwerken duizenden berekeningen parallel — ontdek wanneer ze onmisbaar zijn voor jouw organisatie.


read more

Wat is een AI-server?

Wat is een AI-server en wanneer heb je er een nodig? Ontdek de techniek, hardware en toepassingen.


read more