Arvind Krishna, CEO van IBM, heeft de recente euforie rond grootschalige datacenters voor kunstmatige intelligentie rigoureus getemperd door de onderliggende economische realiteit bloot te leggen. Zijn analyse richt zich op concrete rekenvoorbeelden en praktische grenzen: enorme investeringskosten, snelle veroudering van gespecialiseerde chips en torenhoge energievraag maken een ongeremde razendsnelle opschaling riskant.
De cijfers die de optimistische veronderstellingen aantasten
Volgens de door Krishna aangestipte orde van grootte kost één gigawatt aan rekenvermogen ongeveer $80 miljard om te bouwen en uit te rusten. Met ambities in de industrie om ruwweg 100 gigawatt uit te rollen om generatieve AI op grote schaal te ondersteunen, leidt die vermenigvuldiging tot een astronomische investeringsbehoefte: ongeveer $8.000 miljard in totaal — dat is ruwweg $8 biljoen.
Om een dergelijke som terug te verdienen, zou het ecosysteem vrijwel onmiddellijk enorme jaarlijkse winsten op tafel moeten leggen. Krishna benadrukt dat het onrealistisch is te verwachten dat de markt binnen korte tijd honderden miljarden dollars per jaar gaat opleveren om zulke voorinvesteringen te dekken.
Obsolescentie: korte levensduur van gespecialiseerde chips
Een tweede ontnuchterende factor is de technische levenscyclus van gespecialiseerde AI-chips. De bruikbare levensduur van zulke componenten bedraagt volgens de analyse vaak niet meer dan vijf jaar voordat nieuwe generaties ze overtreffen. Deze snelle veroudering dwingt exploitanten om regelmatig te investeren in vervanging of upgrades, waardoor initiële kapitaalinvesteringen moeilijk te amortiseren zijn.

In de praktijk betekent dat: infrastructuur die enorm veel kapitaal vraagt, maar die binnen een korte tijd opnieuw volledig vernieuwd moet worden. Krishna wijst erop dat niemand effectief kan afschrijven op een bouwwerk dat moet worden vervangen voordat het zijn investering werkelijk heeft terugverdiend.
Energieconsumptie en fysieke beperkingen
Naast kosten en veroudering vormt het energieverbruik van megacenters een fundamentele beperking. Projecties suggereren dat de elektriciteitsvraag van enorme AI-datacenters binnenkort zou kunnen concurreren met die van hele geïndustrialiseerde landen. Die schaal zet grenzen aan groei die niet eenvoudig met financiële middelen te omzeilen zijn: er zijn fysieke, netwerktechnische en milieugebonden beperkingen.
De combinatie van stijgende energiekosten, netcapaciteitsbeperkingen en milieu- en regelgevingsdruk maakt het plaatje minder optimistisch dan sommige groeiprognoses suggereren. Volgens de kritiek zijn marginale voordelen in modelprestaties niet langer proportioneel met de exponentieel toenemende kosten en stroombehoefte.
Strategische implicaties: minder is soms meer
De boodschap van Krishna is niet alleen een waarschuwing, maar ook een suggestie voor koerswijziging. In plaats van blindelings processoren en GPU’s op te stapelen, wijst hij op het belang van efficiëntere architecturen en slimme optimalisaties die minder energie en kapitaal vergen. De verwachting dat superintelligentie op korte termijn de investeringen zal rechtvaardigen, noemt hij onwaarschijnlijk en risicovol.
Organisaties die zwaar inzetten op constante schaalvergroting lopen het risico tegen technische en economische grenzen aan te lopen. Een alternatief pad is investeren in innovatie op het gebied van efficiëntie: betere software-optimalisaties, heterogene rekenarchitecturen en onderzoek naar energiezuinige hardware kunnen meer duurzame resultaten opleveren.

De discussie die deze kritische rekensommen oproepen, verandert het discours rond AI-infrastructuur: niet louter meer capaciteit, maar ook effectiviteit en duurzaamheid zullen meewegen in toekomstige beslissingen. Bedrijven en beleidsmakers moeten rekening houden met zowel financiële realiteit als fysieke grenzen bij langetermijnplannen.
| Parameter | Waarde | Opmerking |
|---|---|---|
| Kost per gigawatt | $80 miljard | Bouw en uitrusting |
| Geplande capaciteit | 100 gigawatt | Schaalambitie in industrie |
| Totaal investering | $8.000 miljard | Ongeveer $8 biljoen |
| Levensduur chips | ~5 jaar | Snelle veroudering dwingt tot vervanging |
| Vereiste winst om af te schrijven | Honderden miljarden per jaar | Onwaarschijnlijk op korte termijn |
Veelgestelde vragen
1. Waarom is $80 miljard per gigawatt zo belangrijk?
Die schatting illustreert de schaal van investering die nodig is voor grootschalige AI-infrastructuur. Het getal toont hoe snel totale kosten kunnen oplopen wanneer men tientallen of honderden gigawatt wil inzetten.
2. Wat betekent een chiplevensduur van vijf jaar voor bedrijven?
Het betekent dat bedrijven regelmatig substantiële vervangingskosten krijgen. Kortere technologische cycles verminderen de tijd om investering terug te verdienen en verhogen de financiële risico’s.
3. Kunnen efficiëntieverbeteringen het probleem oplossen?
Efficiëntiemaatregelen verminderen de druk en kunnen rendabiliteit verbeteren, maar lossen niet alle problemen op. Er is zowel innovatie in hardware en software als realistische planning en regulering nodig om duurzaamheid te waarborgen.
4. Heeft deze analyse gevolgen voor beleidsmakers?
Ja. Beleidsmakers moeten rekening houden met netwerkcapaciteit, energie-infrastructuur en milieu-impact bij het beoordelen van grootschalige AI-projecten, en zowel economische als ecologische factoren meenemen in regelgeving en stimulansen.