Bekeken door een industriële en financiële bril zie je dat meerdere neerwaartse katalysatoren zich beginnen op te stapelen: de rentabiliteit van de AI-cloud, energierestricties, de omvang van de capex, de circulariteit van het ecosysteem, boekhoudkundige creativiteit rond afschrijvingen en de toename van de schuldenlast. Geen van die factoren doet af aan de enorme technologische vooruitgang die AI vertegenwoordigt. Hun combinatie wijzigt daarentegen duidelijk het risico-rendementsprofiel van deze techbedrijven, die kantelen van een historisch asset-light model naar een logica van zware industrie, met daarbij boekhoudkundige en narratieve presentaties die soms eerder opportunistisch dan overtuigend overkomen.
Het doel hier is niet om de onheilsprofeet uit te hangen maar wel om feiten te schetsen. Want in deze fase van de cyclus denken wij oprecht dat de meest aardse beperkingen – elektriciteit, verouderde infrastructuur, industriële uitvoering en boekhouding – de beursrendementen zullen gaan dicteren.
De business van de AI-cloud: groeimotor maar twijfelachtige rendabiliteit
Bij MarketScreener is de IT-architectuur hybride. Ons platform draait hoofdzakelijk op servers die ons toebehoren, maar wij huren ook infrastructuur – vooral voor AI-projecten, waarvoor die beruchte GPU’s nodig zijn.
Ter illustratie: een server met een GPU V100 (16 GB VRAM) huur je voor ongeveer 400–500 EUR per maand. Gezien die chips uit 2017 dateren en "naakt" zo'n 10.000 EUR kostten, is de investering voor cloudproviders ongetwijfeld terugverdiend. Maar vandaag huurt bijna niemand nog die V100, omdat ze de nieuwste software niet ondersteunen om de beste LLM’s optimaal te benutten. Je gebruikt eerder een GPU L40 uit 2022 of een A100.
En daar knelt het schoentje: de ontwikkeling van zowel hardware als software is versneld. Nieuwe chips komen steeds sneller uit – bij Nvidia spreken we over een jaarlijks lanceringsritme! – en de openbrongemeenschap innoveert doorlopend in de softwarelaag. Kortom: een infrastructuur die je vandaag koopt, kan over drie jaar technisch nog “oké” zijn maar commercieel achterhaald door efficiëntiewinsten van nieuwe generaties.
Het wordt steeds moeilijker om het V100-scenario te reproduceren: een chip die je voor 10.000 hebt gekocht, drie jaar of langer aan 500 EUR per maand verhuren. En nogmaals, we hebben het hier over naakte chips, niet over een volledig AI-rack dat operationeel is, gekoeld, bekabeld, enzovoort. We hebben het ook niet over de energiekost: een AI-rack dat 24/7 draait, verbruikt een honderdtal kW. Dat is allerminst te verwaarlozen.
Er kunnen dus twee dingen gebeuren – en we beginnen dat al te zien.
- De openbrongemeenschap kan software aanpassen om de nieuwste modellen op chips van vorige generaties te laten draaien, waardoor hun economische levensduur verlengt. Best cool.
- De hyperscalers gaan hun prijzen verhogen. Dat is zelfs noodzakelijk als ze niet met een ROIC onder 5 % willen eindigen. Typisch verwacht de CEO van OVH een stijging van de cloudprijzen met 5–10 % tegen midden 2026, met interne serverkosten die 15–25 % hoger liggen, onder meer door de druk op DRAM/SSD en AI-hardware.
En weet je wat? Ik denk dat een groot deel van de vraag naar AI-cloud niet zal volgen als de prijzen te bruusk stijgen. Simpelweg omdat een AI-project te gelde maken niet zo eenvoudig is. Prototypen maken is bijzonder makkelijk – wij spreken uit ervaring – maar een betrouwbaar, schaalbaar en rendabel systeem in productie brengen, is andere koek.
Al maanden is ons doel om de zoekbalk van MarketScreener “intelligent” te maken, en ik kan je zeggen: dat is makkelijker gezegd dan gedaan als je niet bij elke druk op Enter tien cent wil uitgeven. Dat we dit soort project overwegen, komt juist omdat de huurprijs van GPU’s ons voorlopig betaalbaar lijkt. Maar als de prijs verdubbelt of verdrievoudigt, geloof ik oprecht dat een groot deel van de vraag die stijgingen niet zal slikken.
De fysieke flessenhals
Goldman Sachs schat dat de stroomvraag van datacenters tegen 2030 met circa +165 % zal toenemen, grotendeels gedreven door AI. Keith legt dat hier uitgebreid uit.
Maar de stuurbare elektriciteitsproductie evolueert helemaal niet in hetzelfde tempo. De vraag is niet eens meer “tegen welke prijs?”, maar “zal er voldoende zijn, op de juiste plaats, op het juiste moment?”.
In Noord-Virginia, ’s werelds grootste hub, krijgen nieuwe projecten te maken met tot zeven jaar wachttijd om op het net te worden aangesloten. En dat is geen lokaal toeval: Amerikaanse en Europese netbeheerders melden wachtrijen die overal langer worden waar AI zich wil vestigen.
We bouwen voor tientallen miljarden dollars aan capaciteit… die niet kan draaien omdat ze niet op stroom is aangesloten (tekort aan transformatoren, koelinstallaties, gespecialiseerd personeel…). Ironisch genoeg devalueert die activa terwijl ze wachten om te worden aangesloten.
Dat is de echte opportuniteitskost van AI: niet alleen de capex, maar ook de industriële stilstand.
Het is zodanig chaotisch dat hyperscalers SMR-nucleaire projecten (Oklo, X-Energy, enz.) tekenen of financieren. Maar wees realistisch: ook daar spreken we eerder over een significante bijdrage na 2030.
Deze energetische flessenhals heeft twee directe effecten voor hyperscalers:
- Onvoorziene extra capex: ze moeten niet alleen datacenters financieren, maar soms ook hun eigen energieoplossingen.
- Verschuiving van de ROI: de potentiële AI-omzet is er, de vraag is er (voorlopig, en tegen deze prijs), maar de leverbare capaciteit is beperkt, dus de monetaire opbrengst schuift op.
Investeringen van een omvang die privébedrijven nooit eerder hebben gemanaged
Begrijp dit goed: we zitten in een ongezien historisch regime, met honderden miljarden capex per jaar geconcentreerd bij een handvol ondernemingen.
Ik durf de exacte cijfers niet meer te geven uit vrees niet up-to-date te zijn. Voor zover ik me herinner, spreken we tegen 2026–2027 over meer dan 600 mrd USD aan jaarlijkse AI-investeringen.
Volgens de Wall Street Journal zouden AI-investeringen in de VS in de eerste zes maanden van het jaar goed geweest kunnen zijn voor de helft van de bbp-groei van het land.
Wie kan zulke investeringsoperaties uitvoeren zonder waarde te vernietigen?
De spelers geven het zelf toe: geen van deze bedrijven heeft ooit een industrieel project van 50 mrd USD geleid – en nu lanceren ze er een tiental tegelijk. Op die schaal wordt de kleinste logistieke fout een geldput en kosten vertragingen fortuinen.
Die investeringen financieren is evenmin banaal. Bij techbedrijven die we financieel uiterst solide achtten, vindt een echte kapitaalstructuurverschuiving plaats.
In 2025 werd meer dan 120 mrd USD aan schuld uitgegeven door deze hyperscalers, fors meer dan in de voorgaande jaren, en de projecties voor 2026–2027 zijn nog steviger.
Oracle is een goed voorbeeld: de nettoschuld ligt nu boven 80 mrd USD en de hefboomgraad boven 3.
Zelfs al lijkt de sfeer in de VS sinds het einde van de shutdown en de publicatie van macrocijfers ontspannen, deze schaalvergroting is cruciaal: minder speelruimte als de rente hoog blijft, meer cycliciteitsgevoeligheid en dus een grotere afhankelijkheid van het commerciële succes van AI.
De circulariteit van het ecosysteem
Een element dat analisten wereldwijd herhaaldelijk aanhalen, betreft de circulariteit van de economische stromen. Die consanguïniteit doet vermoeden dat een deel van de groei die spelers in dit ecosysteem tonen niet echt synoniem is met netto-waardeschepping.
Het schema is vrij eenvoudig:
- De hyperscalers investeren massaal in datacenters.
- Een belangrijk deel van de AI-vraag komt… van de AI-spelers zelf: start-ups, labs, platforms, modelbouwers.
- Die spelers financieren hun cloudconsumptie via kapitaalrondes waarbij hyperscalers en halfgeleiderreuzen vaak aandeelhouder, partner of exclusieve leverancier zijn.
- De cloudomzet zwelt dus deels aan dankzij een systeem waarin de leverancier zijn eigen klant indirect financiert.
Dat is niet catastrofaal, maar het is wel opmerkelijk dat die circulariteit spelers toelaat spectaculaire groei te tonen terwijl de eindvraag van het brede publiek of traditionele ondernemingen nog niet heeft bewezen dat ze in hetzelfde tempo volgt.
Waarom is dat broos?
- Omdat de lus afhangt van de kapitaalkost. Zolang geld overvloedig is en waarderingen hoog blijven, kunnen start-ups cloud met verlies consumeren. Als de appetijt op de markten afneemt, krimpt de lus snel.
- Omdat de inkomsten gecorreleerd zijn. Vermindert een schakel zijn uitgaven (bijvoorbeeld een AI-platform dat zijn groei afremt), dan ziet de hyperscaler zijn cloudinkomsten vertragen, daalt zijn herinvesteringscapaciteit en weegt dat op de vraag naar GPU’s… enzovoort.
- Omdat de finale waarde nog niet gegarandeerd is. Het ecosysteem spendeert vandaag enorm op basis van een belofte, maar als de monetaire opbrengst van use-cases langer op zich laat wachten, wordt het hele kaartenhuis erg gevoelig voor een regimewissel.
Boekhoudkundige creativiteit
Sommigen spreken van fraude, anderen van boekhoudkundige creativiteit. Dit is volgens mij het meest pragmatische punt: hyperscalers zijn hun veronderstelde gebruiksduur van servers en chips gaan optrekken en verlengen dus de afschrijvingstermijnen, terwijl de productlevenscyclus van AI-hardware net korter wordt. Een zorgwekkende divergentie die doet vermoeden dat ze vandaag resultaat boeken ten koste van dat van morgen.

Nuttige levensduur van servers (afschrijvingsplan) bij de drie grootste hyperscalers. De gecoördineerde overgang van 3/4 jaar naar 6 jaar is doorheen de tijd goed zichtbaar. Bron: “Why AI factories bend, but don’t break, useful life assumptions”, SiliconAngle.
In 2023 verlengde Alphabet de geraamde levensduur van servers van 4 naar 6 jaar en van bepaalde netwerkapparatuur van 5 naar 6 jaar. Idem voor Microsoft.
In 2025 verlengde Meta naar 5,5 jaar (voorheen 4–5 jaar). In datzelfde jaar begon Oracle zijn materiaal eveneens over 6 jaar af te schrijven.
Begrijp je het financiële mechanisme niet? Hier een voorbeeld.
Stel dat een hyperscaler voor 100 mrd USD aan servers/GPU’s koopt. Als het bedrijf de nuttige levensduur van dat materiaal op 3 jaar schat, boekt het circa 33 mrd USD per jaar aan afschrijving (uitgaand van lineaire afschrijving). Rekt het dat op naar 6 jaar, dan boekt het nog maar 17 mrd USD per jaar.
Resultaat: op korte termijn +16 mrd USD aan bedrijfsresultaat per jaar, zonder dat er een cent cash is veranderd. Het is louter timing in de resultatenrekening, want over vier jaar zal de boekwaarde van die activa op de balans losstaan van de economische realiteit en kan het bedrijf ertoe worden genoopt de restwaarde in één klap te waardeverminderen – tot verrassing van tal van beleggers.
Michael Burry schat dat de schaal van de onderafschrijvingen op AI-activa bij deze bedrijven tegen 2028 circa 180 mrd USD zal bedragen. Volgens hem kon deze boeking Oracle toelaten zijn winst met 26,9 % op te krikken en Meta met 20,8 %.
Volgens hun schatting zouden, als deze activa over drie jaar in plaats van de nu langere termijnen werden afgeschreven, de jaarlijkse winst vóór belasting met circa 8 % dalen. En als de waardeverminderingen echt zouden sporen met het ritme dat Nvidia oplegt (wat extreem is en volgens mij weinig zin heeft – kijk maar naar het iPhone-voorbeeld), zou de impliciete klap op de marktwaarde 4.000 mrd USD kunnen bedragen.
Over de term “fraude” kan je discussiëren, want het is niet eenvoudig de nuttige levensduur te schatten van materiaal dat onderhevig is aan min of meer jaarlijkse innovatie. Maar het economische mechanisme staat vast: men duwt de factuur de toekomst in terwijl de technologie versnelt. Dat is de vreemde divergentie. Daartegenover staat, zoals ik in het eerste punt zei, dat de openbrongemeenschap effectief inspanningen levert om software te bouwen waarmee de nieuwste modellen op chips van oudere generaties draaien. En het is best mogelijk dat de nieuwste generaties chips in de praktijk zeer veerkrachtig blijken, vooral in de laatste fase van hun leven, voor eenvoudigere toepassingen (en niet voor training) bij klanten zoals wij.
Misschien hebben die waarschuwingssignalen er uiteindelijk voor gezorgd dat de AI-gok niet nóg drukker is geworden dan hij al is. Dat is de enigszins stoutmoedige theorie van Bank of America, die denkt dat dit scepticisme de durvers ten goede komt en andere beleggers langs de zijlijn laat. Het spreekt voor zich dat het gespecialiseerde halfgeleideronderzoeksteam van de Amerikaanse zakenbank geen twijfel koestert over de robuustheid van de sector, ondanks het omgevingslawaai.