Wanneer Jensen Huang maandag het podium van een volgepakte hockeyarena betreedt om de jaarlijkse ontwikkelaarsconferentie van Nvidia te openen, zal hij naar verwachting producten en partnerschappen onthullen die erop gericht zijn de AI-chipmaker aan de top te houden te midden van een groeiend aantal concurrenten.

Nvidia GTC, zoals de conferentie heet, neemt gedurende bijna een week het hart van Silicon Valley over. Het is het favoriete evenement van CEO Huang geworden om de vooruitgang van Nvidia te tonen op het gebied van chips, datacenters, de programmeersoftware CUDA, digitale assistenten (bekend als AI-agents) en fysieke AI zoals robots.

Dit jaar is het vierdaagse evenement nog crucialer, omdat investeerders bevestiging zoeken dat de strategie van Nvidia – het herinvesteren van winsten in het AI-ecosysteem – zijn vruchten afwerpt.

"Ik verwacht dat Nvidia een volledige roadmap-update zal presenteren van Rubin tot Feynman, met de nadruk op inference, agentic AI, netwerken en AI-fabrieksinfrastructuur," aldus eMarketer-analist Jacob Bourne, die de namen gebruikte voor de huidige en toekomstige generaties chips van Nvidia. 

De chips van Nvidia vormen het middelpunt van honderden miljarden dollars aan investeringen in datacenters door overheden en bedrijven wereldwijd, maar het bedrijf wordt geconfronteerd met concurrentie van andere chipmakers en zelfs van sommige klanten die hun eigen chips ontwikkelen. 

Analisten vertelden Reuters dat ze verwachten dat de totale markt voor AI-chips zal blijven groeien, maar dat het aandeel van Nvidia iets zal krimpen naarmate de markt snel verandert naar een situatie waarin AI-agents heen en weer snellen tussen computerapplicaties om taken uit te voeren namens mensen. Dat is een verschuiving ten opzichte van training, waarbij AI-labs veel Nvidia-chips aan elkaar koppelen in één computer om enorme hoeveelheden data te verwerken en hun AI-modellen te perfectioneren.

Er wordt verwacht dat deze agents zo talrijk zullen worden dat de mensen die hen opdrachten geven zelfs een nieuwe laag van AI-middenmanagers nodig zullen hebben – wat technologen een "orchestration"-laag noemen – die tussen de menselijke gebruikers en hun vloot van agents in staat. 

In zekere zin is dat volgens analisten een goede zaak voor Nvidia, omdat het aangeeft dat AI nuttiger wordt.

Maar die taken, in de AI-industrie algemeen bekend als "inference", kunnen ook draaien op andere soorten chips, waaronder de chips die grote Nvidia-klanten zoals OpenAI en Meta zelf kunnen bouwen. Meta kondigde onlangs aan elke zes maanden nieuwe AI-chips te willen uitbrengen.

"Nvidia zal zeker meer concurrentie zien vergeleken met een jaar geleden," zei KinNgai Chan, managing director bij Summit Insights Group. "Nvidia heeft vandaag de dag nog steeds een marktaandeel van bijna 90% in zowel de trainings- als de inferencemarkt."

"We denken dat Nvidia vanaf 2027 marktaandeel zal gaan verliezen, zodra interne ASIC-programma's enige schaal bereiken, vooral in de inferencemarkt," zei hij, verwijzend naar applicatiespecifieke geïntegreerde circuits: chips die zijn afgestemd op een enkele functie of aangepaste werklast en een hogere efficiëntie bieden dan grafische processoren voor algemeen gebruik.

NVIDIA VERSTERKT DE DEFENSIE

Het bedrijf gaf in december 17 miljard dollar uit aan de overname van Groq, een chip-startup die gespecialiseerd is in snel en goedkoop inference-rekenwerk. Tijdens de presentatie van de kwartaalcijfers vorige maand zei Huang dat het bedrijf op GTC zal laten zien hoe Nvidia de ultrasnelle AI-technologie van Groq kan integreren in hun bestaande CUDA-platform.

William McGonigle, analist bij Third Bridge, zei dat zijn firma verwacht dat Nvidia een nieuwe lijn servers zal introduceren die de chips van Groq combineert met de netwerktechnologieën van Nvidia om een snel en kostenefficiënt product te creëren.

Een ander type chip dat een toenemende concurrentiebedreiging vormt voor Nvidia is de centrale verwerkingseenheid, of CPU, het type chip dat lang werd gedomineerd door Intel en Advanced Micro Devices.

Hoewel die chips de afgelopen jaren op de achtergrond raakten door de grafische processoren (GPU's) van Nvidia, zei McGonigle dat ze "weer in de belangstelling staan". Hij verwacht dat Nvidia servers zal tonen die uitsluitend gebruikmaken van eigen CPU's, waar Huang tijdens een recente toelichting op de cijfers lovend over sprak.

"Met de opkomst van agentic AI ligt de bottleneck nu op het niveau van agent-orchestratie, wat wordt uitgevoerd door de CPU's," aldus McGonigle.

Analisten verwachten ook dat Nvidia nader zal toelichten waarom het 2 miljard dollar heeft geïnvesteerd in zowel Lumentum als Coherent, die beide lasers maken om informatie tussen chips te verzenden in de vorm van lichtstralen. Het gebruik van die lasers in zogenaamde "co-packaged optics" zou de verbindingen tussen de chips van Nvidia in enorme datacenters kunnen versnellen, maar ze worden momenteel nog niet in grote genoeg volumes geproduceerd om te voldoen aan het aantal chips dat Nvidia jaarlijks verkoopt.  

"Nvidia zal co-packaged optics waarschijnlijk presenteren als de sleutel om enorme AI-clusters efficiénter te verbinden, maar de uitdaging is om het betaalbaar genoeg te maken voor grootschalige inzet," aldus Bourne van eMarketer.