Facebook-eigenaar Meta Platforms is van plan om dit jaar in zijn datacenters een nieuwe versie van een eigen chip in te zetten om zijn streven naar kunstmatige intelligentie (AI) te ondersteunen, volgens een intern bedrijfsdocument dat donderdag door Reuters is ingezien.

De chip, een tweede generatie van een interne siliciumlijn die Meta vorig jaar aankondigde, zou Meta kunnen helpen om minder afhankelijk te worden van de Nvidia-chips die de markt domineren en om de stijgende kosten in de hand te houden die gepaard gaan met het uitvoeren van AI-workloads, terwijl het bedrijf racet om AI-producten te lanceren.

Het grootste sociale mediabedrijf ter wereld is druk bezig geweest om zijn rekencapaciteit te vergroten voor de energieverslindende generatieve AI-producten die het in de apps Facebook, Instagram en WhatsApp en hardware-apparaten zoals de Ray-Ban smartglasses pusht. Het bedrijf heeft miljarden dollars uitgegeven om een arsenaal aan gespecialiseerde chips te vergaren en datacenters te herconfigureren om ze te kunnen gebruiken.

Op de schaal waarop Meta opereert, zou een succesvolle inzet van zijn eigen chip mogelijk honderden miljoenen dollars aan jaarlijkse energiekosten en miljarden aan chipaankoopkosten kunnen besparen, volgens Dylan Patel, oprichter van de siliciumonderzoeksgroep SemiAnalysis.

De chips, infrastructuur en energie die nodig zijn om AI-toepassingen uit te voeren, zijn een gigantische investeringsput geworden voor techbedrijven, die tot op zekere hoogte de winst tenietdoet die is gemaakt in de stormloop van opwinding rond de technologie.

Een woordvoerder van Meta bevestigde het plan om de bijgewerkte chip in 2024 in productie te nemen en zei dat deze zou samenwerken met de honderdduizenden off-the-shelf grafische verwerkingseenheden (GPU's) - de chips die het bedrijf koopt voor AI.

"We zien onze intern ontwikkelde versnellers als zeer complementair met commercieel verkrijgbare GPU's bij het leveren van de optimale mix van prestaties en efficiëntie op Meta-specifieke werklasten," zei de woordvoerder in een verklaring.

Mark Zuckerberg, CEO van Meta, zei vorige maand dat het bedrijf van plan was om tegen het einde van het jaar ongeveer 350.000 vlaggenschip "H100"-processors van Nvidia te hebben, die de meest gewilde GPU's voor AI produceert. In combinatie met andere leveranciers zou Meta de equivalente rekencapaciteit van in totaal 600.000 H100's verzamelen, zei hij.

De inzet van een eigen chip als onderdeel van dat plan is een positieve wending voor Meta's eigen AI-siliciumproject, na een besluit van leidinggevenden in 2022 om de stekker uit de eerste versie van de chip te trekken.

In plaats daarvan koos het bedrijf ervoor om voor miljarden dollars aan GPU's van Nvidia te kopen, die een bijna-monopolie hebben op een AI-proces dat training heet en waarbij enorme datasets aan modellen worden toegevoerd om ze te leren hoe ze taken moeten uitvoeren.

De nieuwe chip, die intern "Artemis" wordt genoemd, kan net als zijn voorganger alleen een proces uitvoeren dat inferentie wordt genoemd, waarbij de modellen worden opgeroepen om hun algoritmen te gebruiken om rangschikkingen te maken en antwoorden op gebruikersvragen te genereren.

Reuters meldde vorig jaar dat Meta ook werkt aan een ambitieuzere chip die, net als GPU's, in staat zou zijn om zowel training als inferentie uit te voeren.

Het bedrijf uit Menlo Park, Californië, deelde vorig jaar details over de eerste generatie van zijn Meta Training and Inference Accelerator (MTIA) programma. In de aankondiging werd die versie van de chip afgeschilderd als een leermogelijkheid.

Ondanks die eerste struikelblokken zou een inferentiechip volgens Patel aanzienlijk efficiënter kunnen zijn in het kraken van Meta's aanbevelingsmodellen dan de energieverslindende Nvidia-processors.

"Er wordt veel geld en stroom verbruikt dat bespaard zou kunnen worden," zei hij. (Verslaggeving door Katie Paul in New York en Stephen Nellis en Max A. Cherney in San Francisco; Bewerking door Kenneth Li en Mark Porter)