Op het podium op maandag kondigde CEO Tim Cook's Apple een flitsende deal aan met OpenAI om zijn krachtige kunstmatige intelligentie model op te nemen als onderdeel van zijn spraakassistent Siri.

Maar in de kleine lettertjes van een technisch document dat Apple na het evenement publiceerde, maakt het bedrijf duidelijk dat Alphabet's Google als een andere winnaar uit de bus is gekomen in de zoektocht van het bedrijf uit Cupertino, Californië, om zijn achterstand op het gebied van AI in te halen.

Om de basis-AI-modellen van Apple te bouwen, gebruikten de technici van het bedrijf zijn eigen frameworksoftware met een reeks hardware, met name zijn eigen on-premise grafische verwerkingseenheden (GPU's) en chips die alleen beschikbaar zijn in de cloud van Google, de zogenaamde tensorverwerkingseenheden (TPU's).

Google bouwt al ongeveer 10 jaar TPU's en heeft in het openbaar twee smaken van zijn vijfde generatie chips besproken die gebruikt kunnen worden voor AI-training; de prestatieversie van de vijfde generatie biedt prestaties die concurrerend zijn met Nvidia H100 AI-chips, aldus Google.

Google kondigde op zijn jaarlijkse ontwikkelaarsconferentie aan dat er dit jaar een zesde generatie zal worden gelanceerd.

De processors zijn speciaal ontworpen om AI-toepassingen uit te voeren en modellen te trainen, en Google heeft er een cloud computing hardware- en softwareplatform omheen gebouwd.

Apple en Google reageerden niet direct op verzoeken om commentaar.

Apple ging niet in op de mate waarin het vertrouwde op de chips en software van Google in vergelijking met hardware van Nvidia of andere AI-leveranciers.

Maar om de chips van Google te gebruiken, moet een klant meestal toegang kopen via de clouddivisie van Google, net zoals klanten computertijd kopen bij Amazon.com's AWS of Microsoft's Azure. (Verslag door Max A. Cherney; Bewerking door Sandra Maler)