Google Cloud en NVIDIA hebben een uitgebreid partnerschap aangekondigd om de ML-gemeenschap (Machine Learning) te voorzien van technologie die hun inspanningen om generatieve AI-toepassingen eenvoudig te bouwen, op te schalen en te beheren, versnelt. Om doorbraken op het gebied van AI naar haar producten en ontwikkelaars te blijven brengen, kondigde Google aan het nieuwe NVIDIA Grace Blackwell AI-computerplatform te gaan gebruiken, evenals de NVIDIA DGX Cloud-service op Google Cloud. Bovendien is het NVIDIA H100-aangedreven DGX Cloud-platform nu algemeen beschikbaar op Google Cloud.

Voortbouwend op hun recente samenwerking om de Gemma familie van open modellen te optimaliseren, zal Google ook NVIDIA NIM inferentie microservices aannemen om ontwikkelaars een open, flexibel platform te bieden om te trainen en in te zetten met de tools en frameworks van hun voorkeur. De bedrijven kondigden ook ondersteuning aan voor JAX op NVIDIA GPU's en Vertex AI-instanties aangedreven door NVIDIA H100 en L4 Tensor Core GPU's. De nieuwe integraties tussen NVIDIA en Google Cloud bouwen voort op de jarenlange toewijding van de bedrijven om de AI-gemeenschap te voorzien van toonaangevende mogelijkheden op elke laag van de AI-stack.

De belangrijkste onderdelen van de uitbreiding van het partnerschap zijn Adoptie van NVIDIA Grace Blackwell: Het nieuwe Grace Blackwell-platform stelt organisaties in staat om real-time inferentie op biljoen-parameter grote taalmodellen te bouwen en uit te voeren. Google adopteert het platform voor verschillende interne implementaties en zal een van de eerste cloudproviders zijn die Blackwell-aangedreven instances aanbiedt. Grace Blackwell-aangedreven DGX Cloud komt naar Google Cloud: Google brengt NVIDIA GB200 NVL72-systemen, die 72 Blackwell GPU's en 36 Grace CPU's combineren die onderling verbonden zijn door NVLink van de vijfde generatie, naar zijn zeer schaalbare en krachtige cloudinfrastructuur.

Het systeem is ontworpen voor energie-efficiënte training en inferentie in een tijdperk van biljoen-parameter LLM's en zal ook beschikbaar zijn via DGX Cloud, een AI-platform dat een serverloze ervaring biedt voor bedrijfsontwikkelaars die LLM's bouwen en serveren. DGX Cloud is nu algemeen beschikbaar op Google Cloud A3 VM-instanties die worden aangedreven door NVIDIA H100 Tensor Core GPU's. Ondersteuning voor JAX op GPU's: Google Cloud en NVIDIA hebben samengewerkt om de voordelen van JAX naar NVIDIA GPU's te brengen, waardoor grootschalige LLM-training toegankelijker wordt voor de bredere ML-gemeenschap. JAX is een raamwerk voor krachtige machine learning dat compiler-georiënteerd en Python-native is, een gebruiksvriendelijk en performant raamwerk voor LLM-training.

AI-oefenaars kunnen JAX nu gebruiken met NVIDIA H100 GPU's op Google Cloud via MaxText en Accelerated Processing Kit (XPK). NVIDIA NIM op Google Kubernetes Engine (GKE): NVIDIA NIM-inferentie microservices, een onderdeel van het NVIDIA AI Enterprise softwareplatform, worden geïntegreerd in GKE. NIM, gebouwd op inferentie-engines waaronder TensorRT-LLM, helpt de inzet van generatieve AI in bedrijven te versnellen, ondersteunt een breed scala aan toonaangevende AI-modellen en zorgt voor naadloze, schaalbare AI-inferentie.

Ondersteuning voor NVIDIA NeMo: Google Cloud heeft het gemakkelijker gemaakt om het NVIDIA NeMo framework in te zetten op zijn platform via Google Kubernetes Engine (GKE) en Google Cloud HPC Toolkit. Dit stelt ontwikkelaars in staat om de training en het serveren van generatieve AI-modellen te automatiseren en op te schalen, en het stelt hen in staat om snel kant-en-klare omgevingen te implementeren door middel van aanpasbare blauwdrukken die het ontwikkelingsproces een vliegende start geven. NVIDIA NeMo, onderdeel van NVIDIA AI Enterprise, is ook beschikbaar in de Google Marketplace, waardoor klanten op een andere manier eenvoudig toegang hebben tot NeMo en andere frameworks om de ontwikkeling van AI te versnellen.

Vertex AI en Dataflow breiden ondersteuning voor NVIDIA GPU's uit: Om data science en analytics te bevorderen, ondersteunt Vertex AI nu Google Cloud A3 VM's die worden aangedreven door NVIDIA H100 GPU's en G2 VM's die worden aangedreven door NVIDIA L4 Tensor Core GPU's. Dit biedt MLOps-teams schaalbare infrastructuur en tooling om vol vertrouwen AI-toepassingen te beheren en te implementeren. Dataflow heeft ook de ondersteuning voor versnelde gegevensverwerking op NVIDIA GPU's uitgebreid.

Google Cloud biedt al lange tijd GPU VM-instanties aan die worden aangedreven door NVIDIA's geavanceerde hardware in combinatie met toonaangevende innovaties van Google. NVIDIA GPU's zijn een kernonderdeel van de Google CloudAI Hypercomputer - een supercomputerarchitectuur die prestatie-geoptimaliseerde hardware, open software en flexibele verbruiksmodellen verenigt. De holistische samenwerking stelt AI-onderzoekers, wetenschappers en ontwikkelaars in staat om de grootste en meest geavanceerde AI-modellen te trainen, af te stellen en te bedienen - nu met nog meer van hun favoriete tools en frameworks gezamenlijk geoptimaliseerd en beschikbaar op Google Cloud.