Nvidia heeft maandag nieuwe functies toegevoegd aan zijn topchip voor kunstmatige intelligentie en zei dat het nieuwe aanbod volgend jaar zal worden uitgerold met Amazon.com, Alphabet's Google en Oracle.

De H200, zoals de chip wordt genoemd, zal Nvidia's huidige top-chip H100 inhalen. De belangrijkste upgrade is meer geheugen met hoge bandbreedte, een van de duurste onderdelen van de chip die bepaalt hoeveel gegevens deze snel kan verwerken.

Nvidia domineert de markt voor AI-chips en is de drijvende kracht achter OpenAI's ChatGPT service en vele soortgelijke generatieve AI-diensten die reageren op zoekopdrachten met een mensachtige schrijfwijze. De toevoeging van meer geheugen met hoge bandbreedte en een snellere verbinding met de verwerkingselementen van de chip betekent dat dergelijke diensten sneller een antwoord kunnen uitspugen.

De H200 heeft 141 gigabyte aan high-bandwidth geheugen, tegenover 80 gigabyte in de vorige H100. Nvidia heeft zijn leveranciers voor het geheugen op de nieuwe chip niet bekendgemaakt, maar Micron Technology zei in september dat het eraan werkte om een Nvidia-leverancier te worden.

Nvidia koopt ook geheugen van SK Hynix uit Korea, dat vorige maand zei dat AI-chips helpen om de verkoop te stimuleren.

Nvidia zei woensdag dat Amazon Web Services, Google Cloud, Microsoft Azure en Oracle Cloud Infrastructure tot de eerste cloudproviders zullen behoren die toegang bieden tot H200-chips, naast gespecialiseerde AI-cloudproviders CoreWeave, Lambda en Vultr. (Verslaggeving door Stephen Nellis in San Francisco. Bewerking door Sam Holmes.)