VMware, Inc. kondigt een samenwerking aan met Intel om de meer dan twintig jaar innovatie van de bedrijven uit te breiden om klanten te helpen de adoptie van kunstmatige intelligentie (AI) te versnellen en overal private AI mogelijk te maken in datacenters, publieke clouds en edge-omgevingen.

VMware en Intel werken aan een gezamenlijk gevalideerde AI-stack waarmee klanten hun bestaande algemene VMware- en Intel-infrastructuur en open source software kunnen gebruiken om het bouwen en implementeren van AI-modellen te vereenvoudigen. De combinatie van VMware Cloud Foundation en Intel's AI-softwaresuite, Intel® Xeon® processors met ingebouwde AI-versnellers en Intel® Max Series GPU's levert een gevalideerde en gebenchmarkte AI-stack voor datavoorbereiding, modeltraining, fine-tuning en inferencing om wetenschappelijke ontdekkingen te versnellen en zakelijke en consumentenservices te verrijken. Meer dan 300.000 klanten implementeren VMware Cloud wereldwijd, en virtualisatiesoftware van VMware wordt bijna overal in de onderneming ingezet waar gegevens worden gecreëerd, verwerkt of verbruikt.

Dit maakt VMware Cloud een snelle manier om AI-versnelde rekenkracht en modellen overal te brengen waar zaken gedaan worden. Op dezelfde manier biedt Intel open, schaalbare en vertrouwde oplossingen aan honderdduizenden klanten. De alomtegenwoordigheid van VMware- en Intel-producten in de onderneming is een krachtige combinatie die de toegankelijkheid van datawetenschap zal vergroten en organisaties wereldwijd in staat zal stellen om Private AI te gebruiken, een architecturale benadering die erop gericht is om de zakelijke voordelen van AI in balans te brengen met de praktische behoeften op het gebied van privacy en compliance.

VMware Private AI brengt rekencapaciteit en AI-modellen naar de plaats waar bedrijfsgegevens worden gecreëerd, verwerkt en gebruikt, in een publieke cloud, bedrijfsdatacenter of aan de rand, ter ondersteuning van traditionele AI/ML-workloads en generatieve AI. VMware en Intel maken de fijnafstemming van taakspecifieke modellen binnen enkele minuten tot uren mogelijk en de inferencing van grote taalmodellen sneller dan menselijke communicatie met behulp van bedrijfsgegevens van de klant. VMware en Intel maken het nu mogelijk om kleinere, zuinige modellen te fine-tunen, die eenvoudiger te updaten en te onderhouden zijn op gedeelde virtuele systemen, die vervolgens terug geleverd kunnen worden aan de IT resource pool wanneer de AI-batchjobs voltooid zijn.

Use cases zoals AI-ondersteunde codegeneratie, aanbevelingssystemen voor ervaringsgerichte klantenservicecentra en klassieke statistische machineanalyses kunnen nu op dezelfde servers voor algemene doeleinden worden geplaatst waarop de toepassing wordt uitgevoerd. VMware en Intel ontwerpen een referentiearchitectuur die Intel's AI-softwaresuite, Intel® Xeon®-processors en Data Center GPU's combineert met VMware Cloud Foundation om klanten in staat te stellen private AI-modellen te bouwen en te implementeren op de infrastructuur die ze hebben, waardoor de totale eigendomskosten worden verlaagd en milieuduurzaamheid wordt bevorderd. Deze VMware Private AI referentiearchitectuur met Intel AI omvat: 4e generatie Intel® Xeon® processoren met Intel® Advanced Matrix Extensions (Intel® AMX) leveren tot 10x significante out-of-box prestatieverbeteringen met behulp van standaard frameworks en bibliotheken uit de industrie, end-to-end data science productiviteitstools en geoptimaliseerde AI-modellen.

Intel® Data Center GPU Max bevat tot 128 Xe cores en is Intel's fundamentele GPU rekenbouwsteen gericht op de meest veeleisende AI werklasten. GPU's uit de Intel Max-serie zullen beschikbaar zijn in verschillende vormfactoren om aan verschillende behoeften van klanten te voldoen. Intel's AI-softwaresuite is verpakt met end-to-end open source software en optionele licentiecomponenten om ontwikkelaars in staat te stellen volledige AI-pijplijnworkflows uit te voeren, van datavoorbereiding tot fijnafstemming tot inferentie, het bouwen van multi-node schaling te versnellen en AI in te zetten op de IT-infrastructuur van bedrijven.

Het open oneAPI framework maakt processor- en hardwareversnelleragnostische softwareontwikkeling mogelijk, zodat ontwikkelaars code één keer kunnen schrijven en deze op verschillende architecturen kunnen uitvoeren, waardoor meerdere codebases en gespecialiseerde talen overbodig worden. Intel's Transformer Extensions en PyTorch Extension's diepe integratie met de favoriete open source Hugging Face bibliotheken van ontwikkelaars bieden geautomatiseerde optimalisatierecepten voor het verfijnen en comprimeren van modellen voor efficiënte inferentie. VMware Cloud Foundation biedt een consistente infrastructuur van enterpriseklasse, operationele eenvoud en verbeterde beveiliging voor VMware Private AI via mogelijkheden zoals: VMware vSAN Express Storage Architecture die tot 30% betere prestaties en minimale overhead biedt voor belangrijke mogelijkheden zoals encryptie voor I/O-intensieve AI/ML-tuning en inferencing-workloads.

vSphere Distributed Resources Scheduler helpt efficiënt gebruik te maken van vrije rekencapaciteit voor AI-model training en inferencing, door gebruik te maken van dezelfde clusters die andere AI-applicaties gebruiken, waardoor de capaciteit wordt gemaximaliseerd en de TCO wordt verlaagd. VMware NSX voor het bouwen van microsegmentatie en geavanceerde bescherming tegen bedreigingen. Beveiligd opstarten en virtuele TPM voor de vertrouwelijkheid van modellen en gegevens.