Supermicro, Inc. heeft aangekondigd dat het begonnen is met de levering van zijn top-of-the-line nieuwe GPU-servers die voorzien zijn van het nieuwste NVIDIA HGX H100 8-GPU-systeem. Supermicro servers bevatten de nieuwe NVIDIA L4 Tensor Core GPU in een breed scala van applicatie-geoptimaliseerde servers van de edge tot het datacenter. Supermicro's krachtigste nieuwe 8U GPU-server wordt nu in grote volumes geleverd.

Deze nieuwe Supermicro 8U server is geoptimaliseerd voor AI, DL, ML en HPC workloads en wordt aangedreven door de NVIDIA HGX H100 8-GPU met de hogere GPU-to-GPU communicatie met behulp van de snellere NVIDIA NVLink® 4.0 technologie, NVSwitch interconnects en NVIDIA Quantum-2 InfiniBand en Spectrum-4 Ethernet netwerken om de barrières van AI op schaal te doorbreken. Daarnaast biedt Supermicro verschillende prestatie-geoptimaliseerde configuraties van GPU-servers, waaronder direct-connect/single-root/dual-root CPU's naar GPU's en front- of rear I/O-modellen met AC- en DC-voeding in standaard en OCP DC rack-configuraties. De Supermicro X13 SuperBlade®-behuizing biedt plaats aan 20 NVIDIA H100 Tensor Core PCIe GPU's of 40 NVIDIA L40 GPU's in een 8U-behuizing.

Daarnaast kunnen maximaal 10 NVIDIA H100 PCIe GPU's of 20 NVIDIA L4 Tensor Core GPU's worden gebruikt in een 6U-behuizing. Deze nieuwe systemen leveren de geoptimaliseerde versnelling die ideaal is voor het uitvoeren van NVIDIA AI Enterprise, de softwarelaag van het NVIDIA AI-platform. Vloeistofkoeling van deze servers wordt ook ondersteund op veel GPU-servers.

Daarnaast kondigt Supermicro een vloeistofgekoeld AI ontwikkelingssysteem aan (als tower of rack-mounted configuratie) met twee CPU's en vier NVIDIA A100 Tensor Core GPU's, die ideaal zijn voor kantoor- en thuiskantooromgevingen en kunnen worden ingezet in clusters van afdelingen en bedrijven. Supermicro-systemen ondersteunen de nieuwe NVIDIA L4 GPU, die een meervoudige versnellingswinst en energie-efficiëntie oplevert in vergelijking met vorige generaties. Hetzelfde geldt voor AI-inferenties, videostreaming, virtuele werkstations en grafische toepassingen in de onderneming, in de cloud en aan de rand.

Met NVIDIA's AI-platform en full-stack aanpak is de L4 geoptimaliseerd voor inferentie op schaal voor een breed scala aan AI-toepassingen, waaronder aanbevelingen, spraakgebaseerde AI-avatar-assistenten, chatbots, visueel zoeken en automatisering van contactcentra om de best gepersonaliseerde ervaringen te leveren. Als de meest efficiënte NVIDIA-accelerator voor mainstream servers heeft de L4 tot 4x hogere AI-prestaties, een hogere energie-efficiëntie en meer dan 3x meer videostreamingcapaciteit en -efficiëntie met ondersteuning van AV1-codering/decodering. De veelzijdigheid van de L4 GPU voor inferentie en visualisatie en de kleine, energiezuinige, single-slot, low-profile, energiezuinige 72W vormfactor maken hem ideaal voor wereldwijde inzet, ook op edge locaties.

Supermicro's nieuwe PCIe versnelde oplossingen maken de creatie van 3D-werelden, digitale tweelingen, 3D-simulatiemodellen en de industriële metaverse mogelijk. Naast ondersteuning voor de vorige generaties NVIDIA OVXo systemen, biedt Supermicro een OVX 3.0 configuratie met vier NVIDIA L40 GPU's, twee NVIDIA ConnectX®-7 SmartNIC's, een NVIDIA BlueField®-3 DPU en de nieuwste NVIDIA Omniverse Enterpriseo software.