Red Hat, Inc. en Run:ai hebben een samenwerking aangekondigd om Run:ai's mogelijkheden voor resourcetoewijzing naar Red Hat OpenShift AI te brengen. Door AI-operaties te stroomlijnen en de onderliggende infrastructuur te optimaliseren, stelt deze samenwerking bedrijven in staat om het meeste uit AI-resources te halen, door zowel mens- als hardwaregedreven workflows te maximaliseren op een vertrouwd MLOps-platform voor het bouwen, tunen, implementeren en monitoren van AI-gebaseerde applicaties en modellen op schaal. GPU's zijn de rekenmachines die AI-workflows aansturen en modeltraining, inferentie, experimenten en nog veel meer mogelijk maken.

Deze gespecialiseerde processors kunnen echter duur zijn, vooral wanneer ze gebruikt worden voor gedistribueerde trainingstaken en inferentie. Red Hat en Run:ai werken samen om in deze kritieke behoefte aan GPU-resourcesoptimalisatie te voorzien met de gecertificeerde OpenShift Operator van Run:ai op Red Hat OpenShift AI, die gebruikers helpt schalen en optimaliseren waar hun AI-workloads zich ook bevinden. Run:ai's cloud-native compute orkestratieplatform op Red Hat OpenShift AI helpt: GPU-planningsproblemen voor AI-werklasten aan te pakken met een speciale werklastplanner om gemakkelijker prioriteit te geven aan missiekritieke werklasten en te bevestigen dat er voldoende bronnen zijn toegewezen om deze werklasten te ondersteunen.

Gebruik fractionele GPU- en bewakingsmogelijkheden om resources dynamisch toe te wijzen volgens vooraf ingestelde prioriteiten en beleidslijnen en de efficiëntie van de infrastructuur te verhogen. Verbeterde controle en zichtbaarheid over gedeelde GPU-infrastructuur voor eenvoudigere toegang en toewijzing van resources door IT-, data science- en applicatieontwikkelingsteams. De gecertificeerde OpenShift Operator van Run:ai is nu beschikbaar. Red Hat en Run:ai zijn van plan om in de toekomst verder te bouwen aan deze samenwerking met aanvullende integratiemogelijkheden voor Run:ai op Red Hat OpenShift AI.

Dit heeft als doel om meer naadloze klantervaringen te ondersteunen en AI-modellen nog sneller in productieworkflows te plaatsen met een nog grotere consistentie.