Red Hat, Inc. lanceert Red Hat Enterprise Linux AI (RHEL AI), een platform voor basismodellen waarmee gebruikers naadloos generatieve AI-modellen (GenAI) kunnen ontwikkelen, testen en implementeren. RHEL AI brengt de open source-gelicentieerde Granite large language model (LLM) familie van IBM Research, InstructLab model alignment tools gebaseerd op de LAB (Large-scale Alignment for chatBots) methodologie en een community-gedreven aanpak voor modelontwikkeling via het InstructLab project samen. De gehele oplossing is verpakt als een geoptimaliseerd, bootable RHEL image voor individuele serverimplementaties in de hybride cloud en is ook inbegrepen als onderdeel van OpenShift AI, Red Hat's hybride machine learning operations (MLOps) platform, voor het op schaal uitvoeren van modellen en InstructLab in gedistribueerde clusteromgevingen.

De lancering van ChatGPT wekte enorme interesse op in GenAI, en sindsdien is het innovatietempo alleen maar toegenomen. Sindsdien is het innovatietempo alleen maar versneld. Bedrijven zijn begonnen met het uitbouwen van AI-gebaseerde toepassingen in plaats van met vroege evaluaties van GenAI-diensten. Een snel groeiend ecosysteem van open modelopties heeft verdere AI-innovatie gestimuleerd en laat zien dat er niet één model zal zijn dat over alles heerst.

Klanten zullen profiteren van een reeks keuzes om aan specifieke vereisten te voldoen, wat allemaal nog verder versneld zal worden door een open benadering van innovatie. Het implementeren van een AI-strategie vereist meer dan alleen het selecteren van een model; technologie-organisaties hebben de expertise nodig om een bepaald model af te stemmen op hun specifieke gebruikscasus, en om de aanzienlijke kosten van AI-implementatie op te vangen. De schaarste aan vaardigheden op het gebied van datawetenschappen wordt nog verergerd door aanzienlijke financiële vereisten, zoals: Het aanschaffen van AI-infrastructuur of het afnemen van AI-diensten Het complexe proces van het afstemmen van AI-modellen voor specifieke bedrijfsbehoeften Het integreren van AI in bedrijfsapplicaties Het beheren van zowel de applicatie- als de modellevenscyclus.

Om de toetredingsdrempels voor AI-innovatie echt te verlagen, moeten bedrijven het aantal mensen dat aan AI-initiatieven kan werken kunnen uitbreiden en tegelijkertijd deze kosten onder controle kunnen houden. Met de InstructLab-uitlijningstools, Granite-modellen en RHEL AI wil Red Hat de voordelen van echte open-sourceprojecten - vrij toegankelijk en herbruikbaar, transparant en open voor bijdragen - toepassen op GenAI in een poging om deze obstakels uit de weg te ruimen. IBM Research heeft de Large-scale Alignment for chatBots (LAB)-techniek ontwikkeld, een benadering voor modeluitlijning die gebruikmaakt van taxonomie-geleide synthetische gegevensgeneratie en een nieuw meerfasig afstemmingsraamwerk.

Deze aanpak maakt AI-modelontwikkeling opener en toegankelijker voor alle gebruikers door de afhankelijkheid van dure menselijke annotaties en bedrijfseigen modellen te verminderen. Met behulp van de LAB-methode kunnen modellen worden verbeterd door vaardigheden en kennis te specificeren die zijn gekoppeld aan een taxonomie, synthetische gegevens op schaal te genereren uit die informatie om het model te beïnvloeden en de gegenereerde gegevens te gebruiken voor modeltraining. Nadat ze hadden gezien dat de LAB-methode de prestaties van modellen aanzienlijk kon verbeteren, besloten IBM en Red Hat InstructLab te lanceren, een open source community die is opgebouwd rond de LAB-methode en de open source Granite-modellen van IBM.

Het InstructLab-project heeft als doel om de ontwikkeling van LLM in handen van ontwikkelaars te leggen door het bouwen van en bijdragen aan een LLM net zo eenvoudig te maken als bijdragen aan elk ander open source-project. Als onderdeel van de lancering van InstructLab heeft IBM ook een aantal geselecteerde Granite Engelse taal- en codemodellen vrijgegeven. Deze modellen worden vrijgegeven onder een Apache-licentie met transparantie over de datasets die gebruikt zijn om deze modellen te trainen.

Het Granite 7B Engelse taalmodel is geïntegreerd in de InstructLab community, waar eindgebruikers de vaardigheden en kennis kunnen inbrengen om dit model gezamenlijk te verbeteren, net zoals ze dat zouden doen bij bijdragen aan elk ander open source project. Vergelijkbare ondersteuning voor Granite code-modellen binnen InstructLab zal binnenkort beschikbaar zijn. RHEL AI bouwt voort op deze open benadering van AI-innovatie en bevat een bedrijfsversie van het InstructLab-project en de Granite-taal en -code-modellen, samen met het toonaangevende Linux-platform voor bedrijven om de implementatie in een hybride infrastructuuromgeving te vereenvoudigen.

Dit creëert een basismodelplatform om GenAI-modellen met open-sourcelicentie naar de onderneming te brengen. RHEL AI omvat: Granite-taal en code-modellen met een open-sourcelicentie die worden ondersteund en gevrijwaard door Red Hat. Een ondersteunde, levenslange distributie van InstructLab die een schaalbare, kosteneffectieve oplossing biedt voor het verbeteren van LLM-mogelijkheden en het toegankelijk maken van kennis- en vaardigheidsbijdragen voor een veel breder scala aan gebruikers.

Geoptimaliseerde opstartbare model runtime instances met Granite modellen en InstructLab tooling pakketten als opstartbare RHEL images via RHEL image mode, inclusief geoptimaliseerde Pytorch runtime libraries en accelerators voor AMD Instinct? MI300X, Intel en NVIDIA GPU's en NeMo frameworks. Red Hat's volledige bedrijfsondersteuning en levenscyclusbelofte die begint met een vertrouwde distributie van bedrijfsproducten, 24x7 productieondersteuning en uitgebreide levenscyclusondersteuning.

Als organisaties nieuwe AI-modellen experimenteren en afstemmen op RHEL AI, hebben ze een kant-en-klare aanlooproute voor het schalen van deze workflows met Red Hat OpenShift AI, dat RHEL AI zal bevatten, en waar ze gebruik kunnen maken van OpenShift's Kubernetes engine om AI-modellen op schaal te trainen en te serveren en OpenShift AI's geïntegreerde MLOps-mogelijkheden om de levenscyclus van het model te beheren. IBM's watsonx.ai enterprise studio, die momenteel gebouwd is op Red Hat OpenShift AI, zal profiteren van de opname van RHEL AI in OpenShift AI zodra deze beschikbaar is, wat extra mogelijkheden biedt voor enterprise AI-ontwikkeling, datamanagement, modelgovernance en verbeterde prijsprestaties.