Oracle kondigt de algemene beschikbaarheid aan van HeatWave GenAI, dat de eerste in-de-database grote taalmodellen (LLM's), een geautomatiseerde in-de-database vectoropslag, schaalbare vectorverwerking en de mogelijkheid om contextuele conversaties in natuurlijke taal te voeren op basis van ongestructureerde inhoud omvat. Deze nieuwe mogelijkheden stellen klanten in staat om de kracht van generatieve AI naar hun bedrijfsdata te brengen, zonder dat ze AI-expertise nodig hebben of data naar een aparte vectordatabase moeten verplaatsen. HeatWave GenAI is per direct beschikbaar in alle Oracle Cloud-regio's, Oracle Cloud Infrastructure (OCI) Dedicated Region en in clouds zonder extra kosten voor HeatWave-klanten.

Met HeatWave GenAI kunnen ontwikkelaars een vectoropslag creëren voor ongestructureerde bedrijfsinhoud met één SQL-opdracht, met behulp van ingebouwde inbeddingsmodellen. Gebruikers kunnen in één enkele stap zoekopdrachten in natuurlijke taal uitvoeren met behulp van in-database of externe LLM's. De gegevens verlaten de database niet en door de extreme schaal en prestaties van HeatWave is het niet nodig om GPU's beschikbaar te stellen. Hierdoor kunnen ontwikkelaars de complexiteit van toepassingen verminderen, de prestaties verhogen, de gegevensbeveiliging verbeteren en de kosten verlagen.

Nieuwe geautomatiseerde en ingebouwde generatieve AI-functies zijn onder andere: In-database LLM's vereenvoudigen de ontwikkeling van generatieve AI-toepassingen tegen lagere kosten. Klanten kunnen profiteren van generatieve AI zonder de complexiteit van externe LLM-selectie en -integratie, en zonder zich zorgen te hoeven maken over de beschikbaarheid van LLM's in datacenters van verschillende cloudproviders. Met de in-database LLM's kunnen klanten gegevens doorzoeken, inhoud genereren of samenvatten en retrieval-augmented generation (RAG) uitvoeren met HeatWave Vector Store.

Daarnaast kunnen ze generatieve AI combineren met andere ingebouwde HeatWave-mogelijkheden zoals AutoML om rijkere toepassingen te bouwen. HeatWave GenAI is ook geïntegreerd met de OCI Generative AI-service om toegang te krijgen tot voorgetrainde, fundamentele modellen van toonaangevende LLM-leveranciers. De geautomatiseerde in-database Vector Store stelt klanten in staat om generatieve AI met hun bedrijfsdocumenten te gebruiken zonder gegevens naar een aparte vector-database te verplaatsen en zonder AI-expertise.

Alle stappen om een vector store en vector embeddings te creëren zijn geautomatiseerd en worden binnen de database uitgevoerd, inclusief het ontdekken van de documenten in objectopslag, het parsen ervan, het genereren van embeddings op een zeer parallelle en geoptimaliseerde manier en het invoegen ervan in de vector store, waardoor HeatWave Vector Store efficiënt en gebruiksvriendelijk is. Het gebruik van een vectoropslag voor RAG helpt de hallucinatie-uitdaging van LLM's op te lossen, aangezien de modellen eigen gegevens kunnen doorzoeken met de juiste context om nauwkeurigere en relevantere antwoorden te geven. Scale-out vectorverwerking levert zeer snelle semantische zoekresultaten zonder verlies van nauwkeurigheid.

HeatWave ondersteunt een nieuw, native VECTOR-gegevenstype en een geoptimaliseerde implementatie van de afstandsfunctie, waardoor klanten semantische zoekopdrachten kunnen uitvoeren met standaard SQL. In-memory hybride kolomrepresentatie en de scale-out architectuur van HeatWave maken vectorverwerking mogelijk met bijna geheugenbandbreedte en parallellisatie over maximaal 512 HeatWave nodes. Het resultaat is dat klanten hun vragen snel beantwoord krijgen.

Gebruikers kunnen semantisch zoeken ook combineren met andere SQL-operatoren om bijvoorbeeld meerdere tabellen met verschillende documenten samen te voegen en zoekopdrachten naar overeenkomsten uit te voeren over alle documenten. HeatWave Chat is een Visual Code plug-in voor MySQL Shell die een grafische interface biedt voor HeatWave GenAI en ontwikkelaars in staat stelt vragen te stellen in natuurlijke taal of SQL. Met de geïntegreerde Lakehouse Navigator kunnen gebruikers bestanden uit objectopslag selecteren en een vectoropslag creëren.

Gebruikers kunnen in de hele database zoeken of de zoekopdracht beperken tot een map. HeatWave bewaart de context met de geschiedenis van de gestelde vragen, citaten van de brondocumenten en de prompt naar de LLM. Dit vergemakkelijkt een contextuele conversatie en stelt gebruikers in staat om de bron van antwoorden die door de LLM zijn gegenereerd te verifiëren.

Deze context wordt onderhouden in HeatWave en is beschikbaar voor elke toepassing die HeatWave gebruikt.