Red Hat Brengt Gedistribueerde AI-inferentie naar Productieve AI-werkbelastingen met Red Hat AI 3

Red Hat introduce Red Hat AI 3: Een nieuwe stap in de wereld van kunstmatige intelligentie voor bedrijven

Amsterdam, 2023 – Red Hat, wereldleider in open source softwareoplossingen, heeft onlangs Red Hat AI 3 gepresenteerd, een belangrijke update van zijn AI-platform voor bedrijven. Deze nieuwe versie integreert de innovaties van Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) en Red Hat OpenShift AI, met als doel de complexiteit van high-performance inferentie op grote schaal te verminderen. Organisaties kunnen nu sneller van proefprojecten naar productieomgevingen overstappen en beter werken met AI-gedreven applicaties.

Met de verschuiving van bedrijven van een puur experimentele fase naar de implementatie van AI, komen aanzienlijke uitdagingen naar voren: gegevensprivacy, kostenbeheersing en het beheer van meerdere modellen. Volgens het rapport The GenAI Divide: State of AI in Business van het MIT-project NANDA, lukt het zo’n 95% van de organisaties niet om meetbare financiële rendementen te behalen, ondanks investeringen van ongeveer 40 miljard dollar.

Een uniforme ervaring voor IT-leiders

Red Hat AI 3 richt zich op deze tekortkomingen door een uniforme en coherente ervaring te bieden waarmee CIO’s en IT-teams hun investeringen in computerversnelling optimaal kunnen benutten. Het platform maakt flexibele opschaling en orkestratie van AI-lasten in hybride en multi-cloud omgevingen mogelijk, terwijl het de samenwerking tussen teams die aan geavanceerde toepassingen werken, bevordert.

Gebaseerd op open standaarden, ondersteunt Red Hat AI 3 organisaties in elke fase van adoptie. Het biedt compatibiliteit met elk model op elke hardwareversneller, van datacenters tot de publieke cloud en zelfs naar de meest afgelegen randnetwerken.

Van training naar actie: De verschuiving naar AI-inferentie

Terwijl organisaties hun AI-initiatieven in productie brengen, verschuift de focus van modeltraining naar inferentie, de ‘uitvoeringsfase’ van AI-toepassingen. Red Hat AI 3 legt de nadruk op schalende en kosteneffectieve inferentie, voortbouwend op het succes van community-projecten zoals vLLM en llm-d, en gebruikt de optimalisatiecapaciteiten van Red Hat voor productieklare large language models (LLM).

Red Hat OpenShift AI 3.0 introduceert de algemene beschikbaarheid van llm-d, dat de manier waarop LLM’s native in Kubernetes draaien opnieuw vormgeeft. llm-d maakt slimme gedistribueerde inferentie mogelijk, waarbij de bewezen waarde van Kubernetes-orkestratie en het rendement van vLLM wordt gecombineerd met sleuteltechnologieën zoals de Kubernetes Gateway API Inference Extension en NVIDIA Dynamo.

Een samenwerkingsplatform voor AI

Red Hat AI 3 biedt een flexibele en uniforme ervaring, speciaal ontworpen voor de samenwerkingsvereisten van generatieve AI-oplossingen. Nieuwe functies stellen platform- en AI-ingenieurs in staat om hun strategieën effectief uit te voeren. Dit omvat Model as a Service (MaaS), waardoor IT-teams als interne Maass-leverancier kunnen optreden, en een AI-hub die engineers in staat stelt om AI-assets te verkennen, te implementeren en te beheren.

Een toekomstgericht platform

De nieuwste versie van Red Hat OpenShift AI legt de basis voor schaalbare agent-gebaseerde AI-systemen, met een unified API-laag gebaseerd op Llama Stack. Deze laag is ontworpen om de ontwikkeling van AI-modellen te aligneren met industrienormen, en biedt een flexibele toolkit voor modelaanpassing, gebouwd op bestaande functionaliteiten zoals InstructLab.

Met deze ontwikkelingen blijft Red Hat vooroplopen in de wereld van kunstmatige intelligentie, en biedt het bedrijven krachtige tools en platforms om met vertrouwen AI-gebaseerde oplossingen te implementeren.

Scroll naar boven