Red Hat AI 3: Verspreide Inferentie Naar Productie – Een Open Platform voor Agenten, Kubernetes en Elke Accelerator

Red Hat Lanceert Red Hat AI 3: Een Game Changer voor AI-Implementatie

Amsterdam, 10 oktober 2023 – Red Hat, de toonaangevende leverancier van open-source oplossingen, heeft met trots de lancering van Red Hat AI 3 aangekondigd. Deze uitgebreide update van hun enterprise AI-platform heeft tot doel de overgang van concept naar productie te vereenvoudigen. Hiermee wordt ingespeeld op de noodzaak om inferentie op grote schaal te operationaliseren, terwijl organisaties niet opnieuw hun infrastructuur hoeven te heroverwegen.

Het Knelpunt van 2025: Efficiënte Inferentie

Red Hat AI 3 integreert verschillende componenten zoals de Red Hat AI Inference Server, RHEL AI en OpenShift AI. Het platform richt zich op drie kernideeën: native gedistribueerde inferentie in Kubernetes, een unifying platformervaring, en fundamenten voor agent-gebaseerde AI met open API’s en standaarden. De verschuiving van training naar massale inferentie in realtime vindt plaats op een moment dat CIO’s zoeken naar manieren om latentie, kosten per token en complexiteit te beperken, zonder in te boeten op privacy en hardwarekeuze.

Naar een Geïntegreerde Ervaring

Een belangrijke innovatie in Red Hat AI 3 is de algemene beschikbaarheid van llm-d binnen OpenShift AI 3.0. Deze nieuwe aanpak biedt een gedistribueerde en intelligente inferentie, die orkestratie met Kubernetes combineert met geavanceerde plannen die rekening houden met variabiliteit in de data. Dit resulteert in een coördinatie die ideaal is voor omgevingen met hoge belasting.

Opbouwend naar de Toekomst van AI

Het platform biedt verder een reeks van mogelijkheden:

  • Model as a Service (MaaS): IT-teams kunnen fungeren als interne modelprovider, met een gestroomlijnde toegang voor applicaties en ontwikkelaars.
  • AI Hub: Een centrale locatie voor het exploreren, ontwikkelen en beheren van AI-activa.
  • Gen AI Studio: Een hands-on omgeving voor snel prototypen en iteratie.

Vooruitblikken op Agente AI

Met de introductie van Llama Stack en het Model Context Protocol (MCP) is Red Hat goed gepositioneerd om agent-gebaseerde AI een stap verder te brengen. Dit biedt ontwikkelaars de mogelijkheid om veilige, modulaire oplossingen te creëren die naadloos integreren met externe tools.

Voor CIO’s en Platformteams

De voordelen van Red Hat AI 3 zijn evident:

  1. Geïntegreerde Capaciteiten: Inferentie wordt een gedeelde capaciteit binnen clusters.
  2. Hardware-Ongeacht: Verminderde afhankelijkheid van specifieke leveranciers verhoogt de levensduur van bestaande investeringen.
  3. Kosten- en Latentiebeheer: Slimme programmatuur en hoge prestaties verlagen de kosten per token.
  4. Privacy en Jurisdictie: Het platform kan opereren binnen datacenters, publieke cloud, en edge-omgevingen, wat helpt bij de naleving van wettelijke vereisten.

Wat Klanten Zeggen

Partners zoals AMD en NVIDIA benadrukken de voordelen van een multivendor benadering. Klanten zoals ARSAT benadrukken de noodzaak van gegevenssoevereiniteit en de snelle tijd tot productie, wat aantoont dat de concepten van deze platformen niet alleen theoretisch zijn maar daadwerkelijk in de praktijk worden gebracht.

Conclusie

Red Hat AI 3 is een significante zet richting de normalisatie van AI binnen organisaties. De focus ligt op het maken van inferentie efficiënt, voorspelbaar en bruikbaar, wat de weg vrijmaakt voor toekomstgerichte toepassingen. Nu is het aan bedrijven om deze nieuwe koers te verkennen en de voordelen ervan te benutten voor hun specifieke behoeften.

Vragen? Neem contact op met onze experts om te zien hoe Red Hat AI 3 jouw organisatie kan helpen in de AI-revolutie.

Scroll naar boven