Red Hat, Inc., een wereldwijde leider in open-source oplossingen, heeft de algemene beschikbaarheid aangekondigd van Red Hat Enterprise Linux (RHEL) AI in de hybride cloud. Dit nieuwe platform van fundamentele modellen stelt gebruikers in staat om generatieve kunstmatige intelligentie (KI) modellen efficiënt te ontwikkelen, testen en draaien, waardoor bedrijfstoepassingen verbeterd worden. RHEL AI combineert Granite, een familie van open-source taalmodellen, met het InstructLab modelafstemmingsgereedschap, gebaseerd op de LAB-methodologie (Large-scale Alignment for chatBots). Het platform wordt verpakt als een geoptimaliseerd RHEL-beeld, klaar om te implementeren op individuele servers in hybride cloudomgevingen.
Ondanks het grote potentieel van generatieve KI, kunnen de kosten die geassocieerd zijn met de verwerving, training en afstemming van grote taalmodellen (LLM’s) extreem hoog zijn, waarbij sommige modellen bijna 200 miljoen dollar kosten alleen al voor training. Deze kosten omvatten niet de aanpassing aan specifieke organisatorische vereisten, wat vaak gespecialiseerde datawetenschappers en ontwikkelaars vereist. De afstemming om de modellen aan te passen aan specifieke zakelijke gegevens en processen is cruciaal, waardoor efficiëntie en behendigheid essentieel zijn voor de implementatie van KI in productie.
Red Hat verwacht dat in het komende decennium kleinere, efficiëntere en aangepaste KI-modellen een belangrijk onderdeel zullen vormen van de IT-stack van bedrijven, naast cloud-native toepassingen. Om dit doel te bereiken, moet generatieve KI toegankelijk zijn qua kosten, beschikbaarheid en compatibiliteit met de hybride cloud. Red Hat stelt dat een open-source benadering, vergelijkbaar met die welke decennialang complexe softwareproblemen heeft opgelost, barrières kan verlagen voor de effectieve adoptie van generatieve KI.
Een open-source benadering voor Generatieve KI
Dit zijn de uitdagingen die RHEL AI wil aanpakken, waardoor generatieve KI toegankelijker, efficiënter en flexibeler wordt voor CIO’s en IT-organisaties in het hele hybride cloudlandschap. RHEL AI helpt om:
- Generatieve KI-innovatie te stimuleren met Granite zakelijke modellen onder open-source licentie en afgestemd op een breed scala aan generatieve KI-gebruiksscenario’s.
- De aanpassing van generatieve KI-modellen aan zakelijke eisen te optimaliseren met het InstructLab-hulpmiddel, waarmee vakexperts en ontwikkelaars van een organisatie unieke vaardigheden en kennis kunnen inbrengen in hun modellen, zelfs zonder uitgebreide datawetenschappelijke kennis.
- Generatieve KI overal te trainen en uit te rollen in de hybride cloud door alle benodigde hulpmiddelen te leveren voor afstemming en implementatie van modellen voor productieservers waar de bijbehorende gegevens leven. RHEL AI biedt ook een toegangspad naar Red Hat OpenShift AI om deze modellen op schaal te trainen, af te stemmen en te dienen met dezelfde hulpmiddelen en concepten.
RHEL AI is ook ondersteund door de voordelen van een Red Hat-abonnement, inclusief de distributie van vertrouwde bedrijfsproducten, productieondersteuning 24×7, uitgebreide levenscyclusondersteuning van modellen en juridische beschermingen van Open Source Assurance.
RHEL AI strekt zich uit over de hybride cloud
Het dichter bij de organisatorische data brengen van een consistenter fundamenteel modelplatform is cruciaal voor het ondersteunen van KI-strategieën in productie. Als een uitbreiding van de hybride cloudplatforms van Red Hat, zal RHEL AI bijna elk denkbaar zakelijk milieu bestrijken, van lokale datacentra tot de rand van het netwerk en de publieke cloud. Dit betekent dat RHEL AI rechtstreeks beschikbaar zal zijn van Red Hat, van Red Hat’s originele uitrustingsfabrikanten (OEM) partners en om te draaien op ’s werelds grootste cloudproviders, inclusief Amazon Web Services (AWS), Google Cloud, IBM Cloud en Microsoft Azure. Dit stelt ontwikkelaars en IT-organisaties in staat de kracht van hyperscale rekenbronnen te gebruiken om innovatieve KI-concepten te bouwen met RHEL AI.
Beschikbaarheid
RHEL AI is algemeen beschikbaar via het Red Hat Customer Portal om uit te voeren on-premise of om te uploaden naar AWS en IBM Cloud als een “bring your own subscription” (BYOS) aanbod. De beschikbaarheid van een BYOS-aanbod op Azure en Google Cloud is gepland voor het vierde kwartaal van 2024 en RHEL AI wordt verwacht ook tegen het einde van dit jaar beschikbaar te zijn op IBM Cloud als een dienst.
Red Hat is van plan om de beschikbaarheid van RHEL AI via cloud- en OEM-partners in de komende maanden te vergroten, waardoor nog meer opties worden geboden in hybride cloudomgevingen.
