In de recente Fedora Flock conferentie presenteerde Red Hat ramalama, een innovatief project dat tot doel heeft kunstmatige intelligentie (KI) “saai” te maken, in de beste zin van het woord. Dit nieuwe gereedschap belooft het gebruik van KI en machinaal leren te vereenvoudigen door gebruik te maken van OCI-containers (Open Container Initiative), waarmee de complexiteit wordt weggenomen en het proces toegankelijk wordt gemaakt voor een breder publiek.
Een filosofie van eenvoud
Het ramalama-project onderscheidt zich door de focus op eenvoud in een veld dat vaak wordt gedomineerd door vanguardistische technologische innovaties en ingewikkelde oplossingen. “In een veld vol geavanceerde technologieën en complexe oplossingen, onderscheidt ramalama zich door zijn verfrissend simpele missie: KI saai maken”, legden de vertegenwoordigers van Red Hat uit tijdens de presentatie.
De aanpak van ramalama is het aanbieden van gereedschappen die betrouwbaar en eenvoudig te gebruiken zijn. Het idee is dat gebruikers KI-gerelateerde taken kunnen uitvoeren, van installatie tot uitvoering, met één enkele opdracht per context, waardoor het beheer en de implementatie van KI-modellen wordt vergemakkelijkt. Dit omvat het oplijsten, uitpakken, uitvoeren en bedienen van modellen, met een duidelijk doel om onnodige complicaties te voorkomen.
Technologie en compatibiliteit
Ramalama maakt gebruik van OCI-container technologie om het gebruik van KI-modellen te vereenvoudigen. Het systeem initialiseert door de GPU-ondersteuning van de hardware te inspecteren; bij afwezigheid van GPU’s wordt teruggevallen op CPU-ondersteuning. Het gereedschap maakt gebruik van containermotoren zoals Podman om OCI-afbeeldingen op te halen die alle benodigde software bevatten om de KI-modellen uit te voeren, waarmee de noodzaak voor handmatige configuratie door de gebruiker wordt weggenomen.
Een opvallend kenmerk van ramalama is de compatibiliteit met meerdere technologieën, waaronder grafische processoren (GPU’s) van NVIDIA, AMD, Intel, ARM, RISC-V en Apple Silicon, hoewel het momenteel beperkt lijkt te zijn tot x86_64-architecturen. De modellen worden standaard verkregen van het Ollama-register, terwijl llama.cpp en Podman deel uitmaken van de technologische infrastructuur die ramalama ondersteunt.
Ondersteuning voor diverse besturingssystemen
Ramalama is niet alleen ontworpen om diverse hardwarearchitecturen te ondersteunen, maar ook om compatibel te zijn met verschillende besturingssystemen. Naast Linux, dat officieel ondersteund zal worden, is de technologie ook voorbereid om te functioneren op macOS en mogelijk op Windows via WSL (Windows Subsystem for Linux). In het geval dat GPU-ondersteuning niet beschikbaar is, zal ramalama terugvallen op CPU-gebruik.
Toekomst en toegankelijkheid
Ramalama bevindt zich momenteel in een vroege ontwikkelfase, maar de broncode is al beschikbaar op GitHub onder de MIT-licentie. Het gereedschap begint zijn reis in Fedora, een Linux-distributie die dient als een proeftuin voor technologieën die later in Red Hat Enterprise Linux geïntegreerd kunnen worden. De adoptie van ramalama door Fedora suggereert dat het kan worden uitgebreid naar andere belangrijke distributies als het succesvol blijkt te zijn.
Met ramalama streeft Red Hat ernaar toegang tot KI te democratiseren door het meer toegankelijk en minder intimiderend te maken, zodat zelfs degenen met minder ervaring in het veld de kracht van kunstmatige intelligentie kunnen benutten. Het doel is om de technologie zo simpel en toegankelijk te maken dat het gebruik ervan een plezierige en ongecompliceerde ervaring wordt.
