Red Hat, wereldleider in open source-oplossingen, heeft de lancering aangekondigd van Red Hat AI Factory met NVIDIA, een gezamenlijk ontwikkeld softwareplatform dat Red Hat AI Enterprise en NVIDIA AI Enterprise integreert. Deze oplossing biedt een allesomvattende benadering van kunstmatige intelligentie, geoptimaliseerd voor organisaties die AI op grote schaal implementeren. De introductie van Red Hat AI Factory met NVIDIA onderstreept de samenwerking tussen beide bedrijven en versnelt de beschikbaarheid van AI-innovaties voor zakelijke klanten, met vanaf dag één ondersteuning voor NVIDIA-hardwarearchitecturen.
Verwacht wordt dat de uitgaven aan zakelijke AI meer dan een biljoen dollar zullen bedragen tegen 2029, grotendeels gedreven door agentgebaseerde AI-toepassingen. In dit scenario zoeken bedrijven naar oplossingen die workflows met hoge dichtheid beheren en voldoen aan de toenemende infrastructuur- en inferentie-eisen van AI. Het nieuwe platform stelt IT-teams in staat om zowel traditionele infrastructuur als dynamische behoeften van het AI-ecosysteem te optimaliseren.
Red Hat AI Factory met NVIDIA versnelt de adoptie van AI in productie door een compleet platform aan te bieden voor AI-fabrieken, gebaseerd op versnelde computing-infrastructuur die de prestaties van modellen en NVIDIA GPU’s voor inferentieverbeteringen optimaliseert. Het platform is compatibel met AI-fabriekssystemen van vooraanstaande fabrikanten zoals Cisco, Dell Technologies, Lenovo en Supermicro, waardoor IT-verantwoordelijken en operationele teams AI-implementaties kunnen opschalen en onderhouden met dezelfde voorspelbaarheid en betrouwbaarheid als elke andere zakelijke workload.
Dit co-ontworpen softwareplatform combineert de open source-ervaring, engineering en ondersteuning van zowel Red Hat als NVIDIA om een betrouwbare enterprise-oplossing te bieden. Red Hat AI Factory met NVIDIA biedt een zeer schaalbare basis voor AI-implementaties in elk omgeving, of het nu on-premises, in de cloud of aan de rand is. Het bevat essentiële functies voor high-performance AI-inferentie, modelafstemming, personalisatie en het uitrollen en beheren van agenten, met een sterke focus op beveiliging. Hierdoor kunnen organisaties de architectonische controle behouden van datacenter tot publieke cloud, wat onder andere resulteert in:
- Versnelling van waardecreatie: deze oplossing faciliteert de overgang naar productie-KI met geoptimaliseerde workflows en directe toegang tot vooraf geconfigureerde modellen, waaronder de IBM Granite-familie met juridische ondersteuning, NVIDIA Nemotron en de open modellen NVIDIA Cosmos, geleverd als NVIDIA NIM-microservices. Daarnaast stelt het organisaties in staat om modellen beter af te stemmen op bedrijfsgegevens met NVIDIA NeMo, waardoor tijd en kosten voor tuning worden verminderd.
- Geoptimaliseerde prestaties en kosten: het platform maximaliseert infrastructuurbemaling en verbetert inferentieprestaties via een geïntegreerd, hoogwaardig servicestack. Red Hat AI Factory met NVIDIA beschikt over ingebouwde observabiliteitsmogelijkheden en benut inferentiecapaciteiten van Red Hat AI, aangedreven door vLLM, NVIDIA TensorRT-LLM en NVIDIA Dynamo, om te voldoen aan strikte AI-serviceniveau-eisen. Zo helpt het organisaties om de totale eigendomskosten (TCO) van AI te verlagen door de koppeling tussen modellen en NVIDIA GPU’s te optimaliseren.
- Intelligente GPU-orkestratie: biedt on-demand toegang tot GPU-bronnen via slimme orkestratie en clustered infrastructuur, met automatische checkpoints die lange taken beschermen en de kosten van computing voorspelbaarder maken in dynamische omgevingen.
- Versterkte enterprise-beveiliging: door gebruik te maken van de flexibele en stabiele basis van Red Hat Enterprise Linux profiteren organisaties van geavanceerde beveiligings- en nalevingsfuncties die vanaf het begin geïntegreerd zijn, waardoor risico’s worden verminderd, tijd wordt bespaard en downtime wordt beperkt. Dit zorgt voor een versterkte beveiligingslaag voor mission-critical AI-workloads die isolatie en voortdurende verificatie vereisen. NVIDIA DOCA microservices, gebaseerd op deze basis, creëren een zero-trust architectuur en bieden runtimebeveiliging voor AI over de gehele infrastructuur.
