Red Hat Optimaliseert Red Hat AI voor Versnelling van Bedrijfstoepassingen in AI-modellen, AI-versnellers en Clouds

Red Hat breidt AI-aanbod uit met nieuwe oplossingen voor bedrijven

Red Hat blijft innoveren op het gebied van bedrijfs-AI door de lancering van de Red Hat AI Inference Server, gevalideerde derde partij modellen en de integratie van de Llama Stack API’s en het Model Context Protocol. Met deze ontwikkelingen wil Red Hat de mogelijkheden van bedrijven vergroten om de adoptie van AI te versnellen.

Volgens Forrester zal open source software een katalysator zijn voor het versnellen van bedrijfs-AI-inspanningen. Terwijl het AI-landschap steeds complexer en dynamischer wordt, bieden de Red Hat AI Inference Server en gevalideerde derde partij modellen een efficiënte modelinferentie en een betrouwbare collectie van geoptimaliseerde AI-modellen voor het Red Hat AI-platform. Samen met de integratie van nieuwe API’s voor de ontwikkeling van generatieve AI-agenten, zoals Llama Stack en MCP, werkt Red Hat aan het verlichten van de complexiteit van implementatie, waardoor IT-leiders, datawetenschappers en ontwikkelaars hun AI-initiatieven met meer controle en efficiëntie kunnen versnellen.

Efficiënte inferentie in hybride cloud met Red Hat AI Inference Server

Het portfolio van Red Hat AI omvat nu de nieuwe Red Hat AI Inference Server, die snelle, consistente en kosteneffectieve inferentie op schaal biedt in hybride cloudomgevingen. Deze belangrijke toevoeging is geïntegreerd in de nieuwste versies van Red Hat OpenShift AI en Red Hat Enterprise Linux AI, maar is ook beschikbaar als een zelfstandige aanbieding, wat organisaties in staat stelt om slimme applicaties efficiënter en flexibeler te implementeren.

Gevalideerde en geoptimaliseerde modellen met Red Hat AI

De gevalideerde derde partij modellen van Red Hat AI, beschikbaar op Hugging Face, maken het gemakkelijk voor bedrijven om de juiste modellen voor hun specifieke behoeften te vinden. Red Hat AI biedt een verzameling gevalideerde modellen en implementatiegidsen, waardoor het vertrouwen van klanten in modelprestaties en de reproduceerbaarheid van resultaten wordt vergroot. Sommige modellen zijn geoptimaliseerd door Red Hat, waarbij modelcompressietechnieken worden toegepast om de grootte te verkleinen en de snelheid van inferentie te verhogen, wat helpt om middelen en operationele kosten te minimaliseren.

Standaardized API’s voor de ontwikkeling van AI-applicaties

Red Hat AI integreert Llama Stack, oorspronkelijk ontwikkeld door Meta, samen met MCP van Anthropic, om gebruikers gestandaardiseerde API’s te bieden voor de creatie en implementatie van AI-applicaties en -agenten. Llama Stack biedt een uniforme API voor toegang tot inferentie met vLLM, door middel van augmentatie door terugwinning (RAG), modelbeoordeling en beveiligingsbarrières, in elk generatief AI-model. MCP stelt modellen in staat te integreren met externe tools door een gestandaardiseerde interface te bieden voor het koppelen van API’s, plug-ins en gegevensbronnen in agentwerkstromen.

Belangrijke verbeteringen in Red Hat OpenShift AI

De nieuwste versie van Red Hat OpenShift AI (v2.20) biedt extra verbeteringen voor de creatie, opleiding, implementatie en monitoring op schaal van zowel generatieve als voorspellende AI-modellen. Dit omvat een geoptimaliseerde modelcatalogus, gedistribueerde training via de KubeFlow Training Operator en een centraal kenmerkbewaarplaats voor databeheer.

Red Hat Enterprise Linux AI 1.5: Nieuwe mogelijkheden

Red Hat Enterprise Linux AI 1.5 introduceert belangrijke updates, waaronder beschikbaarheid in Google Cloud Marketplace, wat klanten voltooit bij het draaien van AI-werkbelasting in publieke cloudomgevingen. Verbeterde meertalige mogelijkheden via InstructLab maken verdere personalisatie van modellen mogelijk in meerdere talen, een cruciale stap in de richting van AI-oplossingen die voldoen aan diverse marktbehoeften.

De toekomst van AI: Een universele benadering

Red Hat gelooft dat de toekomst van AI wordt gedefinieerd door onbeperkte mogelijkheden in plaats van door infrastructuursilo’s. Organisaties moeten in staat zijn om elk model op elke accelerator in elke cloud te implementeren, zonder exorbitante kosten. Voor het ontgrendelen van het ware potentieel van investeringen in generatieve AI hebben bedrijven een universele inferentieplatform nodig; een standaard voor soepelere en hoger presterende AI-innovatie, zowel nu als in de toekomst.

Scroll naar boven