SUSE Lanceert Innovatieve SUSE AI Oplossing voor Schaalbare en Veilige AI-toepassingen
SUSE heeft onlangs SUSE AI gepresenteerd, een gespecialiseerde stack ontwikkeld bovenop SUSE Rancher Prime. Dit innovatieve platform is ontworpen om één van de grootste knelpunten in de bedrijfsintelligentie te verhelpen: het operationeel maken van AI-modellen en -toepassingen op grote schaal. Belangrijke aandachtspunten zijn hierbij veiligheid, zichtbaarheid en kostenbeheersing in publieke, private, on-premise en zelfs air-gapped omgevingen. SUSE stelt dat hun oplossing het “handmatige werk” vermindert en de overgang van pilot naar productie versnelt zonder in te boeten op datavoorwaarden.
Thomas Di Giacomo, Chief Product & Technology Officer van SUSE, licht toe: “De toekomst van enterprise IT zal draaien om veilige, containerized AI-applicaties met specialistische workloads in elke hybride cloud.” Hij voegt toe: “Rancher Prime is de basis; SUSE AI transformeert dit in een lanceerplatform voor AI in productie.”
Volgens IDC zal tegen 2028 maar liefst 65% van de zelfontwikkelde AI-projecten worden verlaten omdat ze niet de verwachte ROI opleveren. De oorzaken hiervoor zijn onder andere gefragmenteerde integraties, beperkte kostenzichtbaarheid en gebrek aan controle. SUSE’s antwoord hierop is een uniforme platformoplossing met kant-en-klare componenten, ingebouwde beveiliging en uitgebreide telemetrie. Hierdoor kunnen bedrijven hun AI-operaties effectief beheren en het werkelijke rendement volgen.
Wat Brengt SUSE AI naar de Tafel
SUSE AI is gebaseerd op SUSE Rancher Prime – een cloud-native platform met CNCF-conformiteit – en komt met drie belangrijke beloftes: operationele eenvoud, veiligheid en zichtbaarheid.
Universele Proxy (MCP) (technische preview): SUSE integreert een Model Context Protocol (MCP) proxy om verbindingen naar verschillende model endpoints te centraliseren, kosten te optimaliseren en toegangscontrole te verzwaren.
Versnelde AI-inferentie: Het portfolio wordt uitgebreid met krachtige inferentiemotoren zoals vLLM voor snelle, efficiënte en schaalbare inferentie van Large Language Models (LLM). Het doel is om latentie te verminderen en doorvoer per GPU te verbeteren.
AI-zichtbaarheid: SUSE AI instrumenteert niet alleen modellen, maar ook pipelines en diensten. Het platform omvat de OpenTelemetry (OTel) Operator voor autoinstrumentatie en biedt vooraf geconfigureerde zichtbaarheid voor verschillende tools.
Ecosysteem dat Integratie en Risico Vermindert
Om de cirkel te sluiten, breidt SUSE haar samenwerkingen uit met bedrijven zoals ClearML en Katonic voor MLOps en GenAI, AI & Partners voor governance en compliance, Avesha voor GPU-orchestratie en Altair voor HPC + AI-scenario’s. De opzet is helder: minimaliseer integratie-inspanningen en maximaliseer capaciteiten met gecertificeerde componenten.
Rancher Prime, De Operationele Basis
SUSE Rancher Prime evolueert ook, met toevoegingen zoals:
Liz, een agent voor AI voor proactieve incidentdetectie en prestatieverbetering in Kubernetes.
Virtuele clusters voor het isoleren van AI workloads, optimaliseren van GPU-gebruik en versnellen van omgevingen op team- of projectbasis.
Ingebouwde stackbeheer, wat het gemakkelijker maakt om het hele SUSE-ecosysteem te beheren.
Voor Ontwikkelaars: Rancher Developer Access
SUSE introduceert Rancher Developer Access, een UI-extensie die de SUSE Application Collection integreert in Rancher Desktop. Dit biedt een zorgvuldig samengestelde bibliotheek van open-source applicaties en door SUSE ondertekende basisimages om veilige en productieklare applicaties te bouwen.
Vergelijking met RHEL en Ubuntu
Bedrijven die een platform voor AI + Kubernetes overwegen, vergelijken vaak met andere grote spelers in het Linux-ecosysteem. Hier is een overzicht van hoe SUSE, RHEL en Ubuntu zich tot elkaar verhouden op verschillende dimensies.
Conclusie
SUSE richt zich op een kwetsbaar punt in de corporatieve AI: de uitdaging om van aantrekkelijke prototypes naar stabiele operaties te gaan met veiligheid, zichtbaarheid en meetbare kosten. Met SUSE AI probeert het bedrijf frictie weg te nemen waar dat het meest pijn doet. In vergelijking met RHEL/OpenShift en Ubuntu/Canonical legt de oplossing de nadruk op datavoorwaarden, multi-K8s en een eerste stap richting een gemeenschappelijk contextprotocol.
Veelgestelde Vragen
Wat zijn de voordelen van SUSE AI ten opzichte van OpenShift AI of een stack met MicroK8s/Juju?
SUSE AI biedt geconfigureerde AI-zichtbaarheid, een Universal Proxy (MCP) voor centralisatie van modellen en context, en solide ondersteuning voor air-gapped/soberheid. OpenShift AI biedt een zeer geïntegreerde suite voor MLOps, terwijl Ubuntu excelert in flexibiliteit met MicroK8s/Juju.
Hoe helpt SUSE bij het optimaliseren van GPU-kosten?
Door virtuele clusters te activeren en metrics van inferentie te gebruiken die het mogelijk maken om batchgroottes en pooling aan te passen, vermindert SUSE de idle GPU-kosten.
Wat is MCP en waarom is het belangrijk?
MCP is een open protocol voor het uitwisselen van context tussen tools en modellen. Het vermindert de behoefte aan handmatige integratie en vereenvoudigt verbindingen en toegangscontrole in hybride en gereguleerde omgevingen.
Is SUSE AI geschikt voor air-gapped omgevingen?
Ja, SUSE AI is geoptimaliseerd voor air-gapped omgevingen en biedt ondersteuning voor identiteitsbeheer en microsegmentatie.
Met deze innovatieve ontwikkelingen positioneert SUSE zich als een belangrijke speler in de wereld van AI-toepassingen, met een sterke focus op veiligheid en efficiëntie.
