Van tokens consumeren tot er zelf produceren: de nieuwe economische uitdaging van bedrijfs-AI

Van tokens consumeren naar tokens produceren: de nieuwe economische uitdaging voor zakelijk AI

De opkomst van geavanceerde redeneer- en AI-agenten transformeert de manier waarop bedrijven hun technologische strategieën plannen en budgetteren ingrijpend. Het gebruik van tokens—de meeteenheid waarvoor de vergoeding voor het gebruik van grote taalmodellen wordt berekend—is explosief gestegen: nieuwe redeneer-modellen verbruiken tussen de 10 en 20 keer meer tokens dan standaardmodellen om slechts één probleem te verwerken. Deze cijfers verdubbelen exponentieel naarmate AI-agenten taken aan elkaar koppelen en tools autonoom inzetten.

In dit scenario staan organisaties voor een nieuw paradigma: efficiënt tokens gebruiken is niet langer voldoende. Succes hangt af van het beheer van de inferentie-infrastructuur, het routeren van verzoeken naar de meest kosteneffectieve toegangspunten en in veel gevallen het uitvoeren van interne, geoptimaliseerde modellen die specifiek aansluiten bij de bedrijfsbehoeften.

De weg van ‘Meta tot Agents’

Red Hat stelt dat deze reis wordt beschreven als een ‘Meta to Agents’-traject: een open, geïntegreerde stack van begin tot eind, waarbij elke laag — van fysieke AI-accelerators tot de agenten zelf — verbonden en veilig ontworpen is. Deze infrastructuur moet compatibel zijn met een divers ecosysteem aan hardware, inclusief processoren van NVIDIA, AMD, Intel en maatwerk silicium van toonaangevende cloudleveranciers.

Centraal in dit systeem staat inferentie, de sleutel om elke AI-strategie schaalbaar te maken. Red Hat wijst erop dat hun werk aan projecten zoals vLLM en gedistribueerde inferentie met llm-d heeft geleid tot een tiental keer snellere initiële tokengeneratie en driemaal betere responskwaliteit in praktische toepassingen.

De agenten: kern van de bedrijfsstrategie

Voorbij de infrastructuur verschuift de focus nu naar agentenservices. AI-agenten zijn geëvolueerd van experimentele projecten naar het centrale fundament van de moderne zakelijke strategie. Tegelijk brengen ze nieuwe governance-uitdagingen met zich mee: diverse teams gebruiken verschillende tools, waardoor elke agent een gevalideerde identiteit moet krijgen, diens levenscyclus met versiebeheer moet worden beheerd en compatibel moet zijn met opkomende normen zoals MCP Services voor veilige koppeling van agenten aan tools en data, zonder veiligheidsrisico’s.

Praktijkvoorbeelden: BNP Paribas en NASA

Sommige organisaties bewandelen deze weg al met concrete resultaten. BNP Paribas heeft bijna 600 miljoen dollar aan waarde gegenereerd door duizend AI-gebruiksscenario’s te industrialiseren op een uniforme platformomgeving, waardoor GPU-voorziening — voorheen een proces dat weken duurde — binnen enkele minuten wordt geleverd. De Marshall Space Flight Center van NASA heeft soortgelijke platforms gebruikt om duizenden verouderde workloads over te zetten naar gecontaineriseerde omgevingen, waardoor kritieke operationele implementaties van dagen tot enkele minuten werden ingekort.

Deze voorbeelden illustreren een bredere trend: AI-strategieën verschuiven van louter efficiëntie en kostenbesparing naar drijvers van groei en omzet. Het uiteindelijke doel, volgens deze benadering, is dat bedrijven de platformen bezitten die hun meest kritieke operaties ondersteunen. Dit betekent toegang tot geavanceerde modellen, gecombineerd met het controle- en governancevermogen dat elke verantwoordelijke IT-afdeling vereist.

Scroll naar boven