OpenAI heeft zijn eerste State of Enterprise AI 2025 gepubliceerd, een rapport dat feitelijke cijfers presenteert over wat veel CTO’s, CIO’s en datateams al vermoedden: Kunstmatige Intelligentie (KI) is geen “app meer”, maar wordt een infrastructuurlag waarop producten, workflows en zelfs nieuwe businessmodellen worden gebouwd.
De inhoud is bijzonder relevant voor een technologisch publiek: het heeft het over tokens, API’s, agents, connectors, continue evaluaties en vooral over het groeiende verschil tussen organisaties die KI industrialiseren en degenen die in experiment-modus blijven hangen.
Van proof of concept naar infrastructuur: KI als nieuwe laag van de stack
In slechts drie jaar tijd gebruiken meer dan 1 miljoen zakelijke klanten tools van OpenAI, met meer dan 7 miljoen “zitplaatsen” van ChatGPT in werkomgevingen. In de afgelopen 12 maanden is het wekelijkse volume van berichten van zakelijke klanten met 8 keer vermenigvuldigd, en het verbruik van reasoning tokens per organisatie is met ongeveer 320 keer gestegen.
Vertaald naar infrastructuurtaal: KI-modellen worden niet langer sporadisch gebruikt, maar zijn centrale diensten die integreren in producten, backends en interne tools. Meer dan 9.000 organisaties hebben meer dan 10 miljard tokens verwerkt via de API van OpenAI, en bijna 200 organisaties hebben al de miljardenteller overschreden.
Voor de techwereld betekent dit één ding: KI is aan het consolideren als een andere “tier” van de stack (samen met databases, message queues of observability systemen), met zijn eigen consumptiemetingen, prestatie-indicatoren en governance.
GPT’s, Projecten en API: waar KI werkelijk wordt geïntegreerd
Een van de meest onthullende gegevens uit het rapport is de explosieve groei van Custom GPT’s en Projects (configureerbare interfaces op ChatGPT met instructies, context en acties). Het aantal wekelijkse gebruikers van deze mogelijkheden is in de eerste helft van dit jaar met 19 keer toegenomen, en vormt nu ongeveer 20% van alle berichten van zakelijke klanten.
In de praktijk betekent dit dat veel bedrijven zich niet langer beperken tot het “vragen” aan een model, maar:
- Interne kennis codificeren in herbruikbare assistenten.
- Verbinden van GPT’s met bedrijfsystemen via API’s en tool calling.
- Automatiseren van multi-step workflows (de zogenaamde agentic workflows) binnen hun applicaties.
De API zelf wordt vooral gebruikt voor het bouwen van ingebedde assistenten, geavanceerd zoeken, automatisering van workflows en tools voor ontwikkelaars. De adoptie is niet langer exclusief voor de technologiesector: het gebruik van de API door niet-technologische bedrijven is jaar-op-jaar met 5 keer gestegen, en toepassingen zoals klantenservice en contentgeneratie vertegenwoordigen nu bijna 20% van de activiteit.
Meetbare productiviteit: van tijdsbesparing naar nieuwe soorten werk
Het rapport probeert ook de grote zakelijke vraag te beantwoorden: Spaart KI echt tijd en geld?
Interne gegevens van OpenAI tonen aan dat 75% van de ondervraagde werknemers zegt dat KI de snelheid of de kwaliteit van hun werk heeft verbeterd. Gebruikers van ChatGPT Enterprise rapporteren een gemiddelde tijdsbesparing van tussen de 40 en 60 minuten per actieve dag, wat oploopt tot 60-80 minuten per dag voor profielen zoals data science, engineering of communicatie.
Maar het meest interessante voor technische teams is dat KI niet alleen bekende taken versnelt, maar ook het scala van wat gebruikers kunnen doen uitbreidt:
- 75% zegt in staat te zijn om taken te voltooien die voorheen buiten hun bereik lagen: programmeren en code review, data-analyse en automatisering in spreadsheets, ontwikkeling van technische tools, troubleshooting of het ontwerpen van agents en gepersonaliseerde GPTs.
- Berichten met betrekking tot code zijn in alle afdelingen toegenomen; buiten engineering, IT en R&D zijn deze berichten gemiddeld met 36% gestegen in de afgelopen zes maanden.
Met andere woorden: KI vervaagt de grens tussen “technici” en “niet-technici”, en dwingt ons om na te denken over wie toestemming – en vermogen – heeft om gegevens te bewerken, processen te automatiseren of interne tools te prototypen.
De kloof die zich opent: frontier workers versus de rest
Het rapport introduceert een concept dat veel technologische leidinggevenden aan het denken zou moeten zetten: frontier workers, de 5% van gebruikers die de KI binnen hun organisaties het meest intensief gebruiken.
Deze werknemers:
- Verzenden 6 keer meer berichten dan de gemiddelde gebruiker.
- Voor data-analyse gebruiken ze het hulpmiddel 16 keer meer dan hun collega’s.
- Bij coderen is de kloof nog groter: frontier workers verzenden 17 keer meer berichten met betrekking tot programmeren dan het gemiddelde.
Kijkend naar bedrijfsniveau, herhaalt het patroon zich: de bedrijven in de 95e percentiel genereren het dubbele aantal berichten per zitplaats vergeleken met het gemiddelde bedrijf en 7 keer meer berichten naar GPT’s, wat een duidelijke aanwijzing is voor een diepgaandere integratie in hun systemen en processen.
Het rapport onthult ook een ongemakkelijke waarheid: zelfs onder actieve gebruikers van ChatGPT Enterprise heeft 19% nooit de analysetools gebruikt, 14% heeft de functies voor geavanceerd redeneren nooit aangeraakt, en 12% heeft de geïntegreerde zoekfunctie nooit gebruikt. Onder dagelijkse gebruikers zijn deze cijfers lager, maar nog steeds aanwezig.
De conclusie voor technisch georiënteerde media en productverantwoordelijken: het probleem is niet meer het gebrek aan modellen of functies, maar het gebrek aan diepe en systematische adoptie.
Sectoren, geografische gebieden en gebruiksgevallen: KI verlaat het laboratorium
Op sectorniveau is technologie nog steeds de aanjager van adoptie (klantgroei van 11× in een jaar), maar de gezondheidszorg en de productie verschijnen al als enkele van de snelst groeiende gebieden (8× en 7× respectievelijk). De meeste sectoren hebben hun klantenbasis meer dan 6 keer vermenigvuldigd, en zelfs de traagste sectoren verdubbelen hun adoptie jaar-op-jaar.
Geografisch is er wereldwijde expansie: Australië, Brazilië, Nederland en Frankrijk leiden de groei in het aantal betalende klanten, met stijgingen van meer dan 143% jaar-op-jaar, terwijl de VS, Duitsland en Japan het grootste volume berichten concentreren.
Het rapport wordt ondersteund door reële casestudy’s die de diversiteit aan toepassingen laten zien:
- Intercom bouwt Fin Voice op de Realtime API voor telefonische ondersteuning, waardoor de latentie met 48% wordt gereduceerd en ongeveer 53% van de eind-tot-eind gesprekken wordt opgelost met een spraakagent.
- BBVA automatiseert meer dan 9.000 juridische verzoeken per jaar met een chatbot voor juridische kwesties, waardoor het equivalent van 3 FTE’s vrijkomt voor belangrijker werk.
- Moderna reduceert cruciale stappen in het opstellen van de Target Product Profiles van weken naar uren, waardoor de productplanning en klinische beslissingen worden versneld.
Dit zijn voorbeelden die vooral interessant zijn voor technische profielen omdat ze gegevensintegratie, interne API’s, beveiliging, naleving en impactmeting combineren.
Wat doen AI-leiders anders?
Bovenal probeert het rapport een “playbook” technisch-organisatorisch te destilleren van de vooruitstrevende bedrijven:
- Diepe integratie met systemen en gegevens: actieve connectors naar kerntools (CRM, interne systemen, kennisrepositories) zodat modellen met realistische context kunnen werken, niet alleen met generieke prompts.
- Standaardisatie van workflows en herbruikbaarheid: een cultuur van het creëren, delen en versioneren van GPT’s, agents en interne sjablonen in plaats van afhankelijk te zijn van “ad hoc” prompts in elk team.
- Continue evaluaties en MLOps voor LLM’s: evaluaties gekoppeld aan specifieke business cases (responskwaliteit, tijd, kritieke fouten) en cycli van voortdurende verbetering.
- Governance en organisatorische veranderingen: een centraal kader voor beveiliging, naleving en training combineren met “champions” die gebruikstoepassingen in elk gebied stimuleren.
Het rapport eindigt met een boodschap die veel CIO’s/CTO’s steeds vaker herhalen: de modellen en tools ontwikkelen zich zo snel dat, op dit moment, de bottleneck niet langer technisch is, maar organisatorisch.
Veelgestelde vragen voor een tech-lezer
Wat is het verschil tussen ChatGPT “hands-on” gebruiken en bouwen op de API of met GPT’s/Projects?
ChatGPT is nuttig voor specifieke taken, maar de API, de Custom GPT’s en de Projects stellen je in staat om KI direct in applicaties, backends en interne tools te integreren, met controle over gegevens, permissies, tool calling en gebruiksstatistieken.
Wat zijn de implicaties voor de bedrijfsdatastack?
KI dwingt ons om gegevens op een meer gestructureerde manier bloot te leggen (API’s, connectors, feature stores) en na te denken over governance, audit en continue evaluaties als onderdeel van de levenscyclus van het model, niet alleen van de data.
Hoe meet je of de adoptie van KI goed op gang komt?
Het rapport suggereert om naar gebruiksintensiteit te kijken (berichten, verschillende taken, gebruik van geavanceerde tools), tijd die is bespaard en bedrijfsresultaten (conversies, oplostijden, inkomsten), waarbij altijd de frontier workers vergeleken worden met het gemiddelde om de interne kloof te begrijpen.
Is alles al besloten of is er nog ruimte om bij te benen?
Ondanks de al zichtbare verschillen, benadrukt OpenAI dat de zakelijke KI nog in de “early innings” is: de modellen kunnen veel meer dan de meeste organisaties momenteel afleiden. Voor veel techbedrijven is het spel nog maar net begonnen.
via: Nieuws kunstmatige intelligentie
