Anthropic heeft een van de meest opvallende zettingen van het jaar in AI-infrastructuur gemaakt. Het bedrijf heeft een overeenkomst getekend met Google en Broadcom om meerdere gigawatt aan capaciteit voor de nieuwste generatie TPUs veilig te stellen. Deze rekenkracht zal vanaf 2027 operationeel worden en is bestemd voor het trainen en inzetten van toekomstige Claude-modellen. Dit is geen kleinigheid: in een markt die steeds meer wordt bepaald door de daadwerkelijke beschikbaarheid van chips, energie en datacenters, wordt het zekerstellen van capaciteit voor de lange termijn net zo strategisch als het lanceren van een nieuw model.
Het aangekondigde akkoord wordt vergezeld door een andere belangrijke cijfer dat de urgentie van deze stap onderstreept. Anthropic stelt dat haar run-rate revenue reeds hoger ligt dan 30 miljard dollar, tegenover ongeveer 9 miljard dollar eind 2025. Het bedrijf beweert ook dat het nu meer dan 1.000 zakelijke klanten heeft die meer dan 1 miljoen dollar per jaar uitgeven, het dubbele van de meer dan 500 klanten die het in februari noemde bij de presentatie van haar Serie G. Het is belangrijk te vermelden dat het run-rate een geprojecteerde jaarlijkse omzet is op basis van de huidige bedrijfsvoering, niet de al uitgevoerde inkomsten, maar het geeft wel een zeer sterke commerciële acceleratie weer.
De strijd gaat niet alleen om modellen, maar om megawatt
De afgelopen twee jaar lag de publieke discussie over AI vooral op benchmarks, redeneervermogen, agenten en contextvensters. Maar onder dat productlaagje groeit een andere, veel meer fysieke oorlog: die om de supply. Het trainen en leveren van grensverleggende modellen vereist stabiele toegang tot versnellers, hoge-snelheid interconnecties, koeling en vooral elektriciteit. Als Anthropic spreekt over meerdere gigawatt, betekent dat in essentie dat de volgende strategische sprong voor Claude niet alleen van software afhangt, maar ook van het reeds gereserveerd hebben van de benodigde energie-infrastructuur en industriële capaciteit om verder op te schalen.
Deze stap is bijzonder relevant omdat het het hardware-landschap van Anthropic diversifieert. Het bedrijf legt uit dat Claude momenteel wordt getraind en uitgevoerd op AWS Trainium, Google TPUs en NVIDIA GPU’s, met de bedoeling elke taak naar de meest geschikte chip te toewijzen. In de praktijk vermindert dit de afhankelijkheid van één enkele toeleveringsketen en geeft Anthropic ongebruikelijke flexibiliteit in een markt waar toegang tot geavanceerde accelerators nog altijd een grote knelpunt is.
Het akkoord met Google en Broadcom betekent bovendien geen breuk met Amazon. Anthropic maakt duidelijk dat AWS nog altijd de belangrijkste cloudprovider en trainingspartner is, en dat het blijft samenwerken met Amazon aan Project Rainier. Wat er wordt opgebouwd, is geen vervanging, maar een bredere supply-architectuur: AWS als centrale partner, Google TPUs voor schaalvergroting en voorspelbaarheid, en NVIDIA als een andere cruciale schakel in de rekenmix. Vanuit technisch en operationeel oogpunt is deze mix heel logisch: het optimaliseert kosten, beschikbaarheid en diverse werkbelastingen zonder afhankelijk te zijn van slechts één leverancier.
Claude versterkt zijn multicloudpositie
Een ander belangrijk aspect van deze aankondiging gaat verder dan de chips. Anthropic beweert dat Claude nog altijd het enige frontier-model is dat beschikbaar is op de drie grootste cloudplatforms: Amazon Web Services, Google Cloud en Microsoft Azure. Los van de commerciële lading van het woord frontier is het gedocumenteerd dat Claude wordt aangeboden via Amazon Bedrock, dat Anthropic-modellen beschikbaar zijn als beheerde modellen in Vertex AI, en dat Microsoft Foundry modellen van Claude integreert in Azure. Deze gelijktijdige aanwezigheid in alle drie grote omgevingen geeft Anthropic een unieke positie in de zakelijke markt.
Voor een technisch publiek is dit waarschijnlijk belangrijker dan de financiële headline. Officiale aanwezigheid in Bedrock, Vertex AI en Foundry breidt niet alleen de distributie van Claude uit, maar verlaagt ook de adoptiedrempel voor grote klanten die al in verschillende omgevingen werken en de modellen willen integreren binnen hun eigen compliance-omgevingen, private netwerken, observabiliteitstools en interne workflows. Kortom, Anthropic verkoopt niet alleen AI, maar probeert een interoperabele laag te worden binnen de bestaande bedrijfsinfrastructuur.
Google Cloud bijvoorbeeld documenteert Claude in Vertex AI als een beheerde en serverless-dienst, zonder dat men zelf infrastructuur hoeft te voorzien om de API te gebruiken. AWS doet hetzelfde met Bedrock, waar Claude wordt gepositioneerd als een familie van modellen voor redeneervermogen, beeldverwerking, codegeneratie en bedrijfsprocessen. Microsoft heeft, na de initiële aankondiging, al documentatie gepubliceerd over het gebruik van Claude-modellen in Foundry en zelfs specifieke gidsen voor de configuratie van Claude Code op hun infrastructuur. Dit onderstreept dat de multicloudstrategie van Anthropic geen lege belofte is; de integratie is al behoorlijk concreet.
Meer dan groei: strategische reserve voor de volgende fase
De ware impact van het nieuws ligt in de planning. Anthropic ondertekent niet enkel voor de onmiddellijke vraag in 2026, maar reserveert capaciteit voor de toekomst vanaf 2027. Dit verandert de interpretatie volledig. Het bedrijf wil niet alleen Claude opschalen met de beschikbare voorraad, maar zich wapenen voor de volgende marktfase waarin het leveren van krachtigere modellen en complexere agenten nog meer inferentie, training en elasticiteit van infrastructuur vereist.
Anthropic presenteert dit akkoord als haar grootste compute-inzet tot nu toe. Daarbij benadrukt ze dat het merendeel van de nieuwe capaciteit in de Verenigde Staten zal komen, in lijn met haar toezegging in november 2025 om 50 miljard dollar te investeren in Amerikaanse computinfrastructuur. In de praktijk positioneert dit Anthropic niet alleen als ontwikkelaar van modellen, maar ook als speler die op grote schaal industriële planning toepast.
Vanuit een meer afstandelijke invalshoek is dit ook een defensieve strategie: grensverleggende AI wordt steeds afhankelijker van langdurige contracten, verticale integratie en controle over capaciteit. Wie te laat is met energie, silicium en datacenters, zal het moeilijker krijgen om de snelheid bij te houden, hoe goed zijn modellen ook zijn. Anthropic lijkt te hebben besloten dit probleem niet te improviseren binnen een jaar, maar nu al te willen oplossen. Dit is de werkelijke waarde van het nieuws: minder show en meer strategische reserves in infrastructuur.
Terwijl veel sectorpartijen nog steeds de AI-race meten aan de hand van lanceringen, demo’s en vergelijkingen, herinnert Anthropic ons aan een veel ongemakkelijker en fundamenteler aspect: de volgende generatie modellen wordt niet alleen in laboratoria beslist, maar ook in elektrische contracten, chipfabrieken en gigawatt-omvang plannen voor capaciteit. Claude zal concurreren op modelkwaliteit, dat is zeker, maar deze overeenkomst maakt duidelijk dat Anthropic ook wil strijden op het meest kostbare vlak: infrastructuur.
Veelgestelde vragen
Wat betekent het dat Anthropic meerdere gigawatt TPU-capaciteit heeft gereserveerd?
Dat betekent dat ze een grote hoeveelheid nieuwe generatie TPU-infrastructuur heeft gereserveerd, uitgedrukt in de elektrische vermogen die het kan leveren. Het is een manier om de industriële schaal van het akkoord aan te geven, niet alleen het aantal chips.
Heeft Anthropic al 30 miljard dollar verdiend?
Niet helemaal. Het bedrijf spreekt over run-rate revenue, dat is een geannualiseerde schatting op basis van het huidige bedrijfsritme. Het geeft een indicatie van de commerciële schaal, maar niet de volledige omzet van een volledig boekjaar.
Is Claude echt beschikbaar op AWS, Google Cloud en Azure?
Ja. AWS documenteert Claude in Bedrock, Google Cloud biedt het via Vertex AI en Microsoft integreert Claude-modellen in Foundry. Die officiële aanwezigheid op de drie grootste clouds is strategisch zeer belangrijk voor Anthropic.
Waarom is dit akkoord zo belangrijk voor de toekomst van Claude?
Omdat het zekerheid biedt over compute-capaciteit tot 2027 en verder, terwijl toegang tot chips, energie en datacenters nog altijd de grootste beperkende factoren zijn in het ontwikkelen van grensverleggende modellen. Zonder garanties in infrastructuur wordt opschalen van geavanceerde AI veel moeilijker.
