Anthropic heeft een belangrijke stap gezet in de race om de AI-infrastructuur. Het bedrijf heeft een overeenkomst gesloten met SpaceX om gebruik te maken van de volledige rekenkracht van het datacenter Colossus 1, een faciliteit die binnen een maand toegang biedt tot meer dan 300 MW en meer dan 220.000 NVIDIA GPU’s. De directe gevolgen voor gebruikers zijn meteen voelbaar: Claude Code en de API van Claude Opus zullen veel hogere gebruikslimieten krijgen.
Het nieuws vat het huidige moment in de sector goed samen. Maanden lang werd de concurrentiestrijd tussen AI-laboratoria gedreven door het ontwikkelen van krachtigere modellen, grotere contextvensters en betere benchmarks. Maar de ware bottleneck ligt steeds meer bij iets anders: energie, GPU-capaciteit, datacenters, netwerken, koeling en de capaciteit om miljoenen verzoeken af te handelen zonder de gebruikerservaring te degradëren. Met andere woorden, generatieve AI concurreert niet alleen met intelligentie, maar ook met megawattages.
Claude Code krijgt meer speelruimte
Anthropic kondigt drie onmiddellijke verbeteringen aan voor haar meest intensieve klanten. Ten eerste worden de gebruikslimieten van Claude Code verdubbeld in vensters van vijf uur voor de plannen Pro, Max, Team en Enterprise per gebruiker. Ten tweede wordt de beperking op piektijden voor Claude Code in de plannen Pro en Max opgeheven. Ten derde worden de API-limieten voor de modellen van Claude Opus aanzienlijk verhoogd.
De nieuwe API-limieten illustreren hoezeer Anthropic behoefte had aan meer capaciteit. In Tier 1 gaan de maximale invoer- tokens per minuut van 30.000 naar 500.000, terwijl de uitvoer toeneemt van 8.000 naar 80.000. In Tier 2 stijgt de invoer van 450.000 naar 2 miljoen tokens per minuut, en de uitvoer van 90.000 naar 200.000. Tier 3 brengt de invoer op maximaal 5 miljoen tokens per minuut (van 800.000) en de uitvoer op 400.000 (van 160.000). In Tier 4 bereikt de limiet 10 miljoen tokens invoer per minuut, met 800.000 tokens voor output.
Voor casual gebruikers klinken deze cijfers misschien abstract. Voor teams die werken met agenten, grote repositories, documentanalyse, codegeneratie, contractreviews of bedrijfsautomatisering zijn ze echter doorslaggevend. Een programmeer-agent doet niet slechts één enkele vraag. Hij leest documenten, stelt voor aanpassingen voor, controleert fouten, voert stappen uit, consulteert opnieuw en genereert uitgebreide antwoorden. Al deze acties verbruiken tokens en rekenkracht.
Daarom worden deze limieten een belangrijk onderdeel van de gebruikerservaring. Als een ontwikkelaar halverwege een sessie zonder verder capaciteit komt te zitten, wordt de tool opeens een belemmering in plaats van hulp. Anthropic probeert dat gevoel weg te nemen, zeker nu Claude Code onder technische profielen populairder wordt.
SpaceX betreedt de AI-infrastructuur
De samenwerking met SpaceX heeft zowel een technische als een strategische zijde. Technisch gezien krijgt Anthropic direct toegang tot grote hoeveelheden GPU-capaciteit. Strategisch is het méér: een bedrijf dat bekend staat om raketten, satellieten en connectiviteit, wordt nu een belangrijke infrastructuurleverancier voor een van de meest geavanceerde AI-laboratoria.
Reuters plaatst Colossus 1 in Memphis, Tennessee, en meldt dat het datacenter meer dan 220.000 NVIDIA-processors bevat, waaronder H100-, H200- en GB200-modellen. De operatie helpt Anthropic om een duidelijke druk te verlichten: de vraag naar Claude Pro, Claude Max, Claude Code en de API groeit sneller dan de beschikbare capaciteit om deze betrouwbaar te ondersteunen.
Anthropic maakt gebruik van meerdere architecturen. Het traint en runt Claude op AWS Trainium, Google TPUs en NVIDIA GPU’s. Deze diversificatie is cruciaal in een markt waar afhankelijkheid van één bepaalde chip of leverancier je kwetsbaar maakt voor beschikbaarheid, prijsstijgingen of prioriteiten van derden.
Toch is het volume van Colossus 1 wat dit nieuws meer maakt dan een eenvoudige serviceverbetering. Meer dan 300 MW is een schaalgrootte die kenmerkend is voor grootschalige AI-data centers. Het gaat niet om enkele machines voor piekbelastingen, maar om een volledige infrastructuurblok die limieten omhoog tilt, restricties vermindert en voorbereidt op zwaardere workloads.
De race wordt nu in gigawatt gemeten
Het contract met SpaceX sluit niet op zichzelf. Anthropic presenteert het samen met andere grote rekencapaciteitscontracten: een overeenkomst tot 5 GW met Amazon, waarvan bijna 1 GW nieuwe capaciteit gepland is voor eind 2026; een vergelijkbaar contract van 5 GW met Google en Broadcom dat in 2027 in gebruik zal worden genomen; een samenwerking met Microsoft en NVIDIA ter waarde van 30 miljard dollar voor Azure-resources; en een investering van 50 miljard dollar in Amerikaanse AI-infrastructuur samen met Fluidstack.
De schaal is indrukwekkend en wijst op de richting van de markt. Noch zo lang geleden leek een datacenter met enkele tientallen megawatt al enorm. Nu verplaatst de AI-industrie zich richting honderden megawatt tot meerdere gigawatt. Deze evolutie raakt niet alleen laboratoria; het beïnvloedt energienetten, GPU-beschikbaarheid, datacenterbouw, vergunningen, koeling, transformatorvoorziening en ruimtelijke ordening.
De inferentieverbruikereen wordt steeds relevanter. Het trainen van basismodellen blijft duur, maar het bedienen ervan aan miljoenen gebruikers en agents kost eveneens veel capaciteit. Als agents grote taken uitvoeren, context behouden, tools raadplegen en uitgebreide antwoorden genereren, stijgt de operationele kost nog verder. De limietverhogingen voor Claude zijn dus goed nieuws voor gebruikers, maar bevestigen ook dat de vraag naar AI-infrastructuur exponentieel toeneemt.
Anthropic probeert mogelijk enkele kritieken te weerleggen. Het bedrijf zegt zich te hebben verbonden om de stijging van elektriciteitstarieven veroorzaakt door haar datacenters in de VS te compenseren. Ook wordt onderzoek gedaan naar uitbreiding van dit engagement naar andere landen waar nieuwe capaciteit wordt ingezet. Dit onderwerp wordt steeds gevoeliger: de maatschappelijke acceptatie van AI-datacenters hangt af van de vraag of de gemeenschappen duidelijke voordelen zien of enkel meer druk op het elektriciteitsnet.
Regionale infrastructuur voor gereguleerde industrieën
De uitbreiding stopt niet in de VS. Anthropic benadrukt dat haar zakelijke klanten, vooral in gereguleerde sectoren zoals financiën, gezondheidszorg en overheidsdiensten, regionale infrastructuur nodig hebben om te voldoen aan gegevenslocatie-eisen en regelgeving. De samenwerking met Amazon voorziet al in extra inferentiecapaciteit in Azië en Europa.
Dit is bijzonder relevant in de zakelijke markt. Bedrijven kunnen interesse hebben in Claude, maar niet allemaal mogen gevoelige data naar elke regio sturen. Banken, verzekeraars, ziekenhuizen, overheidsinstanties en strategische bedrijven willen zeker weten waar en onder welke wet- en regelgeving hun gegevens worden verwerkt en beheerd.
Anthropic geeft aan selectief te zijn in de landen waar extra capaciteit wordt toegevoegd en prioriteit te geven aan democratieën met degelijke wettelijke kaders en stabiele toeleveringsketens voor hardware, netwerken en datacenters. AI-infrastructuur wordt zo een mix van technologische, economische en geopolitieke vraagstukken.
Het feit dat Anthropic samenwerkt met SpaceX voor het ontwikkelen van meerdere gigawatt aan orbital AI-capaciteit voegt een futuristische dimensie toe aan het verhaal. Voorzichtigheid is geboden: het inzetten van rekenkracht in de ruimte brengt enorme uitdagingen op het gebied van kosten, onderhoud, energievoorziening, straling, koeling, communicatie en hardware-revisie. Desalniettemin toont het feit dat een bedrijf als Anthropic dit noemt de mate waarin laboratoria alternatieven bestuderen voor het traditionele datacenter op aarde.
In de korte termijn is het duidelijk dat Claude meer capaciteit krijgt, met minder restricties voor Claude Code en uitgebreide mogelijkheden voor grote verbruikers. Voor Anthropic is dat logisch. Wil het concurreren met partijen als OpenAI, Google, xAI, Meta en anderen, dan mag haar beste modellen niet vastlopen door gebrek aan GPU’s.
De volgende fase in AI-ontwikkeling wordt niet alleen gewonnen door degene met het slimste model. Het gaat erom dat dat model snel, betrouwbaar, beschikbaar en robuust genoeg is voor miljoenen gebruikers en bedrijven. Anthropic heeft net een belangrijke stap in dat perspectief gezet.
Veelgestelde vragen
Wat heeft Anthropic aangekondigd samen met SpaceX?
Een overeenkomst voor het gebruik van de volledige capaciteit van het SpaceX Colossus 1 datacenter, met meer dan 300 MW en meer dan 220.000 NVIDIA GPU’s, binnen een maand.
Wat betekent dit voor gebruikers van Claude Code?
Claude Code krijgt verdubbelde limieten in vensters van vijf uur voor de plannen Pro, Max, Team en Enterprise per gebruiker. Bovendien wordt de piekbeperking voor Pro en Max opgeheven.
Wat verandert er in de API van Claude Opus?
Anthropic verhoogt de tokenlimieten per minuut aanzienlijk; in Tier 4 bijvoorbeeld gaan de maximale invoer- tokens van 2 miljoen naar 10 miljoen per minuut, en de uitvoer van 400.000 naar 800.000 tokens.
Waarom hebben AI-laboratoria zo’n enorme stroom nodig?
Omdat het trainen en bedienen van geavanceerde modellen enorme GPU- en energiebehoeften heeft, inclusief koeling en netwerkcapaciteit. Daarnaast zorgen agenten en tools zoals Claude Code voor veel complexe, keten- en contextafhankelijke verzoeken die veel tokens verbruiken.
bron: Nieuws kunstmatige intelligentie
