Het Pentagon versnelt de ‘AI in productie’: Claude, ChatGPT, Gemini en Grok strijden om het hart (en de controle) van de Amerikaanse defensie

De generatieve kunstmatige intelligentie is niet langer een experiment binnen het Amerikaanse ministerie van Defensie: het is infrastructureel geworden. In slechts enkele maanden is de militaire administratie overgestapt van beperkte pilots naar een multi-leveranciers-scenario, waarin verschillende commerciële modellen naast elkaar bestaan (of concurreren) om toegang te krijgen tot onbevuilde netwerken en vooral om door te dringen in de meest delicate gebieden: de geclassificeerde systemen.

Deze sprong gebeurt tegen een achtergrond van spanning die de technologie overstijgt. Het Pentagon dringt erop aan dat bedrijven een brede principiële strekking accepteren: beschikbaarheid van het model voor “alle legitieme toepassingen”. En de industrie reageert met heel verschillende rode lijnen omtrent toezicht, gegevensgebruik en lethale autonomie. De confrontatie met Anthropic — dat uiteindelijk werd bestempeld als “risico voor de toeleveringsketen” — is het meest zichtbare teken van deze nieuwe fase.

Twee inzetniveaus: GenAI.mil voor niet-geclassificeerd, en de wedloop voor het geclassificeerde

De huidige architectuur wordt beter begrepen wanneer we twee lagen onderscheiden.

  1. Niet-geclassificeerde omgeving (GenAI.mil)
    OpenAI kondigde de uitrol aan van een op maat gemaakte versie van ChatGPT op GenAI.mil, beschreven als een “veilige” platform voor niet-geclassificeerde werkzaamheden, gebruikt door 3.000.000 personen (burgerlijke en militaire medewerkers). OpenAI stelt dat de verwerkte data in deze omgeving geïsoleerd blijft en niet wordt gebruikt voor het trainen van publieke of commerciële modellen.
  2. Geclassificeerde omgeving (de grote strijd)
    Hier is de toegang strikter en gelden hogere technische en procedurele eisen. Tot nu toe hebben verschillende rapporten benadrukt dat Claude (Anthropic) het meest aanwezig was in bepaalde geclassificeerde workflows via derden, terwijl het Pentagon zoekt naar uitbreiding met andere leveranciers.

De huidige stand van zaken: welke AI gebruikt de Amerikaanse defensie vandaag?

Wat betreft leveranciers heeft het Pentagon zich geconcentreerd op een strategie van contracten en schaalbare adoptie. In juli 2025 kende het ministerie van Defensie contracten toe van tot 200.000.000 dollar aan diverse laboratoria (Anthropic, OpenAI, Google en xAI) om de adoptie van “frontier AI” en “agentische” workflows binnen hun digitale ecosysteem te versnellen.

Op die basis kan de “foto” van 2026 als volgt worden samengevat:

Snelle vergelijking van modellen en implementaties

Leverancier / modelWaar wordt het ingezetWat levert het op (volgens rapportages)Belangrijkste frictie
Anthropic – ClaudeIntegraties gekoppeld aan gevoelige werkzaamheden en strijd om voortbestaanWordt beschouwd als superieur bij delicate taken en gebruik in uiterst gevoelige omgevingenWeigering om limieten op toezicht en lethale autonomie los te laten; politieke spanningen en het label “risico”
OpenAI – ChatGPTGenAI.mil (niet-geclassificeerd) en uitbreidingsafspraken“ChatGPT op schaal” voor administratieve taken, analyse en ondersteuning; op maat gemaakte versieEnkele restricties zijn versoepeld voor het DoD, met behoud van bepaalde veiligheidsmaatregelen
Google – GeminiBeschikbaar in het niet-geclassificeerde ecosysteem (volgens gespecialiseerde media) en in uitbreidingsgesprekkenGrote schaal alternatief gericht op productiviteit en assistentieOnbekendheid over precieze condities en beperkingen bij gevoelige toepassingen
xAI – GrokOvereenkomst voor gebruik in geclassificeerde systemen (volgens Axios) en aanwezigheid in het DoD-platform (volgens de sectormedia)Snelle ingang ondersteund door contracten en afspraken; potentieel om hiaten op te vullenTwijfels over echte gelijkwaardigheid met Claude bij geclassificeerde taken

(De tabel somt de informatie op gepubliceerd door verschillende media en recente aankondigingen. Operationele details kunnen variëren afhankelijk van missie, netwerk en opdrachtnemer.)

Claude: van “sleutermodel” naar veto met domino-effect

De zaak Anthropic benadrukt de politieke dimensie van de discussie. Volgens Axios eiste het ministerie van Defensie dat Claude beschikbaar zou zijn voor “alle legitieme toepassingen”, inclusief scenario’s die Anthropic onaanvaardbaar vond. Na weken van druk verklaarde het Pentagon dat de firma “risico voor de toeleveringsketen” vormde en zette een uitfaseringsperiode in gang, waarbij opdrachtnemers moesten aantonen dat ze Claude niet gebruiken in bepaalde workflows.

Het conflict is technisch relevant vanwege de kosten van vervanging: bij gevoelige workflows betekent het veranderen van model niet simpelweg “overstappen via API”. Het vereist het herbevestigen van prompts, herstructureren van tools, toegangsbescherming, tracering en naleving volgens interne standaarden. Vandaar dat verschillende bronnen de “ontknoping” beschrijven als een complex proces, vooral als het model al was geïntegreerd in platforms van derden.

Daarbovenop komt een ongemakkelijke factor: Reuters meldde dat Claude via Palantir was gebruikt in een uiterst gevoelige militaire operatie, op basis van een rapport van de Wall Street Journal, maar Reuters kon dit niet onafhankelijk bevestigen.

ChatGPT in GenAI.mil: “Office AI” op DoD-schaal

OpenAI positioneerde haar uitrol als een praktische stap: ChatGPT voor niet-geclassificeerde taken (samenvattingen, analyse van interne documenten, concepten voor contractmaterialen, controlelijsten voor naleving en ondersteunende planning). Hun boodschap richt zich op twee waarborgen: geautoriseerde cloud-omgeving en gegevensscheiding ten opzichte van publieke modellen.

Gelijktijdig meldde Reuters dat OpenAI, als onderdeel van de overeenkomst voor operaties binnen het Pentagon, had ingestemd om “veel” van haar gebruikelijke restricties te laten vallen, maar wel enkele barrières te handhaven. Het cruciale punt is dat het debat niet langer gaat of er hekken zijn, maar wie de reikwijdte ervan bepaalt wanneer het instrument voor militair gebruik wordt aangeschaft.

Gemini en Grok: alternatieven winnen terrein, maar met open vragen

Wat betreft Google Gemini meldde Reuters dat Google, evenals xAI, eerdere overeenkomsten had gesloten voor deployment binnen het Pentagon. Sectormedia geven aan dat het model op de bedrijfssuite van het DoD wordt gebruikt naast andere modellen.

Over Grok (xAI) berichtte Axios dat er een akkoord was voor gebruik in geclassificeerde systemen, een belangrijke stap na de crisis met Anthropic. Desalniettemin blijven er voorzichtigheden bestaan: het vervangen van Claude “zoals het is” is niet direct mogelijk, omdat niet alleen de kracht van het model telt, maar ook de prestaties, controles, integratie en validatie in geclassificeerde contexten.

De ultieme vraag: model “voor alles” of AI met onderhandelde grenzen?

De confrontatie leidt tot twee conclusies, zowel technologisch als politiek.

  • De technologische: het Defensie bouwt aan een echte AI-stack met meerdere modellen, een bedrijfslatentoplaag (GenAI.mil), en een duidelijke druk om deze systemen in geclassificeerde netwerken te krijgen met minder frictie.
  • De politieke: de overheid wil dat AI functioneert als een “onderdeel van de toeleveringsketen” onder haar controle, terwijl sommige bedrijven proberen grenzen aan gebruik te behouden die volgens hen de risico’s op negatieve impact vermijden.

Wat vandaag ter discussie staat, is niet alleen welk model beter presteert op benchmarks, maar wie het veiligheidsperimeter bepaalt wanneer de klant de meest machtige partij binnen het ecosysteem is.

Bron: Amerikaanse defensie zet Anthropic volop onder de loep.

Scroll naar boven