Het Pentagon brengt AI van OpenAI, Google en NVIDIA naar beveiligde netwerken

Het Amerikaanse Ministerie van Defensie heeft overeenkomsten gesloten met acht grote technologiebedrijven om geavanceerde kunstmatige intelligentie (AI) te implementeren binnen hun geclassificeerde netwerken. De officiële lijst omvat SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services en Oracle — een groep die fundamentele modellen, cloudinfrastructuur, chips, bedrijfsdiensten en grootschalige implementatiemogelijkheden combineert.

Deze aankondiging markeert een belangrijke stap in de integratie van generatieve en agent-achtige AI binnen de Amerikaanse militaire omgeving. Het gaat niet alleen om het gebruik van chatbots door soldaten of analisten voor administratieve taken. Het officiële doel is om deze technologieën te integreren in hoogbeveiligde netwerken, bekend als Impact Level 6 en Impact Level 7, ter ondersteuning van operaties, inlichtingen en interne processen in geclassificeerde settings.

Het Ministerie gebruikt daarbij een duidelijke formulering: streven naar een militaire kracht “AI-first”. In minder formeel taalgebruik betekent dit dat Washington wil dat kunstmatige intelligentie een integraal onderdeel wordt van de manier waarop informatie wordt samengevat, complexe situaties worden begrepen, analyses worden versneld en beslissingen worden genomen in omgevingen waar snelheid en precisie cruciaal zijn.

GenAI.mil telt al 1,3 miljoen gebruikers

De officiële communicatie plaatst deze overeenkomsten binnen GenAI.mil, het AI-platform van het ministerie. Volgens de gegevens is het platform in slechts vijf maanden door meer dan 1,3 miljoen mensen binnen het Ministerie gebruikt, met tientallen miljoenen prompts en honderden duizenden agenten die zijn ingezet.

Dit cijfer illustreert dat de interne adoptie niet marginaal is. Militairen, civiel personeel en aannemers maken gebruik van deze tools om taken die voorheen maanden vergden, nu binnen dagen uit te voeren, aldus het ministerie. Hoewel niet alle gebruikstoepassingen gedetailleerd worden beschreven, wordt er gesproken over dataverwerking, verbetering van situationeel inzicht en ondersteuning bij besluitvorming in complexe operationele omgevingen.

BedrijfWaarschijnlijke rol binnen de overeenkomst
OpenAIGeavanceerde generatieve AI-modellen en agent-capaciteiten
GoogleModellen, cloud, infrastructuur en AI-tools
MicrosoftCloud, productiviteit, beveiliging en bedrijfskoppelingen
AWSGeclassificeerde cloudinfrastructuur en AI-diensten
OracleCloud voor geclassificeerde omgevingen en bedrijfssoftware
NVIDIAHardware, AI-versnelling en aanvullende software
SpaceXTechnologische infrastructuur en mogelijk communicatie-gerelateerde capaciteiten
ReflectionAI-modellen en opkomende capaciteiten voor defensie

De betrokkenheid van Oracle werd eveneens bevestigd door het bedrijf zelf, dat een specifieke overeenkomst aankondigde voor het uitrollen van AI-capaciteiten in de geclassificeerde cloudnetwerken van het ministerie. Oracle benadrukt in haar communicatie het belang van leveranciersdiversificatie en het behoud van controle over data, infrastructuur en lange termijntechnologiebeleid.

Het Pentagon richt zich op hetzelfde: een infrastructuur die afhankelijkheid van één enkele leverancier voorkomt. De diversificatie van partners is geen toeval. De Amerikaanse overheid wil toegang tot verschillende modellen, meerdere clouds, diverse chips en meerdere softwarelagen, om te voorkomen dat een enkele technologie haar hele AI-strategie bepaalt.

AI voor snellere besluitvorming, maar niet zonder risico’s

Het militaire gebruik van AI is niet nieuw, maar het betrekken van generatieve modellen en agenten in geclassificeerde netwerken verhoogt de discussie. Tot nu toe richtte veel defensie-AI zich op computer vision, voorspellend onderhoud, signaalanalyse, logistiek, cybersecurity en autonome systemen. De nieuwe golf omvat ook natuurlijke taalinterfaces, agenten die tools kunnen raadplegen, documentatie samenvatten en menselijke teams ondersteunen in veel bredere workflows.

Het potentieel is duidelijk. Tijdens een militaire operatie komt informatie binnen via satellieten, drones, sensoren, HUMINT, communicatie, rapporten, databases en alliantie-systemen. AI-systemen kunnen helpen deze data te ordenen, patronen te herkennen, scenario’s samen te vatten en rapportages te versnellen. Ze kunnen ook worden ingezet voor logistiek, planning, juridische ondersteuning, cyberverdediging, onderhoud en administratieve beheerprocessen.

Het risico blijft echter aanwezig. Modellen kunnen fouten maken, incorrecte interpretaties geven, gebaseerd zijn op incomplete data, of antwoorden met onterechte zekerheid presenteren. In civiele contexten kan dat vervelend of kostbaar zijn, maar in militaire settingen kan het leiden tot problematische operationele beslissingen.

Een veelgenoemde bedreiging is automatische bias: de menselijke neiging om aanbevelingen van systemen te accepteren omdat ze sneller of technischer lijken. Als een AI een situatie verkeerd samenvat of een onware dreiging prioriteert, moet de menselijke operator kritisch blijven, over de juiste training beschikken en de autoriteit hebben om beslissingen te corrigeren. De belofte van “superieure besluitvorming” is only relevant als AI helpt bij beter nadenken, niet als het de menselijke beoordeling vervangt met ondoorzichtige statistische outputs.

Daarom benadrukt de term “lawful operational use” het belang van naleving van wet- en regelgeving. De deelnemende bedrijven stemmen ermee in om AI-capaciteiten binnen de juridische en operationele kaders van het ministerie te blijven gebruiken. Veel vragen blijven echter onbeantwoord: welke taken mogen daadwerkelijk worden uitgevoerd, welke mate van autonomie wordt toegestaan, hoe worden beslissingen gecontroleerd, wie is verantwoordelijk bij fouten en welke waarborgen voorkomen misbruik bij massabewaking, doelwitselectie of autonome wapensystemen?

Het ontbreken van Anthropic voedt de controverse

De grote afwezige is Anthropic, bekend van Claude. Amerikaanse media geven aan dat het bedrijf niet betrokken is bij deze overeenkomsten vanwege geschillen met het ministerie over gebruiksvoorwaarden en veiligheidsmaatregelen in militaire contexten. De controverse draait om grenzen met betrekking tot surveillance, autonome wapens en hoog-risicogebruik.

Dit is relevant omdat Anthropic eerder voet aan wal zette in de Amerikaanse defensiesector, vooral in samenwerking met AWS en Palantir. Als het bedrijf daadwerkelijk wordt uitgesloten, toont dat dat het debat niet alleen technisch is, maar ook politiek, ethisch en contractueel. AI-modellen worden niet zomaar in het Pentagon ingezet; ze komen met beleid, beperkingen, audits en verantwoordelijkheidsafspraken, onder politieke en maatschappelijke druk.

Voor OpenAI, Google, Microsoft, AWS, Oracle, NVIDIA en andere partners ligt een enorme markt klaar: langdurige defensiecontracten, strategisch belangrijke technologieën en een centrale rol in nationale AI-strategieën. Tegelijkertijd betekent deelname ook reputatierisico’s. Inschakeling in geclassificeerde militaire netwerken kan binnen de organisatie tot binnenlandse protesten, medewerkersdruk en internationaal toezicht leiden.

Google ondervond dat al met Project Maven, het AI-beeldanalyseprogramma voor drones dat intern protest uitlokte en leidde tot herziening van haar AI-principes. De grootste verandering nu is dat generatieve AI een priority geworden is voor overheden en legers wereldwijd. De druk om niet achter te blijven op China, Rusland en andere rivalen maakt dat grote techbedrijven zich nauwelijks kunnen veroorloven zich af te sluiten.

Een fundamentele verandering in de relatie tussen Silicon Valley en defensie

Het aangekondigde partnerschap bevestigt ook de normalisatie van een relatie die jarenlang gespannen was. Na de Irak-oorlog en het debat over surveillance probeerde een deel van Silicon Valley zich af te zetten van het militaire complex. Die afstand wordt nu teruggebracht door de toenemende rol van cybersecurity, overheidsclouds, de oorlog in Oekraïne, de geopolitieke rivaliteit met China en de race om AI.

Vandaag willen de grote cloud-, chip- en modelleveranciers actief zijn in defensie. Microsoft, AWS, Oracle concurreren al jaren voor geclassificeerde workloads. NVIDIA is inmiddels een essentiële speler in AI-infrastructuur. OpenAI ontwikkelt producten en samenwerkingen voor de publieke sector. Google probeert haar relevantie opnieuw te vergroten. SpaceX speelt een belangrijke rol in satellietcommunicatie en ruimtevaartdiensten. Reflection vertegenwoordigt nieuwe spelers die AI-native zijn met geopolitieke ambities.

De kern is niet alleen dat het Pentagon AI gebruikt, maar dat het dat ook wil doen binnen geclassificeerde netwerken, en met een breed scala aan commerciële leveranciers. Dit versnelt de adoptie, maar bemoeilijkt ook het beheer en de gouvernancestructuur. Elke model, cloud of leverancier brengt eigen controls, beleid en afhankelijkheden mee.

Voor bondgenoten van de Verenigde Staten wordt deze ontwikkeling nauwkeurig gevolgd. Als het Pentagon aantoont dat generatieve AI veilig en betrouwbaar kan worden ingezet in geclassificeerde omgevingen, zullen andere landen volgen. Bij fouten, datalekken, controversiële beslissingen of misbruik wordt het regulatoire debat sterker.

AI bevindt zich nu in een minder zichtbare maar uiterst gevoelige fase: systemen die niet openbaar, maar geclassificeerd en operationeel zijn. Hier draait het niet om slimme antwoorden, maar om betrouwbaarheid, traceerbaarheid, toegangscontrole, afweer tegen aanvallen, naleving van regelgeving en het vermogen om onder druk menselijke beslissingen te ondersteunen.

Het Pentagon heeft besloten dat AI een fundamenteel onderdeel wordt van haar infrastructuur. De vraag is niet of, maar hoe en onder welke voorwaarden deze AI-tools hun rol gaan spelen in besluiten die echt impact kunnen hebben.

Veelgestelde vragen

Wat heeft het Amerikaanse Ministerie van Defensie aangekondigd?
Het heeft overeenkomsten gesloten met SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, AWS en Oracle voor het inzetten van AI-capaciteiten binnen de geclassificeerde netwerken van het ministerie.

Wat zijn de Impact Level 6 en 7 omgevingen?
Het zijn niveaus van beveiliging en impact die worden gebruikt bij het beheer van uiterst gevoelige of geclassificeerde informatie. Het gaat hier om de integratie van AI in deze beschermde omgevingen.

Gaat AI beslissingen nemen zonder menselijke betrokkenheid?
Het ministerie spreekt over ondersteuning bij datasonderzoek, situationeel begrip en besluitvorming, niet over volledige automatisering. Toch is het risico op afhankelijkheid en automatische bias aanwezig.

Waarom ontbreekt Anthropic in de lijst?
Volgens enkele media heeft een geschil met het ministerie over veiligheidsmaatregelen en gebruiksvoorwaarden geleid tot uitsluiting. Deze controversie onderstreept dat het niet alleen om technologie gaat, maar ook om ethiek, beleid en verantwoording.

vía: war.gov

Scroll naar boven