Verenigde Staten heeft besloten om de distillatie van AI-modellen te veranderen in een politiek, industrieel en strategisch front. De boodschap uit Washington beperkt zich niet meer tot de commerciële concurrentie tussen laboratoria: het Witte Huis en verschillende Amerikaanse bedrijven stellen dat Chinese ondernemingen, met DeepSeek in het middelpunt, capaciteit van grensverleggende modellen ontwikkeld in de VS stelen om hun eigen systemen sneller en goedkoper te verbeteren.
De aanval rust vooral op twee bewegingen. Aan de ene kant is er het memorandum van het Witte Huis, ondertekend door Michael Kratsios op 23 april 2026, waarin ‘buitenlandse entiteiten, voornamelijk Chinese’, worden beschuldigd van industriële campagnes om Amerikaanse modellen te distilleren. Aan de andere kant is er de publieke druk uitgeoefend door OpenAI en Anthropic, die in februari hun eigen beschuldigingen tegen DeepSeek en andere Chinese laboratoria naar voren brachten in de politieke en mediaverklaring.
De kwestie is belangrijk omdat het niet alleen gaat om intellectueel eigendom. In het Amerikaanse discours wordt illegale distillatie al gepresenteerd als een nationale veiligheidsproblematiek, als een kwestie van technologische voorsprong en als een manier om de geopolitieke controle over de volgende generatie modellen te behouden.
Vooraleer op de details in te gaan, is het belangrijk een nuance te benadrukken: Distillatie is een legitieme en veelgebruikte techniek binnen AI. Het wordt gebruikt om kleinere, goedkopere modellen te trainen op basis van de outputs van krachtigere systemen. Het conflict ligt niet in de techniek zelf, maar in de vermeende ongeautoriseerde toepassing ervan op gesloten systemen van derden. Anthropic maakt expliciet duidelijk: distillatie is normaal wanneer laboratoria dit toepassen op hun eigen modellen, maar wordt problematisch wanneer het gebruikt wordt om zonder toestemming en op grote schaal capaciteit van andermans modellen af te nemen.
OpenAI en Anthropic plaatsen DeepSeek centraal in hun beschuldigingen
OpenAI verduidelijkte haar standpunt in een document dat op 12 februari 2026 is gestuurd naar de Selectieve Commissie van het Huis van Afgevaardigden over strategische concurrentie met China. In dat document stelt het bedrijf dat DeepSeek in de context moet worden gezien van ‘voortdurende inspanningen’ om de door OpenAI en andere Amerikaanse laboratoria ontwikkelde capaciteiten te benutten. Daarnaast beweert OpenAI activiteiten te hebben gedetecteerd die wijzen op herhaalde pogingen tot distillatie via verdoezelde methoden.
Het document gaat nog verder en beweert dat accounts gekoppeld aan medewerkers van DeepSeek methoden zouden hebben ontwikkeld om de toegangsbeperkingen van OpenAI te omzeilen, onder meer door gebruik te maken van routers van derden en andere technieken om de herkomst van de verzoeken te verhullen. OpenAI stelt bovendien dat DeepSeek code heeft ontwikkeld om toegang te krijgen tot Amerikaanse modellen en outputs te verkrijgen die nuttig zijn voor geautomatiseerde distillatieprocessen. Volgens het bedrijf maakt dit alles deel uit van een steeds geavanceerder ecosystem voor het extractie van capaciteiten.
Enkele dagen later verscherpte Anthropic haar verhaal. Op 23 februari 2026 publiceerde het bedrijf een rapport waarin het toonde dat er ‘industrieschaal’ campagnes waren uitgevoerd door drie Chinese laboratoria: DeepSeek, Moonshot en MiniMax. Volgens hun bevindingen zouden deze campagnes meer dan 16 miljoen interacties met Claude hebben gegenereerd via ongeveer 24.000 frauduleuze accounts, in strijd met hun gebruiksvoorwaarden en regionale restricties.
Specifiek voor DeepSeek spreekt Anthropic van meer dan 150.000 interacties gericht op het extraheren van redeneercapaciteiten, evaluatietaken voor reinforcement learning en ‘veilige voor censuur’ alternatieven voor politiek gevoelige vragen. Het bedrijf beweert deze campagnes met ‘hoge betrouwbaarheid’ te hebben gekoppeld aan specifieke laboratoria door IP-adressen, metadata van verzoeken en indicatoren van infrastructuur te analyseren.
De White House transformeert dit tot een strategische doctrine
Wat echt nieuw is, is dat deze beschuldigingen niet langer beperkt blijven tot het bedrijfsleven. Het memorandum van het Witte Huis van 23 april stelt dat buitenlandse actoren, vooral Chinezen, industriële distillatiecampagnes uitvoeren tegen grenssystemen van de VS, en dat dit direct de strategische voorsprong van Washington bedreigt. Dit wordt gedaan via infrastructuur, chips en exportcontroles.
Deze koers past goed bij de lijn van Anthropic, dat in haar rapport gekoppeld heeft aan onwettige distillatie en de erosie van export controls. Haar redenering is dat, wanneer buitenlandse laboratoria capaciteiten van Amerikaanse modellen kunnen extraheren, het effect van de restricties op chips ondermijnd wordt, omdat deze actoren capaciteit kunnen verkorten zonder de volledige kosten van ontwikkeling en veiligheid te dragen. Anthropic suggereert zelfs dat op illegale wijze gedistilleerde modellen belangrijke waarborgen kunnen missen en militaire, surveillance- of cyberaanvallen kunnen voeden.
OpenAI benadert de zaak eveneens vanuit dat perspectief. In haar brief aan het Congres koppelt zij bescherming tegen distillatie direct aan de strijd tegen een ‘autocratische AI’ en het bewaren van het Amerikaanse leiderschap in infrastructuur, chips, energie en datacentra.
Het gaat niet alleen om DeepSeek
Hoewel DeepSeek belangrijk is, is het waarschijnlijk niet het enige waar Washington zich zorgen over maakt. Het onderliggende debat draait om de vraag of gesloten systemen kunnen blijven concurreren in een markt waar een deel van hun capaciteit mogelijk wordt overgenomen door externe actoren via uitgebreide vragenlijsten, gedeelde accounts en systematisch patronen verzamelen voor het trainen van concurrenten.
Voor de techsector roept dat ongemakkelijke vragen op. Een technische vraag is hoe men kan voorkomen dat een sterk geconsulteerd model gedrag imiteert of onthult. Een juridische vraag is waar precies de grens ligt bij technieken die bekend zijn, wanneer het resultaat geen gewichten kopieert maar functionele capaciteiten. En een politieke vraag: of de VS dit soort praktijken wil bestempelen als een nieuw terrein voor sancties, toegangsbeperkingen en diplomatieke druk.
Tot nu toe zijn er openbare officiële memoranda en directe beschuldigingen van getroffen bedrijven. Dat is genoeg om de omvang van het conflict te begrijpen. Distillatie, jarenlang een normale techniek in AI, wordt nu een slagveld van de technologische rivaliteit tussen de VS en China. En daarin is DeepSeek uitgegroeid tot het meest zichtbare symbool van een veel grotere strijd.
Veelgestelde vragen
Wat is distillatie van modellen in Kunstmatige Intelligentie?
Het is een techniek om kleinere of goedkopere modellen te trainen met outputs van krachtigere modellen. De industrie vindt het legitiem wanneer het op eigen modellen wordt toegepast, maar wordt problematisch als het zonder toestemming op andermans systemen wordt toegepast.
Waarvan beschuldigt OpenAI DeepSeek precies?
OpenAI beweert dat DeepSeek voortdurend probeert de capaciteiten van OpenAI en andere Amerikaanse laboratoria te exploiteren en dat het activiteiten heeft gedetecteerd die wijzen op herhaalde pogingen tot distillatie via verdoezelde methoden.
Welke cijfers geeft Anthropic over deze campagnes?
Anthropic stelt dat DeepSeek, Moonshot en MiniMax samen meer dan 16 miljoen uitwisselingen met Claude hebben gegenereerd via circa 24.000 frauduleuze accounts. Voor DeepSeek wordt gesproken over meer dan 150.000 interacties.
Waarom behandelt het Witte Huis dit als een veiligheidsaangelegenheid?
Omdat Washington gelooft dat ongeautoriseerde distillatie de technologische voorsprong van de VS kan ondermijnen, het effect van exportcontroles kan verminderen en strategische rivalen in staat stelt geavanceerde capaciteiten te verkrijgen zonder de volledige ontwikkelingskosten te dragen.
