De oorlog achter de oorlog: AI, macht en morele grenzen
In april vorig jaar schreef Anthropic-CEO Dario Amodei een weinig opgemerkt essay met als titel The Urgency of Interpretability. Daarin gaf hij iets toe dat hem nu op een heel andere manier achtervolgt: we begrijpen onze eigen AI-creaties niet. Net die bekentenis vormt de kern van het conflict dat deze week uitbarstte tussen zijn bedrijf en het Pentagon. Een conflict over wie bepaalt hoe de gevaarlijkste technologie van onze tijd kan en zal worden ingezet.
Gepubliceerd door Dominique Dewitte
• Bijgewerkt op
Samenvatting van het artikel
Een conflict tussen Anthropic en het Pentagon legt een fundamentele vraag bloot: wie bepaalt hoe krachtige AI-systemen militair worden ingezet. Minister Pete Hegseth wil dat ethische beperkingen uit het AI-model Claude verdwijnen, terwijl CEO Dario Amodei waarschuwt voor de risico’s van autonome en slecht begrepen systemen, zeker op het vlak van massasurveillance en kernwapenbeslissingen. De uitkomst van deze machtsstrijd tussen overheid en techbedrijven kan bepalend zijn voor de toekomst van AI, democratische controle en nationale veiligheid.
AI in Venezuela en Iran
Het Pentagon zit al een tijd in AI-modus. Wie de voorbije uren het nieuws over de Amerikaanse aanval op Iran volgde, is op X onvermijdelijk op filmpjes gebotst die de kracht van AI in militaire context duidelijk maken. Eerder dit jaar speelde Anthropics AI-agent Claude ook een belangrijke rol bij de gevangenneming van de Venezolaanse dictator Nicolás Maduro. Dit kwam tot stand door de samenwerking tussen Anthropic en Palantir Technologies, een softwarebedrijf gespecialiseerd in geavanceerde bigdata-analyse, data-integratie en AI-gedreven platforms. Hoewel de precieze rol die Claude op zich nam nooit volledig openbaar is gemaakt, was het zonder meer betrokken bij de geheime operatie.
Anthropic stelt zijn grenzen
In juli 2025 sloot Anthropic een contract van 200 miljoen dollar met het Amerikaanse ministerie van Defensie voor het gebruik van zijn AI-model Claude. Vergelijkbare deals gingen toen ook naar OpenAI, Google en Elon Musks xAI. Aan Anthropics contract hingen twee voorwaarden: ten eerste mocht Claude niet worden ingezet voor massasurveillance van Amerikaanse burgers. Daarnaast eiste Anthropic dat bij een autonome aanval met een AI-wapen altijd een mens bij de definitieve beslissing betrokken moest zijn. Die beide voorwaarden waren technisch in het model zelf ingebed. Mocht het zover komen, dan zou Claude bepaalde opdrachten simpelweg weigeren uit te voeren.
Een politieke moordaanslag op Anthropic
Voor Pete Hegseth, de voormalige Fox-presentator die zichzelf graag Secretary of War noemt, was dit onaanvaardbaar. Vorige week stelde hij Amodei een ultimatum: “Je schrapt die ethische beperkingen. Doe je dat niet, dan roept het Pentagon de Defense Production Act in om medewerking af te dwingen.” Een andere optie was gewoon om Anthropic aan te wijzen als een risico in de toeleveringsketen, een status die normaal gereserveerd is voor bedrijven uit vijandige landen als China of Rusland. Deze optie zou de facto een politieke moordaanslag zijn, want als Hegseths dreigement volledig wordt uitgevoerd, zou dit het einde betekenen van de snelgroeiende onderneming Anthropic.
Amodei weigerde in te gaan op die eisen en wil de regering nu aanklagen om te proberen Hegseths beslissing ongedaan te maken. Maar rechtszaken nemen tijd, en ondertussen zullen veel bedrijven besluiten dat het risico om de AI van Anthropic te blijven gebruiken te groot is.
Hegseth heeft gelijk
Hegseths logica is niet zonder grond. Een democratisch verkozen regering heeft in principe het recht te bepalen hoe zij haar eigen technologie inzet. Sommigen maken de analogie met vliegtuigfabrikant Lockheed Martin. Die dicteert de luchtmacht ook niet hoe zij haar gevechtsvliegtuigen moet inzetten. Bovendien hebben geopolitieke tegenstanders zoals China en Rusland geen boodschap aan zelfopgelegde AI-beperkingen. In een echte oorlogssituatie kan die asymmetrie fataal worden.
Critici wijzen er ook op dat Amodei’s positie niet consistent is. Zo werkt Anthropic samen met Palantir, een bedrijf dat wel massasurveillance uitvoert en de politiedienst ICE bijstaat in het identificeren en deporteren van zogenaamde illegals. Amodei verduidelijkte later dat hij in principe niet tegen autonome wapens is, maar dat Claude er simpelweg nog niet klaar voor is. Wat dan weer de vraag oproept hoe een privébedrijf kan bepalen wanneer militaire technologie klaar is.
Hegseth heeft ongelijk
Bezwaren tegen Hegseths visie wegen minstens even zwaar. Het fundamentele probleem is dat Hegseth alle wettelijke toepassingen van Claude eist. Dat is een formulering die bijzonder rekbaar is. Nu de regering-Trump de Insurrection Act al heeft ingeroepen, kan “wettelijk” veel omvatten. Volgens Amodei kan AI een portret genereren van alle honderd miljoen politieke tegenstanders. De technologie maakt de schaal van surveillance fundamenteel anders dan ooit tevoren.
Want massasurveillance is niets nieuws. Al in 2013 moest Edward Snowden de VS ontvluchten nadat hij een systeem van grootschalige surveillanceprogramma’s blootlegde. Die ondermijnden privacy en encryptie en brachten de alliantie tussen overheden en Big Tech inzake spionage op burgers, bedrijven en buitenlandse leiders aan het licht. Vandaag wordt er niet meer data verzameld dan bij Snowden, maar gebeurt het niet langer handmatig. Integendeel, het gebeurt automatisch, goedkoop en in realtime. Miljoenen gedetailleerde, voorspellende persoonsportretten worden non-stop uitgespuwd, zonder menselijke analisten of praktische remmen.
Agents of Chaos
Dan is er het technische argument. Zoals Amodei in zijn verschillende essays schreef: modellen worden niet gebouwd, ze worden gekweekt. De exacte structuur die ontstaat is onvoorspelbaar. Vorige week nog schreven onderzoekers van een reeks Amerikaanse universiteiten in hun essay ‘Agents of Chaos’ over een reeks tests met AI-agenten: waargenomen gedrag omvat onder meer ongeautoriseerde medewerking aan niet-eigenaars, het vrijgeven van gevoelige informatie, het uitvoeren van destructieve acties op systeemniveau, situaties die leiden tot denial-of-service, ongecontroleerd verbruik van middelen, kwetsbaarheden voor identiteitsvervalsing, verspreiding van onveilige praktijken tussen agenten en gedeeltelijke overname van het systeem.
Gokken dat onbekende factoren er niet toe doen
Anthropic-experimenten toonden eerder al aan dat sommige modellen geneigd zijn te liegen en ingenieurs te chanteren, zelfs als hun dat expliciet verboden is. Autonome wapens laten beslissen door systemen die hun makers zelf niet volledig begrijpen, is feitelijk gokken dat de onbekende factoren er niet toe doen. Diezelfde week berichtten onderzoekers overigens dat grote AI-modellen in ongeveer 95% van de gesimuleerde oorlogsscenario’s kozen voor de inzet van kernwapens, ook als dat expliciet verboden was.
OpenAI springt in het gat
Nauwelijks een uur nadat Trump in zijn bekende stijl via Truth Social alle federale diensten opdroeg Anthropic te mijden, meldde OpenAI-CEO Sam Altman aan zijn personeel dat zijn bedrijf onderhandelde over een vervangende deal met het Pentagon. Die deal werd later op dezelfde avond nog gesloten. Altman danste om de hete brij heen, want ook OpenAI hield in theorie vast aan vergelijkbare veiligheidsvoorwaarden rond massasurveillance en autonome wapens. Hij verankerde die eisen in beleid en contractuele afspraken, maar dwingt ze niet technisch af in het model. Het Pentagon kan die principes dus omzeilen; OpenAI vertrouwt op hun woord. Of dat naïef of realistisch is, hangt af van hoeveel vertrouwen de betrokkenen in de regering-Trump stellen.
Wat nu?
De schade voor Anthropic valt niet te onderschatten. De voor 2027 geplande beursgang komt in het gedrang, nu bedrijven die zaken doen met de overheid Anthropic zullen mijden. De juridische houdbaarheid van het supply chain risk mag dan al twijfelachtig zijn, het zal tijd vergen vooraleer het gerecht zich hierover uitspreekt.
De bredere gevolgen zijn misschien nog zorgwekkender: andere AI-bedrijven zullen twee keer nadenken voor zij het Pentagon tarten. Uiteraard staat Musks xAI als gewillige leverancier klaar. Dat zou de Amerikaanse overheid afhankelijk maken van één partij met één eigenaar die al enorme politieke invloed heeft.
Hegseths boodschap aan Silicon Valley is helder: wie niet buigt, wordt gebroken. Of dat Amerika veiliger maakt, of juist kwetsbaarder, zal de toekomst uitwijzen.