Het ministerie van Defensie (DOD) heeft Anthropic, een toonaangevend AI-bedrijf, aangemerkt als een “toeleveringsketenrisico”, wat zal leiden tot een gefaseerde verwijdering van zijn geavanceerde AI-model, Claude, uit geheime militaire netwerken in de komende zes maanden. Deze stap doet de spanningen tussen de eis van het Pentagon voor onbeperkte toegang en de inzet van Anthropic voor een verantwoorde inzet van AI escaleren. Hoewel het uitwisselen van AI-modellen eenvoudig lijkt, ligt de echte uitdaging in het complexe proces van het opnieuw bedraden van systemen en het opnieuw goedkeuren van de beveiliging.

De complexiteit van integratie en verwijdering

Het wisselen van AI-modellen is niet alleen een technische taak; het is een operationele revisie. Claude functioneert momenteel als een hulpmiddel voor het samenvatten van inlichtingen op hoog niveau voor de DOD, waarbij enorme gegevensstromen worden verwerkt tot bruikbare inzichten, maar het mist de mogelijkheid om rechtstreeks opdrachten uit te voeren, zoals de inzet van wapens. Ondanks deze beperkte rol is het diep geïntegreerd in bestaande defensiesoftware. Het verwijderen ervan vereist een nauwgezet proces waarbij elk integratiepunt wordt buitengesloten, een taak die experts omschrijven als ‘ondraaglijk’, waarbij zelfs basissoftware-updates maanden in beslag nemen om te implementeren.

Het aandringen van de DOD op volledige controle over AI-systemen benadrukt een groeiende wrijving tussen commerciële AI-ethiek en militaire operationele behoeften. Deze situatie onderstreept ook hoe belangrijk het is om te begrijpen hoe diep ingebed AI is geworden in de defensie-infrastructuur, waardoor transities veel complexer worden dan simpelweg het uitwisselen van algoritmen.

Automatiseringsbias en de menselijke factor

De transitie brengt risico’s met zich mee die verder gaan dan de technische hindernissen. Deskundigen waarschuwen voor een grotere ‘automatiseringsvoorkeur’, waarbij gebruikers te veel vertrouwen op nieuwe AI-systemen voordat ze hun eigenaardigheden volledig begrijpen. Personeel dat gewend is aan de specifieke fouten van Claude zal nu te maken krijgen met de onbekende faalwijzen van de vervanging ervan, waardoor het aantal fouten tijdens de eerste aanpassingsperiode mogelijk toeneemt. Het meest kwetsbaar zijn de hoofdgebruikers die de workflows hebben geoptimaliseerd rond de sterke en zwakke punten van Claude.

OpenAI komt tussenbeide terwijl Anthropic terugvecht

Te midden van de impasse heeft OpenAI al een contract binnengehaald om zijn AI-modellen in te zetten binnen de geheime netwerken van het Ministerie van Defensie, waarmee Anthropic feitelijk wordt vervangen. CEO van Anthropic, Dario Amodei, heeft beloofd de aanduiding ‘supply chain risk’ juridisch aan te vechten, met het argument dat deze doorgaans voorbehouden is aan buitenlandse tegenstanders. Ondertussen zijn de interne onderhandelingen tot stilstand gekomen, waarbij functionarissen van het Pentagon de gesprekken ‘dood’ verklaarden.

De snelle verschuiving van het Ministerie van Defensie naar OpenAI demonstreert de grote inzet van AI-dominantie in de nationale veiligheid. Deze transitie gaat niet alleen over technologie; het gaat over invloed en controle in een cruciaal domein.

Het besluit van het Pentagon om ondanks het verzet van Anthropic vooruitgang te boeken onderstreept de urgentie van het veiligstellen van AI-capaciteiten, zelfs ten koste van gespannen relaties met toonaangevende AI-ontwikkelaars. Het proces om Claude te vervangen zal waarschijnlijk traag en weloverwogen zijn, maar het Ministerie van Defensie geeft duidelijk prioriteit aan operationele continuïteit boven langdurige onderhandelingen.

De langetermijngevolgen van deze verschuiving blijven onzeker, maar het is duidelijk dat het Pentagon vastbesloten is de controle te behouden over de AI-instrumenten die in zijn geheime omgevingen worden gebruikt. Het incident herinnert ons eraan dat de inzet van AI in defensie niet alleen een technische kwestie is, maar een strategische kwestie met aanzienlijke politieke en operationele implicaties.