Americké ministerstvo obrany (DoD) označilo předního vývojáře umělé inteligence Anthropic za „riziko dodavatelského řetězce“, což povede k postupnému vyřazení jeho pokročilého modelu umělé inteligence Claude z tajných vojenských sítí v průběhu příštích šesti měsíců. Tento krok zvyšuje napětí mezi požadavky Pentagonu na neomezený přístup a závazkem společnosti Anthropic odpovědně přijímat AI. Zatímco nahrazení modelů umělé inteligence vypadá jako jednoduchý úkol, skutečný problém spočívá ve složitém procesu rekonfigurace systému a recertifikace zabezpečení.
Složitost integrace a odstranění
Změna modelu AI není jen technický úkol, ale rozsáhlá provozní restrukturalizace. Claude v současné době funguje jako nástroj pro analýzu zpravodajství na vysoké úrovni pro DoD, který zpracovává obrovské proudy dat do použitelných poznatků, ale postrádá schopnost přímo vykonávat příkazy, jako je rozmístění zbraní. Navzdory této omezené roli je hluboce integrován do stávajícího obranného softwaru. Jeho odstranění vyžaduje pečlivý proces deaktivace každého integračního bodu, což je úkol, který odborníci popisují jako „bolestivý“, přičemž implementace i základních aktualizací softwaru trvá měsíce.
Trvání ministerstva na plné kontrole nad systémy AI zdůrazňuje rostoucí napětí mezi komerční etikou AI a vojenskými operačními potřebami. Tato situace také zdůrazňuje, že je důležité pochopit, jak hluboce je AI zakořeněna v obranné infrastruktuře, takže přechody jsou mnohem složitější než pouhé nahrazování algoritmů.
Předpojatost automatizace a lidská chyba
Přechod přichází s riziky, které přesahují technické překážky. Odborníci varují před narůstajícím „automatizačním zkreslením“, kdy uživatelé nadměrně spoléhají na nové systémy umělé inteligence, aniž by plně rozuměli jejich funkcím. Personál, který je zvyklý na Claudeovy specifické chyby, bude nyní čelit neznámým způsobům selhání při jeho výměně, což může potenciálně zvýšit počet chyb během počáteční fáze zavádění. Nejzranitelnější jsou aktivní uživatelé, kteří optimalizovali své pracovní postupy na základě Claudových silných a slabých stránek.
OpenAI nastupuje na scénu, zatímco Anthropic odolává
Uprostřed této konfrontace již OpenAI zajistila smlouvu na nasazení svých modelů AI na klasifikovaných sítích DoD, čímž účinně nahradila Anthropic. Generální ředitel společnosti Anthropic Dario Amodei řekl, že napadne označení „riziko dodavatelského řetězce“ u soudu s tím, že je obvykle vyhrazeno pro zahraniční protivníky. Mezitím se interní jednání zastavila a představitelé Pentagonu je prohlásili za „ukončené“.
Rychlý přechod ministerstva obrany na OpenAI demonstruje vysoké sázky dominance AI v národní bezpečnosti. Tento přechod se netýká pouze technologie, ale také vlivu a kontroly v kritické oblasti.
Rozhodnutí Pentagonu pokročit vpřed navzdory odporu Anthropic podtrhuje naléhavost zabezpečení schopností AI, a to i za cenu napjatých vztahů s předními vývojáři AI. Proces nahrazení Clauda bude pravděpodobně pomalý a promyšlený, ale MO jednoznačně upřednostňuje provozní kontinuitu spíše než zdlouhavá jednání.
Dlouhodobé důsledky tohoto posunu zůstávají nejisté, ale jedna věc je jasná: Pentagon má v úmyslu udržet si kontrolu nad nástroji AI používanými ve svých tajných prostředích. Tento incident slouží jako připomínka toho, že implementace umělé inteligence v obraně není pouze technickou, ale také strategickou záležitostí s významnými politickými a operačními důsledky.



















