Міністерство оборони США (МО) визнало компанію Anthropic, провідного розробника AI, що є “ризиком для ланцюжка поставок”, що призвело до поетапного висновку її передової AI-моделі Claude із засекречених військових мереж протягом наступних шести місяців. Цей крок загострює напруженість між вимогами Пентагону до необмеженого доступу та прихильністю Anthropic до відповідального впровадження AI. Хоча заміна AI-моделей здається простим завданням, реальна складність полягає в комплексному процесі переналаштування системи та повторної сертифікації безпеки.
Складність інтеграції та видалення
Зміна AI-моделі – це не просто технічне завдання, а масштабна операційна перебудова. В даний час Claude функціонує як інструмент для високорівневого аналізу розвідданих для МО, обробляючи величезні потоки даних у практичні висновки, проте йому не вистачає можливості безпосередньо виконувати команди, такі як розгортання зброї. Незважаючи на цю обмежену роль, він глибоко інтегрований у існуюче програмне забезпечення. Його видалення вимагає кропіткого процесу відключення кожної точки інтеграції, завдання, яке експерти описують як “нестерпне”, при цьому навіть базові оновлення програмного забезпечення займають місяці для впровадження.
Наполягання МО на повному контролі над AI-системами підкреслює зростаючу суперечність між комерційною етикою AI та військовими операційними потребами. Ця ситуація також наголошує на важливості розуміння того, наскільки глибоко AI вкоренився в оборонну інфраструктуру, що робить переходи набагато складнішими, ніж просто заміна алгоритмів.
Упередженість автоматизації та людський фактор
Перехід пов’язаний із ризиками, крім технічних перешкод. Експерти попереджають про посилення “упередженості автоматизації”, коли користувачі надмірно покладаються на нові AI-системи, не до кінця розуміючи їхні особливості. Персонал, який звик до конкретних помилок Claude, тепер зіткнеться з невідомими режимами відмови його заміни, що потенційно збільшить кількість помилок у початковий період адаптації. Найбільш уразливі активні користувачі, які оптимізували робочі процеси з урахуванням сильних та слабких сторін Claude.
OpenAI виходить на сцену, поки Anthropic пручається
На тлі цього протистояння OpenAI вже уклала контракт на розгортання своїх AI-моделей у засекречених мережах МО фактично замінивши Anthropic. Генеральний директор Anthropic Даріо Амодей заявив, що оскаржуватиме в суді позначення “ризику для ланцюжка поставок”, стверджуючи, що воно зазвичай призначене для іноземних супротивників. Тим часом внутрішні переговори зайшли в глухий кут, а представники Пентагону оголосили їх “закінченими”.
Швидкий перехід МО до OpenAI демонструє високу ставку домінування AI національної безпеки. Цей перехід стосується не лише технологій, а й впливу та контролю у критично важливій галузі.
Рішення Пентагону рухатися вперед, незважаючи на опір Anthropic, наголошує на терміновості забезпечення AI-можливостей, навіть ціною напружених відносин з провідними розробниками AI. Процес заміни Claude, ймовірно, буде повільним і обдуманим, але МО явно ставить в основу оперативну безперервність, а не затяжні переговори.
Довгострокові наслідки цього зсуву залишаються невизначеними, але зрозуміло одне: Пентагон має намір підтримувати контроль над AI-інструментами, що використовуються у своїх засекречених середовищах. Цей інцидент служить нагадуванням про те, що впровадження AI в оборону — це не лише технічне питання, а й стратегічне, що має значні політичні та операційні наслідки.



















