Чи вирішено конфлікт з Anthropic після запуску нової моделі – АНБ США застосовує Mythos незважаючи на заборону Пентагону – новини технологій
Компанія надала доступ до Mythos лише 40 організаціям, з яких відомо про 12.
Агентство національної безпеки США (АНБ) використовує модель штучного інтелекту Mythos від Anthropic, незважаючи на те, що Міністерство оборони вважає її “ризиком для ланцюга постачань”. Ця ситуація вказує на конфлікт між вимогами кіберзахисту та політикою обмежень, повідомляє Axios.
У лютому 2026 року Пентагон намагався припинити співпрацю з Anthropic і закликав своїх підрядників зробити те ж саме. Водночас військові структури наразі розширюють використання інструментів компанії, одночасно заявляючи в суді про можливі загрози національній безпеці.
Згідно з інформацією джерел Axios, також можливе ширше використання моделі в інших підрозділах. Як саме АНБ використовує Mythos, не уточнюється, але інші організації застосовують цю модель для виявлення вразливостей у своїх системах кібербезпеки.
Anthropic надала доступ до Mythos приблизно 40 організаціям через занепокоєння щодо її кіберможливостей. Публічно компанія назвала лише 12 з них, але джерела Axios стверджують, що АНБ є однією з тих, хто не був згаданий.
Генеральний директор Anthropic Даріо Амодей нещодавно провів зустріч із представниками Білого дому, зокрема головою адміністрації Сьюзі Вайлз та міністром фінансів Скоттом Бессентом. Під час обговорення йшлося про використання Mythos у державному секторі та підходи компанії до безпеки.
Очікується, що подальші кроки стосуватимуться взаємодії інших урядових відомств з цією моделлю. Джерела описують зустріч як продуктивну, хоча конкретні рішення поки що не були оголошені.
Конфлікт між сторонами загострився під час переговорів про контракт на початку року. Міністерство оборони вимагало від компанії надати доступ до моделі Claude для “всіх законних цілей”, тоді як Anthropic наполягала на обмеженнях, зокрема щодо використання ШІ в масовому спостереженні та автономній зброї.
У статті Олексія Костенка “Пентагон і Claude: що за лаштунками конфлікту?” зазначається, що суперечка стосується контролю над інструментом, здатним моделювати сценарії ядерної ескалації з безпрецедентною деталізацією. Це протистояння визначає майбутні межі використання штучного інтелекту в оборонній сфері.
Цікаво спостерігати, як державні структури балансують між ризиками та вигодами від використання нових AI-технологій, попри офіційні заборони. Це показує складність сучасної кібербезпеки.
Ви абсолютно праві: державні структури часто змушені знаходити компроміси між інноваціями та безпекою, що підкреслює складність управління сучасними AI-технологіями у контексті кібербезпеки.