Anthropic відмовили у забороні чорного списку Пентагону – компанія повідомила про порушення прав.
Компанія оскаржує статус загрози для національної безпеки, що може позбавити її державних контрактів.
Федеральний апеляційний суд у Вашингтоні відмовився призупинити рішення Міністерства оборони США щодо Anthropic. Це стосується визнання компанії загрозою для національної безпеки у сфері постачання. Розробник штучного інтелекту Claude вважає це політичним тиском через позицію щодо безпеки технологій, повідомляє Reuters.
Рішення суду дозволяє уряду США зберегти чинним маркування компанії як загрози для ланцюгів постачання під час розгляду справи. Це фактично блокує доступ Anthropic до контрактів Пентагону та може призвести до ширшого урядового “чорного списку”. Представники компанії зазначили, що такі наслідки можуть коштувати бізнесу мільярди доларів і завдати репутаційної шкоди.
“Військова влада та оперативне керівництво належать головнокомандувачу та Міністерству війни, а не технологічній компанії”, — зазначив виконувач обов’язків генерального прокурора Тодд Бланш.
Колегія суддів Апеляційного суду округу Колумбія відхилила клопотання Anthropic про призупинення рішення до остаточного розгляду. Водночас це рішення не є фінальним у справі.
У компанії повідомили, що очікують на подальший розгляд і впевнені у своїй правовій позиції. Вони наполягають, що визнання їх ризиком є незаконним.
Позов Anthropic є одним із двох, поданих проти рішень Пентагону. Раніше федеральний суд у Каліфорнії заблокував один із наказів, зазначивши, що відомство могло незаконно діяти у відповідь на позицію компанії щодо безпеки штучного інтелекту.
Конфлікт виник після того, як Anthropic відмовилася дозволити використання свого чат-бота для військового спостереження або автономної зброї. У компанії пояснюють це етичними та безпековими міркуваннями.
У своїх позовах Anthropic заявляє про порушення прав, гарантованих Першою та П’ятою поправками до Конституції США. Йдеться про обмеження свободи слова та відсутність належної процедури оскарження.
Водночас Міністерство юстиції США наполягає, що рішення не пов’язане з позицією компанії. За версією уряду, воно стало наслідком відмови Anthropic погодитися з умовами контракту, що створює ризики для використання технологій у військових операціях.
У статті “Пентагон і Claude: що за лаштунками конфлікту?” Олексій Костенко детально розкриває причини безпрецедентного рішення Міноборони США внести Anthropic до “чорного списку”. Автор посилається на дослідження Кеннета Пейна, яке показало, що провідні мовні моделі ШІ у симуляціях ядерних криз схильні до швидкої ескалації: у 95% ігор ШІ доходив до етапу застосування тактичної ядерної зброї, особливо під тиском дедлайнів.
Цікава ситуація, де технології та національна безпека перетинаються. Важливо уважно слідкувати за розвитком подій, бо це може вплинути на майбутнє співпраці між державою та ІТ-компаніями.
Абсолютно вірно, цей випадок демонструє складність балансу між безпекою та правами технологічних компаній, що може визначити нові правила співпраці в майбутньому. Важливо стежити за подальшими рішеннями та їх впливом на індустрію.