Anthropic судиться з Пентагоном – звинувачення у загрозі національній безпеці неправомірні – новини технологій
Представники компанії заявили про технічні непорозуміння та суперечності в позиції американського уряду.
Компанія Anthropic подала до федерального суду Каліфорнії дві заяви у справі проти Міністерства оборони США. У них вона заперечує звинувачення Пентагону про “неприйнятний ризик для національної безпеки”. Слухання у справі призначене на 24 березня, повідомляє TechCrunch.
Конфлікт виник наприкінці лютого, коли президент США Дональд Трамп і міністр оборони Піт Гегсет оголосили про розрив відносин із компанією. Причиною стала відмова Anthropic дозволити необмежене використання своїх технологій штучного інтелекту у військових цілях.
У своїх заявах представники компанії стверджують, що аргументи уряду ґрунтуються на непорозуміннях і твердженнях, які не обговорювалися під час попередніх консультацій. Керівниця політичного напряму Anthropic Сара Хек зазначила, що ключове звинувачення є неправдивим.
“Жодного разу під час переговорів компанії Anthropic з урядом ні я, ні будь-який інший співробітник Anthropic не заявляв, що компанія прагне виконувати таку роль”, — написала Хек у заяві після слів про участь у схваленні військових операцій.
Хек також заявила, що занепокоєння Пентагону щодо можливого втручання компанії у військові операції не обговорювалися під час переговорів. За її словами, ці аргументи з’явилися вже у судових документах, що позбавило компанію можливості відреагувати на них раніше.
Окремо вона звернула увагу на листування з представниками Пентагону. За її даними, 4 березня — наступного дня після офіційного надання Anthropic статусу “ризик для ланцюга постачань” — заступник міністра оборони Еміль Майкл повідомив керівництву компанії, що сторони були “дуже близькі” до узгодження позицій щодо автономної зброї та масового спостереження.
Водночас публічна риторика уряду змінилася вже за кілька днів. Спочатку Anthropic заявляла про “продуктивні розмови”, але згодом представники Пентагону заперечили наявність переговорів і виключили можливість їх відновлення.
Керівник державного напряму Anthropic Тіягу Рамасамі у своїй заяві відкинув технічні претензії уряду. За його словами, після інтеграції у захищені системи Пентагону компанія не має доступу до своїх моделей і не може втручатися в їхню роботу.
Рамасамі також заперечив аргументи щодо ризиків, пов’язаних із працевлаштуванням іноземних громадян. Він підкреслив, що співробітники компанії проходять державні перевірки безпеки, необхідні для роботи з секретною інформацією.
У позові Anthropic стверджує, що рішення Пентагону є формою тиску через позицію компанії щодо безпеки штучного інтелекту. В уряді ці звинувачення відкидають, наголошуючи, що рішення продиктоване виключно міркуваннями національної безпеки.
У статті “Пентагон і Claude: що за лаштунками конфлікту?” Олексій Костенко детально розкриває причини безпрецедентного рішення Міноборони США внести Anthropic до “чорного списку”. Автор посилається на дослідження Кеннета Пейна, яке показало, що провідні мовні моделі ШІ у симуляціях ядерних криз схильні до швидкої ескалації: у 95% ігор ШІ доходив до етапу застосування тактичної ядерної зброї, особливо під тиском дедлайнів.