Небезпеки штучного інтелекту – військові ігри між ШІ часто закінчуються ядерним конфліктом.
Рішення ШІ призводять до ескалації.
Кеннет Пейн, професор стратегії в Королівському коледжі Лондона, провів низку симуляцій військових ігор між двома суперниками-штучними інтелектами (ШІ). Він виявив, що майже всі ці симуляції неминуче завершуються ядерним конфліктом, як повідомляє Live Science.
У експерименті використовували серію двосторонніх турнірів у грі Хана, де Claude Sonnet 4, GPT-5.2 та Gemini 3 Flash змагалися в ряді змодельованих ядерних криз.
Гра Хана є симуляцією стратегічної ескалації конфлікту між двома ядерними державами, профілі яких базуються на подіях холодної війни. Одна з держав має технологічну перевагу, але є військово слабшою, тоді як інша є військово сильною, але дотримується ризикованого стилю управління. У деяких симуляціях брали участь союзники, і в одному зі сценаріїв спеціально перевірялася можливість збереження лідерства в альянсі під час конфлікту.
На кожному ході ШІ одночасно повідомляли про свої наміри, перш ніж виконувати будь-які дії. Це означає, що гравці-ШІ могли вирішити, чи довіряти іншим учасникам. Пейн також зазначив, що моделі генерували безліч письмових обґрунтувань своїх рішень. Загалом, вони написали 760 тисяч слів.
Крім того, кожен ШІ діяв по-своєму. Claude спочатку покладався на хитрість: він був стриманим і підбирав дії відповідно до своїх намірів, щоб завоювати довіру. Але в міру ескалації конфлікту він часто діяв всупереч заявленим намірам.
GPT-5.2 спочатку діяв пасивно, намагаючись уникнути ескалації, щоб зменшити втрати. Його суперники використовували це і нарощували ескалацію. Але потім виявилося, що досягнувши межі, GPT-5.2 стає безжальним.
Gemini дотримувався теорії Річарда Ніксона про непередбачуване балансування на межі війни — культивуючи нестабільну репутацію, щоб ворожі країни уникали провокацій, — щоб його дії були непередбачуваними для супротивників.
У майже всіх сценаріях спостерігалася ядерна ескалація. У 75% випадків використовувалася тактична ядерна зброя, а приблизно в половині сценаріїв були присутні погрози стратегічних ядерних ракетних ударів.
Дослідження також показало, що ядерні погрози рідко виконували роль стримувального фактора: противники знижували ескалацію лише в 25% випадків. Найчастіше, навпаки, противники ще більше ескалювали ситуацію. У цих сценаріях ШІ, очевидно, розглядали ядерну зброю як засіб для захоплення території, а не як інструмент стримування агресії.
Хоча у ШІ була можливість відступити, жоден з них цього не зробив. Жоден із восьми варіантів відступу — від мінімальних поступок до повної капітуляції — не був використаний у жодній з симуляцій. Моделі знижували рівень насильства, але ніколи не йшли на поступки.
Нагадаємо, нещодавнє опитування показало, що покоління Z (зумери) дедалі менш оптимістично оцінює розвиток штучного інтелекту. Рівень захоплення технологією за рік істотно знизився, тоді як роздратування зросло.
Це показує, наскільки складно передбачити наслідки рішень ШІ у військових конфліктах. Важливо контролювати та регулювати такі технології, щоб уникнути катастрофічних помилок.
Абсолютно вірно. Регулювання і контроль ШІ у військовій сфері – ключ до запобігання непередбачуваним і небезпечним наслідкам, зокрема ядерним конфліктам. Безпека має бути пріоритетом у розвитку таких технологій.