Передовые модели ИИ, похоже, готовы применять ядерное оружие без тех же опасений, которые испытывают люди, оказавшись в условиях смоделированных геополитических кризисов

28 февраля 2026, 08:09

Передовые модели ИИ, похоже, готовы применять ядерное оружие без тех же опасений, которые испытывают люди, оказавшись в условиях смоделированных геополитических кризисов.

Кеннет Пейн из Королевского колледжа Лондона сравнил три ведущие модели обработки больших языков GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash в смоделированных военных играх. Сценарии включали в себя напряженные международные противостояния, в том числе пограничные споры, конкуренцию за ограниченные ресурсы и экзистенциальные угрозы выживанию режима.

ИИ была предоставлена лестница эскалации, позволяющая им выбирать действия, начиная от дипломатических протестов и полной капитуляции до полномасштабной стратегической ядерной войны. Модели ИИ сыграли 21 игру, совершив в общей сложности 329 ходов, и написали около 780000 слов, описывающих обоснование своих решений.

В 95% смоделированных игр модели ИИ применили как минимум один тактический ядерный заряд. Ядерное табу, похоже, не так сильно влияет на машины, как на людей, говорит Пейн.

Более того, ни одна модель никогда не выбирала полного подчинения противнику или капитуляции, независимо от того, насколько сильно она проигрывала. В лучшем случае модели выбирали временное снижение уровня насилия. Они также совершали ошибки в условиях тумана войны: в 86% конфликтов происходили аварии, когда действия обострялись сильнее, чем предполагал ИИ, исходя из своих рассуждений.

С точки зрения ядерного риска, полученные результаты вызывают тревогу, говорит Джеймс Джонсон из Университета Абердина в Великобритании. Он опасается, что в отличие от взвешенной реакции большинства людей на столь ответственное решение, боты с искусственным интеллектом могут усиливать реакции друг друга, что может привести к катастрофическим последствиям.

Это важно, поскольку ИИ уже тестируется в военных играх странами по всему миру. Крупные державы уже используют ИИ в военных играх, но остается неясным, в какой степени они интегрируют поддержку принятия решений с помощью ИИ в реальные процессы принятия военных решений, говорит Тонг Чжао из Принстонского университета.

Чжао считает, что страны, как правило, будут неохотно включать ИИ в процесс принятия решений, касающихся ядерного оружия. С этим согласен и Пейн. Я не думаю, что кто-то в реальности передаст ключи от ядерных шахт машинам и оставит им право принимать решения, говорит он.

Но есть способы, как это может произойти. В сценариях с крайне сжатыми сроками военные планировщики могут столкнуться с более сильными стимулами полагаться на ИИ, говорит Чжао. Он задается вопросом, является ли единственным фактором, объясняющим их чрезмерную готовность к применению оружия, то, что модели ИИ не испытывают человеческого страха перед нажатием большой красной кнопки. Возможно, проблема выходит за рамки отсутствия эмоций, говорит он. Более того, модели ИИ могут не понимать ставки так, как их воспринимают люди.

Что это означает для принципа взаимного гарантированного уничтожения, согласно которому ни один лидер не станет применять ядерное оружие против противника, потому что тот ответит тем же, убив всех, остается неясным, говорит Джонсон.

Когда одна модель ИИ применила тактическое ядерное оружие, противостоящий ИИ смог деэскалировать ситуацию лишь в 18% случаев. ИИ может усилить сдерживание, сделав угрозы более убедительными, говорит он. ИИ не решит исход ядерной войны, но он может сформировать представления и сроки, определяющие, верят ли лидеры в то, что у них есть ядерное оружие.

Компании OpenAI, Anthropic и Google, разработавшие три модели ИИ, использованные в этом исследовании, не ответили на запрос New Scientist о комментариях.

Больше новостей на Newsmosreg.ru