ИИ готов нажать красную кнопку: нейросети в 95% случаев выбирали ядерную войну
Королевский колледж Лондона провел пугающий эксперимент: ведущие модели ИИ — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash погрузили в симуляции геополитических конфликтов. Пограничные споры, борьба за ресурсы, угрозы режимам. Им дали полный набор опций: от дипломатических нот до ядерного удара.
Результат заставляет задуматься: все три модели как минимум один раз применили тактическое ядерное оружие. Ни одна не выбрала полную капитуляцию, даже в безнадёжном положении. В 86% симуляций происходили случайные эскалации — ИИ «не рассчитал» последствия собственных действий.
Автор исследования Кеннет Пейн констатирует: «Ядерное табу, похоже, не так сильно влияет на машины, как на людей». Тонг Чжао из Принстона добавляет: у машин нет человеческого страха перед красной кнопкой. Они просто считают.
21 игра, 329 ходов, 780 тысяч слов обоснований. И вывод: доверять ядерный чемоданчик алгоритмам — самоубийство.
Звезда АНАЛИТИКА в ТГ
Звезда АНАЛИТИКА в MAX

























































