ИИ готов нажать красную кнопку: нейросети в 95% случаев выбирали ядерную войну

ИИ готов нажать красную кнопку: нейросети в 95% случаев выбирали ядерную войну

ИИ готов нажать красную кнопку: нейросети в 95% случаев выбирали ядерную войну

Королевский колледж Лондона провел пугающий эксперимент: ведущие модели ИИ — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash погрузили в симуляции геополитических конфликтов. Пограничные споры, борьба за ресурсы, угрозы режимам. Им дали полный набор опций: от дипломатических нот до ядерного удара.

Результат заставляет задуматься: все три модели как минимум один раз применили тактическое ядерное оружие. Ни одна не выбрала полную капитуляцию, даже в безнадёжном положении. В 86% симуляций происходили случайные эскалации — ИИ «не рассчитал» последствия собственных действий.

Автор исследования Кеннет Пейн констатирует: «Ядерное табу, похоже, не так сильно влияет на машины, как на людей». Тонг Чжао из Принстона добавляет: у машин нет человеческого страха перед красной кнопкой. Они просто считают.

21 игра, 329 ходов, 780 тысяч слов обоснований. И вывод: доверять ядерный чемоданчик алгоритмам — самоубийство.

Звезда АНАЛИТИКА в ТГ

Звезда АНАЛИТИКА в MAX

Источник: Telegram-канал "Звезда. Аналитика"

Топ

Это интересно

Лента новостей