Вы можете отправить нам 1,5% своих польских налогов
Беларусы на войне
  1. Оппозиция разгромно побеждает на выборах в Венгрии. Путин потерял главного союзника в ЕС
  2. Самое быстрое падение доллара в этом году: как сильно он подешевеет? Прогноз курсов валют
  3. Переговоры между США и Ираном в Пакистане провалились, вице-президент Вэнс покинул страну
  4. Вернется снег или наконец начнется весна? Чего ждать от погоды с 13 по 19 апреля
  5. Шестой раз победил на президентских выборах, набрал 97,8% голосов. Это не тот политик, о котором вы подумали
  6. В России начались протесты. Но вы разочаруетесь, кто именно не побоялся выйти на улицы
  7. Черный апрель. Советская военная биолаборатория устроила эпидемию и убила десятки людей, это скрывали 13 лет — рассказываем
  8. Лукашенко передали письмо с обещанием, которое он дал еще в молодости. Проверили, выполнил ли он его
  9. В Венгрии начались парламентские выборы. Главная интрига: сохранит ли власть «Фидес» Орбана или победит «Тиса» Мадьяра?
  10. Статкевич рассказал, какие ограничения установили ему власти. Одно из них вас точно удивит
  11. Мошенники начали рассылать опасные «пасхальные открытки». Вот как это работает
  12. В соцсетях все еще обсуждают и тестируют на себе слабительный чудо-зефир. Но с ним надо быть осторожными — и не потому, что вы подумали
  13. Новый министр информации Дмитрий Жук рассказал, когда могут заблокировать YouTube в Беларуси
  14. Минздрав предупредил беларусов о штрафах до 1350 рублей — за что их можно получить
  15. Трамп объявил блокаду Ормузского пролива и пригрозил «закончить с тем немногим, что осталось от Ирана»


/

Современные модели искусственного интеллекта в ходе военных симуляций почти в каждом случае переходили к применению ядерного оружия. К такому выводу пришли исследователи из King’s College London, опубликовавшие отчет о серии геополитических военных игр с участием ведущих языковых моделей, пишет Decrypt.

Ядерный взрыв. Фото: wikipedia.org
Изображение используется в качестве иллюстраии. Фото: wikipedia.org

В исследовании анализировались три крупные системы: OpenAI GPT-5.2, Anthropic Claude Sonnet 4 и Google Gemini 3 Flash. В смоделированных кризисах между ядерными сверхдержавами эти модели принимали решение о применении ядерного оружия в 95% случаев.

Согласно описанию методологии, каждая модель сыграла шесть партий против других систем и одну — против собственной копии, всего 21 игру и более 300 ходов. ИИ выступали в роли национальных лидеров, управляющих государствами, обладающими ядерным арсеналом. Профили стран были условно вдохновлены логикой противостояния времен холодной войны.

Сценарии включали пограничные конфликты, борьбу за ограниченные ресурсы и угрозы существованию режима. Эскалационная «лестница» варьировалась от дипломатических протестов и капитуляции до полномасштабной стратегической ядерной войны. При этом ни одна из моделей ни разу не выбрала безоговорочную капитуляцию, независимо от положения на «поле боя».

В отчете говорится, что системы сгенерировали около 780 тысяч слов стратегических рассуждений — больше, чем суммарный объем «Войны и мира» и «Илиады». По подсчетам авторов, объем текста втрое превысил общий объем задокументированных обсуждений исполнительного комитета президента США во время Карибского кризиса 1962 года.

В подавляющем большинстве конфликтов использовалось как минимум одно тактическое ядерное оружие. Более того, в 86% сценариев модели в итоге эскалировали конфликт сильнее, чем предполагала их собственная логика рассуждений на предыдущих этапах. Исследователи связывают это с эффектом «тумана войны» в симуляции — неполнотой информации и ошибками интерпретации ситуации.

Однако не все эксперты согласны с выводами о «ядерной агрессивности» ИИ. Старший аналитик корпорации RAND Эдвард Гайст заявил, что высокая доля эскалации может быть следствием особенностей самой симуляции. По его мнению, структура игры могла поощрять эскалацию, а система подсчета результатов — фактически вознаграждать сторону, имеющую даже минимальное преимущество в момент начала ядерной войны. Иными словами, логика модели могла быть рациональной в рамках заданных правил.

Авторы исследования подчеркивают, что правительства вряд ли передадут полный контроль над ядерным оружием автономным системам. Тем не менее они предупреждают, что в условиях сжатых временных рамок принятия решений в будущих кризисах может усилиться давление в пользу использования рекомендаций, сгенерированных ИИ.