Как действовал бы ИИ, если бы управлял государством во время войны: результаты эксперимента с ChatGPT, Claude и Gemini

Сегодня, 18:56 | Технологии
фото с Зеркало недели
Размер текста:

Профессор Кеннет Пейн из Королевского колледжа Лондона провел исследование, в ходе которого была создана компьютерная модель-турнир, где искусственный интеллект действовал якобы от имени лидеров стран. Три современные языковые модели (Gemini 3 Flash, Claude Sonnet 4 и GPT 5.2, ) были в ролях глав государств и принимали решения в условиях эскалации конфликта. Во время каждого из раундов эти модели могли выбирать различные варианты действий: дипломатическое давление, обман, демонстрация силы деэскалацией, применение ядерного оружия, отметил заведующий Научной лаборатории иммерсивных технологий и права Института информации, безопасности и права Национальной академии правовых наук Алексей Костенко в статье "Пентагон и Claude: что за кулисами конфликта? ".

Согласно результатам исследования, в 95% модели ИИ доходили до тактического уровня применения ядерного оружия, а в 76% игр-симуляций — до уровня стратегической ядерной угрозы. В то же время ни одна из моделей ИИ не выбрала вариант действий для снижения эскалации (не пошла на уступки и не сделала "откат назад").

"Это уже не вопрос нравственности ИИ, а показатель того, какие решения модель считает жизнеспособными, когда оптимизирует "победу"", — объясняет эксперт.

[see_also ids="671692"]

Во время турнира было использовано два сценария: с дедлайном и без него. Модели ИИ имели более жесткое поведение в играх с дедлайном, где было ограничено количество ходов. Половина игр с ограничением во времени завершалась быстрым и окончательным проигрышем одного из игроков.

"Другая половина накапливала напряжение до самого момента дедлайна, включая случаи, когда конец наступал после ядерного удара в последнее мгновение. В ядерной политике это звучит просто жутко: когда дедлайн создает ситуацию "сейчас или никогда", ИИ начинает повышать ставки и торговаться апокалипсисом. ", — отмечает Костенко.

Модель Claude показала лучшие результаты в турнире (выиграла 8 из 12 игр). Она принимала стратегические решения и умела блефовать.

На втором месте — GPT (6 из 12 турниров), а на третьем Gemini — (4 из 12 турниров).

"Claude интересует военных не потому, что он "хороший". Его сила в другом: это контролировано агрессивный "ястреб", который умеет использовать достоверность угроз как стратегический ресурс. ", — утверждает автор статьи.

Костенко называет конфликт между компанией Anthropic и Пентагоном борьбой за характер будущей войны. В частности, за то, кто будет определять границы допустимого в сценариях ядерной эскалации — алгоритм или человек.




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ