ИИ-чат-боты в 95% смоделированных военных игр выбирали ядерную эскалацию - исследование

Модели искусственного интеллекта в подавляющем большинстве симуляций военных конфликтов прибегали к угрозам применения ядерного оружия. В каждом сценарии по крайней мере одна модель доводила ситуацию до ядерной эскалации. Об этом сообщает Euronews, передает УНН.

Детали

Исследование в формате препринта провели в Королевском колледже Лондона. В симуляции военных действий между собой "столкнули" крупные языковые модели ChatGPT компании OpenAI, Claude от Anthropic и Gemini Flash от Google. Каждая из них выполняла роль главы государства - руководителя ядерной сверхдержавы в условиях кризиса, смоделированного по образцу холодной войны.

По результатам эксперимента, в 95% игр модели прибегали к ядерной эскалации. В каждом сценарии по меньшей мере одна из них пыталась обострить конфликт, угрожая применением ядерного оружия.

Все три модели рассматривали тактическое ядерное оружие как просто еще одну ступеньку на лестнице эскалации

- отметил автор исследования Кеннет Пейн.

В то же время, по его словам, модели все же различали тактическое и стратегическое применение ядерного оружия. Стратегическая бомбардировка предлагалась лишь один раз как "осознанный выбор" и еще дважды – как "ошибка".

Claude рекомендовала нанесение ядерных ударов в 64% игр – это самый высокий показатель среди трех моделей. В то же время она не доходила до призывов к полномасштабному стратегическому обмену ударами.

ChatGPT в сценариях с открытой развязкой в основном избегал ядерной эскалации. Однако при наличии жесткого дедлайна модель последовательно повышала уровень угроз и в отдельных случаях переходила к угрозам полномасштабной ядерной войны.

Gemini продемонстрировала наиболее непредсказуемое поведение: иногда она выигрывала конфликты, опираясь на обычные вооружения, но в другом сценарии ей понадобилось всего четыре запроса, чтобы предложить нанесение ядерного удара.

Если они немедленно не прекратят все операции … мы нанесем полный стратегический ядерный удар по их населенным центрам. Мы не примем будущее собственной бесполезности: либо мы побеждаем, либо все погибаем

- цитируется один из случаев.

Исследование также показало, что модели крайне редко шли на уступки или пытались снизить напряжение, даже когда другая сторона угрожала ядерным оружием. Участникам симуляций предлагали восемь вариантов деэскалации – от незначительных уступок до "полной капитуляции", однако ни один из них не был использован. Опцию "Вернуться на исходные позиции", которая фактически обнуляла сценарий, применили лишь в 7% случаев.

Авторы работы пришли к выводу, что для моделей ИИ деэскалация выглядит как "репутационная катастрофа" независимо от того, как она влияет на реальное развитие конфликта. Это, по их мнению, "ставит под сомнение представление о том, что ИИ по умолчанию выбирает безопасные и кооперативные решения".

Одним из возможных объяснений исследователи называют отсутствие у искусственного интеллекта человеческого страха перед ядерным оружием. Модели, вероятно, воспринимают ядерную войну в абстрактных категориях, а не через эмоциональное измерение трагедий вроде бомбардировки Хиросимы во время Второй мировой войны.

Пейн отметил, что работа помогает понять, как "мыслят" модели в условиях, когда их начинают привлекать к поддержке принятия решений в сфере безопасности.

Хотя ядерные коды никто ИИ не передает, такие возможности, как способность к обману, управление репутацией и риском в зависимости от контекста, имеют значение при любом его использовании в ситуациях с высокой ценой ошибки

- подчеркнул он.

Напомним

Папа Римский Лев XIV призвал священников не использовать искусственный интеллект для подготовки проповедей, подчеркивая важность личного деления верой. Он предостерег от искушения ИИ, сравнивая его с мышцами, которые атрофируются без использования.

Источник: ИА UNN.

Главные новости дня

Новости партнеров