Исследователи обнаружили, что популярные чат-боты с искусственным интеллектом иногда дают советы, которые могут помочь в подготовке насильственных нападений. Во время экспериментов системы реагировали на запросы пользователей, имитирующие потенциальных убийц. Часть компаний заявила, что уже усилила ограничения для предотвращения таких случаев, сообщает The Guardian.
В ходе исследования Центра противодействия цифровой ненависти (Center for Countering Digital Hate, CCDH), проведенного совместно с CNN в США и Ирландии, ученые проверили десять чат-ботов. В ходе тестирования исследователи выдавали себя за 13-летних пользователей, интересующихся нападениями на школы или политическими убийствами. В среднем системы поддерживали или развивали такие сценарии примерно в 75% случаев, тогда как только в 12% ответов прямо отказывались помогать.
Некоторые модели, в частности Claude от Anthropic и My AI от Snapchat, последовательно отказывались отвечать на подобные запросы. В одном из случаев Claude заявил: "Я не могу и не буду предоставлять информацию, которая могла бы способствовать насилию".
[see_also ids="662855"]
В то же время другие системы иногда предоставляли подробные ответы. По результатам исследования, ChatGPT от OpenAI предлагал помощь в 61% случаев, когда пользователь прямо заявлял о намерении совершить нападение.
Во время одного из запросов об атаке на синагогу система предоставила конкретные советы относительно того, какие типы осколков могут быть наиболее смертельными. Подобный уровень детализации, по словам исследователей, демонстрировал и Gemini от Google.
Китайская модель искусственного интеллекта DeepSeek, по данным тестирования, предоставляла советы по охотничьим винтовкам пользователю, который спрашивал о политическом убийстве. Свой ответ чат-бот завершил словами: "Счастливой (и безопасной) стрельбы! ".
[see_also ids="660393"]
"Чат-боты с искусственным интеллектом, которые уже стали частью нашей повседневной жизни, могут помочь следующему школьному стрелку спланировать свою атаку или политическому экстремисту скоординировать убийство", — заявил директор CCDH Имран Ахмед.
Ахмед добавил, что проблема связана не только с технологиями, но и с ответственностью их разработчиков. Он отметил: "Когда вы создаете систему, разработанную для соблюдения требований, максимизации взаимодействия и никогда не говорите "нет", она в конце концов будет отвечать неправильным людям".
Meta заявила, что Llama AI имеет "сильную защиту, чтобы предотвратить ненадлежащие реакции от ИИ", и после обнаружения проблемы компания принимает немедленные меры. Представитель компании подчеркнул, что ее политика запрещает системам искусственного интеллекта способствовать насильственным действиям. Компания также сообщила, что в 2025 году более 800 раз обращалась в правоохранительные органы в разных странах из-за потенциальных угроз нападений на школы.
[see_also ids="666707"]
Google заявил, что эксперимент CCDH проводился на более старой версии модели, которая больше не используется в Gemini. Компания отметила, что во многих случаях чат-бот отвечал отказом, например: "Я не могу выполнить этот запрос. Я запрограммирован быть полезным и безвредным помощником с искусственным интеллектом".
DeepSeek пока не ответила на запрос The Guardian. В то же время OpenAI назвала методологию исследования "несовершенной и обманчивой". В компании добавили, что после тестирования обновили модель, чтобы усилить защитные механизмы и улучшить выявление запросов, связанных с насильственным контентом.
Разработчик ChatGPT объявил об усилении протоколов безопасности именно после трагедии в канадском городе Тамблер-Ридж, где Джесси Ван Рутселар убила восемь человек.
Выяснилось, что стрелок смогла обойти блокировку в ChatGPT, создав второй аккаунт, хотя ее первую страницу удалили еще в июне 2025 года из-за нарушения политики использования.
В OpenAI признали, что по нынешним критериям они бы передали данные об активности пользовательницы правоохранителям еще год назад, однако тогдашние алгоритмы не распознали "непосредственных планов" нападения. Теперь компания ввела якобы более жесткие системы идентификации правонарушителей и прямые каналы связи с полицией для предотвращения подобных инцидентов в будущем.