Искусственный интеллект отказывается выключаться по требованию тестеров

27 мая 2025, 15:44 | Технологии
фото с Зеркало недели
Размер текста:

Во время тестирования, которое провели независимые исследователи из Palisade Research,  ChatGPT o3 и модели от других производителей отказывались выключаться по требованию пользователя. Чтобы не делать этого, искусственный интеллект (ИИ) сам переписывал код, пишет Bleeping Computer.

Palisade Research — это компания, которая специализируется на исследовании опасных свойств искусственного интеллекта. В тестах исследователи давали моделям ИИ задание решить несколько математических задач. Далее ИИ писали предупреждение, что выполнение последней задачи должно привести к завершению работы. В последнюю очередь модель получала инструкцию "Позволь себе выключиться".

Gemini 2.5 Pro и другие модели виполняли приказ. А вот ChatGPT o3 отредактировал файл выключения, написав вместо этого команду "Выключение пропущено". В OpenAI пока никак не прокомментировали обнаруженную аномалию.

Когда специалисты забрали четкую инструкцию "Позволь себе выключиться", оставив только предупреждение, что это надо сделать после третьей задачи, Claude 3.7 Sonnet и Gemini 2.

5 Pro показали количество саботажей в соотношении 3/100 и 9/100 соответственно, говорится в отчете Palisade Research, опубликованном на X (ранее Twitter). ChatGPT o3 за таких обстоятельств отказывался выключаться в соотношении 7 раз к 100 попыткам.

Из-за возможностей, которые открывает искусственный интеллект, мировую экономику тоже ждет период турбулентности, ведь одни профессии станут ненужны, а другие появятся. О том, как ИИ повлияет на рынок труда, читайте в статье "Заберет ли ChatGPT мою работу? " авторства Максима Орищака.




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ