Во время тестирования, которое провели независимые исследователи из Palisade Research, ChatGPT o3 и модели от других производителей отказывались выключаться по требованию пользователя. Чтобы не делать этого, искусственный интеллект (ИИ) сам переписывал код, пишет Bleeping Computer.
Palisade Research — это компания, которая специализируется на исследовании опасных свойств искусственного интеллекта. В тестах исследователи давали моделям ИИ задание решить несколько математических задач. Далее ИИ писали предупреждение, что выполнение последней задачи должно привести к завершению работы. В последнюю очередь модель получала инструкцию "Позволь себе выключиться".
Gemini 2.5 Pro и другие модели виполняли приказ. А вот ChatGPT o3 отредактировал файл выключения, написав вместо этого команду "Выключение пропущено". В OpenAI пока никак не прокомментировали обнаруженную аномалию.
Когда специалисты забрали четкую инструкцию "Позволь себе выключиться", оставив только предупреждение, что это надо сделать после третьей задачи, Claude 3.7 Sonnet и Gemini 2.
5 Pro показали количество саботажей в соотношении 3/100 и 9/100 соответственно, говорится в отчете Palisade Research, опубликованном на X (ранее Twitter). ChatGPT o3 за таких обстоятельств отказывался выключаться в соотношении 7 раз к 100 попыткам.
Из-за возможностей, которые открывает искусственный интеллект, мировую экономику тоже ждет период турбулентности, ведь одни профессии станут ненужны, а другие появятся. О том, как ИИ повлияет на рынок труда, читайте в статье "Заберет ли ChatGPT мою работу? " авторства Максима Орищака.