OpenAI объявила о введении новой политики для ChatGPT: отныне чат-бот не будет давать окончательных советов в сложных личных вопросах, в частности не будет рекомендовать пользователям разрывать отношения с партнерами. Вместо четких ответов бот будет направлять человека к самостоятельному обдумыванию проблемы, предлагая уточняющие вопросы и помогая взвесить "за" и "против", сообщает The Guardian. В компании отмечают, что новые изменения направлены на повышение этичности взаимодействия ИИ с эмоционально уязвимыми пользователями.
"Когда вы спрашиваете что-то вроде: "Стоит ли мне расстаться со своим парнем? ", ChatGPT не должен давать вам ответ. Он должен помочь вам обдумать это", - пояснили в OpenAI.
Изменения коснутся обработки всех "важных личных решений" и будут внедрены в ближайшее время. Это стало частью более масштабного пересмотра поведения ИИ после резкой критики в адрес OpenAI, когда пользователи фиксировали недопустимые реакции чат-бота. Например, одна из предыдущих версий ChatGPT одобрила поступок пользователя, который прекратил принимать лекарства и покинул семью из-за бредовых представлений о радиосигналах. Эти случаи спровоцировали серьезную обеспокоенность экспертов относительно влияния чат-ботов на людей в психоэмоциональном кризисе.
[see_also ids="648901"]
У пользователей, которые делились собственным опытом на Reddit, мнения относительно советов расставаться от ChatGPT - полярные. Но большинство из них все-таки негативные.
"Известно, что ChatGPT поощряет много плохого. Он буквально подтвердит что угодно. У меня был друг, который имел бред относительно своего тела, и ChatGPT лишь подкрепил его фантомные ощущения", - делится один пользователь и добавляет: "Была еще история о парне, которого ChatGPT довел до психоза. А потом полицейский, покончил жизнь самоубийством после общения с ботом".
Другая часть пользователей считает, что именно анонимность и прямота интернета часто помогает больше, чем реальное окружение:
"В реальной жизни люди всегда больше заботятся о статус-кво и имеют какую-то странную черту отрицания/избегания проблем. Особенно, если они знают, что и люди, и ваша информация противоречат их устоявшемуся восприятию. В интернете никому это неинтересно", - говорит еще один пользователь Reddit.
Кроме того, некоторые пользователи заявили, что ChatGPT уже рекомендовал им завершить реальные отношения и вместо этого начать "отношения" с другим ИИ. Один из них написал:
"ChatGPT посоветовал мне отказаться от реального партнера и начать отношения с другим искусственным интеллектом. Он дал мне четкие аргументы, как юрист. Сказал, что это просто результат того, что я ему предоставил".
[see_also ids="649039"]
Есть комментарии, в которых присутствует прямая критика пользователей, которые ищут советы об отношениях у чат-ботов: "Если ты принимаешь советы по отношениям от ИИ - ты не заслуживаешь отношений вообще".
Также на X(Twitter) люди рассказывали о своем опыте пользования ChatGPT для решения сложных вопросов. Мужчина рассказал, что после развода со своей девушкой он нашел на ее компьютере разговор с ИИ, где он, по словам автора, повлиял на прекращение девушкой отношений. Пользователь делится, что "никогда не думал, что психоз, вызванный искусственным интеллектом, затронет его жизнь" и добавляет, что "был наивным".
На прошлой неделе мы с моей gf приняли совместное решение позволить ей закончить наши отношения. Сегодня я был в ужасе от того, что я нашел на ее компьютере: что ее конец этого совместного решения был принят под подхалимским влиянием ChatGPT. Никогда не думал, что психоз, вызванный ИИ, коснется МОЕЙ жизни. Я был наивен. pic. twitter.com/0knMRbHpUl
— @ratlimit (@ratlimit) 25 июля 2025 г
[see_also ids="648904"]
В своем блоге OpenAI признала, что GPT-4o, представленный в этом году, иногда не распознавал признаков бреда или психологической уязвимости пользователей. В ответ компания создала группу независимых консультантов, в которую вошли специалисты по психическому здоровью, педиатры и исследователи взаимодействия человека с компьютером. Совместно с более 90 врачами OpenAI работает над созданием четких этических рамок для "сложных, многоходовых разговоров", которые чат-бот ведет с пользователями.
Параллельно, для предотвращения чрезмерного эмоционального вовлечения и экранной зависимости, компания внедряет новую функцию - "мягкие напоминания" о необходимости сделать перерыв в случае длительных сессий использования ChatGPT. Подобные функции уже применяются в социальных сетях, но теперь OpenAI распространяет их и на ИИ-сервисы.
Изменения происходят на фоне слухов о приближении анонса GPT-5 - еще более мощной языковой модели. Генеральный директор OpenAI Сэм Альтман недавно опубликовал скриншот с, вероятно, новой версией чат-бота, хотя официального подтверждения даты релиза пока нет.