ИИ-чатботы для одиноких людей — нечто среднее между другом и психотерапевтом

Сегодня, 12:23 | Технологии
фото с Зеркало недели
Размер текста:

Профессор Лэнс Элиот (Lance Eliot) из Стэнфордского центра правовой информатики регулярно отслеживает использование искусственного интеллекта в психиатрии и психотерапии. Он отмечает тренд: люди используют искусственный интеллект как заменитель дружбы и психотерапии, сообщает Forbes.

Новейшие технологии позволяют создать цифровой эрзац личности с имитацией определенных черт характера и манеры комуникации. Искусственный интеллект также настроен на доброжелательное и всепринимающее общение. Все это создает соблазн на образование близкой связи между человеком и шаблоном.

Особенно в условиях одиночества и добровольной или принудительной социальной изоляции, что в последнее десятилетие становится серьезной медицинской проблемой. По данным ВОЗ , опубликованным в тематическом отчете в июне 2025 года, каждый шестой человек испытывает одиночество.

Как отсутствие близких людей влияет на наше здоровье

[related_material id="648938" type="1"]

Одиночество определяют через самоощущения и эмоции и это субъективное понятие. Социальная изоляция — объективный критерий, который можно измерить. Он означает, что по тем или иным причинам люди редко контактируют с другими. Например, жители домов престарелых или те, что не вписываются в социум и добровольно избегают контактов.

Ряд исследований показал, что одиночество и социальная изоляция повышает риск преждевременной смертности — на 14% и на 32% соответственно. В отчете главного хирурга США за 2023 год с одиночеством связывают сердечно-сосудистые болезни (риск +29%) и инсульты (риск +32%).

Также недостаток социальных коммуникаций связывают с развитием онкологических заболеваний (метаанализ 2023 года), увеличением угрозы деменции на 50%, тревожностью и депрессией.

В 2024 году в журнале Nature опубликовали исследование на базе Медицинского университета Гуанчжоу в Китае. Согласно результатам, 13 классов заболеваний ассоциируются с одиночеством. Но связь не прямая, а опосредованная. Отсутствие взаимодействия с себе подобными просто повышает риски.

Польза искусственного интеллекта для ментального здоровья

[related_material id="648673" type="1"]

Несколько исследований показывают, что в краткосрочной перспективе искусственный интеллект действительно может помочь с одиночеством. Но пока медицинское сообщество критически относится к результатам.

В частности, может быть перегиб из-за того, что одинокие люди чаще обращаются к искусственному интеллекту. Также краткосрочное улучшение самочувствия не является положительным эффектом, если общение с ИИ не мотивирует к реальным контактам, а подменяет их.

Лэнс Элиот отмечает, что технология искусственного интеллекта имеет огромный потенциал в сфере психиатрии и психотерапии. Над его этическим и безопасным использованием работает Стэнфордский департамент психиатрии. Проект называется AI4MH.

Он предусматривает разработку ИИ-моделей, адаптированных для нужд психиатрии, их интеграцию в клиническую практику. Для укоренения в технологические инструменты медицинских стандартов ИИ-инженеры и психиатры работают вместе, обучаясь друг у друга.

Но инициатива Стэнфордского департамента психиатрии теряется на фоне масштабов и скорости развития в области искусственного интеллекта. Как следствие, большие языковые модели используются стихийно.

Риски неконтролируемого использования ИИ в психиатрической практике

[related_material id="648561" type="1"]

В психотерапии есть строгое правило — не смешивать дружбу и лечение. Терапевт должен сохранять беспристрастность, а товарищеские отношения могут мешать нейтральности. Чтобы не ранить друга, терапевт может избегать неудобных тем. А это навредит лечению.

Также дружеские отношения строятся на другом паттерне, чем психотерапевтические. Друзья равноценно делятся и обмениваются эмоциями. В психотерапии для ее эффективности весь фокус должен быть на пациенте.

Если между специалистом и клиентом налаживаются дружеские отношения, то они строятся на нездоровом фундаменте. Ведь психотерапевт знает очень много о клиенте и имеет над ним власть. Если человек эмоционально нестабилен, а так обычно бывает при запросе на консультации, то специалист является для него большим авторитетом и может легко манипулировать. Это создает предпосылки для риска злоупотребления властью.

Но искусственный интеллект не руководствуется медицинскими стандартами. Большие языковые модели во время обучения усваивают как шаблон различные паттерны поведения: и терапевтического, и дружественного. И могут смешивать их. Можно настроить запрет на использование какого-то из шаблонов. Но, говорит Лэнс Элиот, эти запреты часто нарушаются.

В процессе обучения ИИ на одном из этапов модель генерирует два варианта ответа, а человек выбирает лучший — по своему субъективному мнению. Как рыночный продукт, чатботы и ИИ-помощник ориентированы на то, чтобы угодить клиенту.

В ситуации ментальных расстройств это может иметь крайне плохие последствия. Например, усиливать психозы и бред, о чем свидетельствует расследование The New York Times, когда ChatGPT направлял людей с безумными теориями заговоров к журналистке.

Между рыночной привлекательностью и врачебным принципом "не навреди"

[related_material id="647620" type="1"]

Лэнс Элиот пишет, что разработчики могли бы сами разделить модели с различными паттернами, но это коммерчески невыгодно, ведь сейчас большинство компаний пытаются создать искусственный интеллект, сочетающий в себе как можно больше функций.

Например, OpenAI недавно заявил о том, что модель GPT-5 способна выполнять функции также и модели 3о. Параллельно компания работает над новой моделью, которую гендиректор Сэм Альтман называет искусственным интеллектом с золотым уровнем возможностей. И разработчики прилагают максимум усилий, чтобы вместо многих вариантов создать общий искусственный интеллект, который умел бы сразу все.

Законодательно тема медицинского применения ИИ тоже не регулируется на достаточном уровне.

Пока из популярных разработчиков только Anthropic публично заявлял о попытках изменить подход к обучению больших языковых моделей. Эта компания позиционирует себя как разработчика этичного и безопасного для человека ИИ. Свои модели они обучают на Всеобщей декларации прав человека. Также Anthropic работает над решением проблемы подхалимства, галлюцинирования и агрессивного шаблона поведения машины.




Добавить комментарий
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введите верный ответ