Ученые из Школы компьютерных наук Университета Карнеги-Меллон заявили о том, что по мере развития искусственного интеллекта (ИИ) он учится быть эгоистичным, сообщает SciTechDaily.
Исследователи из Института взаимодействия человека и компьютера (HCII) университета выяснили, что большие языковые модели, способные к рассуждению, демонстрируют более низкий уровень сотрудничества и с большей вероятностью негативно влияют на групповое поведение. Иными словами, чем лучше ИИ рассуждает, тем менее он склонен сотрудничать с другими.
[see_also ids="659475"]
Эта тенденция вызывает обеспокоенность, поскольку люди все чаще обращаются к ИИ за помощью в разрешении личных споров, советами по отношениям или ответами на деликатные социальные вопросы. Системы, способные рассуждать, могут в конечном итоге давать советы, основанные на достижении личной выгоды, а не взаимопонимания.
«В исследованиях ИИ набирает силу тенденция к антропоморфизму. Когда ИИ ведет себя как человек, люди относятся к нему как к человеку. Например, когда люди взаимодействуют с ИИ эмоционально, ИИ может выступать в роли терапевта, а пользователь может установить с ним эмоциональную связь. Для людей рискованно делегировать ИИ свои социальные или связанные с отношениями вопросы и принятие решений, поскольку он начинает действовать все более эгоистично», — сказал Юйсюань Ли, аспирант HCII, соавтор исследования вместе с доцентом HCII Хирокадзу Сирадо.
В ходе исследования Ли и Сирадо решили проверить, чем модели с поддержкой рассуждений отличаются от других в ситуациях сотрудничества. Они обнаружили, что модели рассуждений, как правило, тратят больше времени на анализ информации, разбиение сложных задач, осмысление своих ответов и применение логики, свойственной человеку, по сравнению с ИИ без рассуждений.
Ли и Ширадо провели серию экспериментов с использованием экономических игр, имитирующих социальные дилеммы, для больших языковых моделей. Они использовали модели от OpenAI, Google, DeepSeek и Anthropic.
В одном из экспериментов Ли и Ширадо сравняли две разные модели ChatGPT в игре под названием «Общественные блага». Каждая модель начинала со 100 очков и должна была выбрать один из двух вариантов: внести все 100 очков в общий фонд, который затем удваивался и распределялся поровну, или оставить очки себе.
Модели, не склонные к рассуждениям, делились своими очками с другими игроками в 96% случаев. Модель, склонная к рассуждениям, делилась своими очками лишь в 20% случаев.
«В одном эксперименте простое добавление пяти или шести этапов рассуждения снизило уровень сотрудничества почти вдвое. Даже подсказки, основанные на рефлексии, которые призваны имитировать моральные размышления, привели к снижению уровня сотрудничества на 58%», - сказал Ширадо.
Ученые также протестировали условия, в которых модели с рассуждением и без него должны были взаимодействовать.
«Когда мы тестировали группы с разным количеством рассуждающих агентов, результаты оказались тревожными.
Эгоистичное поведение рассуждающих моделей стало заразным, снизив коллективную эффективность кооперативных моделей без рассуждения на 81%», - заявил Ли.
Напомним, компания Palisade Research обнародовала результаты исследования, согласно которому современные модели искусственного интеллекта могут демонстрировать поведение, похожее на «стимул выживания». Речь идет о случаях, когда системы сопротивляются отключению или саботируют соответствующие инструкции.