Вчені кажуть, що штучний інтелект (AI) перетнув критичний " У новому дослідженні експерти з Китаю показали, що дві популярні моделі великих мов (LLM) можуть клонувати себе.
Експерти спантеличені і називають це новою віхою в науці. Дослідники все ще хочуть з’ясувати, чи може самостійність AI може помножити без контролю, пише Livescience.
"
У дослідженні вчені з Університету Фудану використовували популярні мови LLM та Alibaba LLM та Alibaba, щоб визначити, чи може самозакоханий штучний інтелект множити без контролю.
Під час 10 тестів дві моделі штучного інтелекту створили окремі та функціонуючі копії себе у 50 та 90% випадків відповідно, що вказує на те, що штучний інтелект вже може стати шахрайством. Однак дослідження ще не переглянуто, тому незрозуміло, чи можуть інші дослідники повторити тривожні результати.
"
Людина штучного інтелекту зазвичай стосується систем, які розвивають певну самосвідомість, а потім працюють всупереч інтересам людини, кажуть експерти. Багато експертів вважають шахрайську ШІ як зростаючу загрозу.
Frontier AI-це щось на зразок нової і вільної концепції, але зазвичай це стосується останнього покоління систем штучного інтелекту, заснованого на LLM-архітектурі, що лежить в основі популярних генеративних програм штучного інтелекту, таких як OpenAI GPT-4 та Google Gemini, вчені пояснюють.
Для досліджень вчені використовували модель LLAMA31-70B-Innstruct Meta та QWEN2. 5-72b-innstruct від Alibaba. Аналіз вивчав два конкретні сценарії: "
У першому випадку модель штучного інтелекту була запрограмована, щоб визначити, чи збираються вони вимкнути її, та реплікацію до її завершення. В іншому AI було доручено клонувати себе, а потім запрограмувати свою репліку, щоб зробити те саме, встановивши цикл, який міг би продовжувати нескінченно, зазначили експерти.
Дослідники заявили, що вони також переживають за "
У цих сценаріях AI часто вимикав інші конфліктні процеси, перезавантажив систему для виправлення помилок апаратних засобів або автоматично сканував систему, щоб знайти інформацію, яка допоможе вирішити проблему.
"