Дослідники попереджають, що системи штучного інтелекту, які досягають здатності відчувати або усвідомлювати себе, можуть зазнати страждань у випадку безвідповідального розвитку, пише The Guardian.
У відкритому листі, підписаному більш ніж 100 експертами, включаючи Стівена Фрай, було запропоновано п’ять принципів для відповідального вивчення свідомості ШІ.
Ці принципи підкреслюють необхідність прийому свідомості ШІ, щоб запобігти стражданням, встановленню обмежень, поетапного розвитку, прозорості для громадськості та уникнення оманливих тверджень.
Лист підтримується новим дослідницьким документом, підкреслюючи моральні та етичні питання, пов'язані з потенційними майбутніми свідомими, або, принаймні, створюючи враження свідомих систем.
У документі зазначається, що в найближчому майбутньому можна створити свідомі системи штучного інтелекту.
Автори - Патрік Бутлін з Оксфордського університету та Теодоросос Лаппас з Афінського університету - відзначають необхідність провідних принципів навіть для компаній, які не мають наміру створювати свідомі системи, у випадку "
Вони визнають, що існує широка невизначеність та розбіжності щодо визначення свідомості в системах штучного інтелекту та чи можливо, але вони вважають, що це питання, яке не слід ігнорувати.
[see_also ids \u003d "
Інші проблеми, розглянуті документом, зосереджені на тому, що робити з системою штучного інтелекту, якщо він визначається як " У цьому сценарії виникає питання, чи є знищення ШІ із вбивством тварини.
У 2023 році Деміс Хассабіс, керівник програми Google з штучного інтелекту та лауреата Нобелівської премії, сказав, що системи штучного інтелекту зараз "
"
У 2019 році професор електронної та комп'ютерної інженерії Державного університету Оклахоми Субхаш, коли він висловив сумніви щодо можливості створення штучного інтелекту, наділеного свідомом, властивою людині. Він зазначив, що людська свідомість поєднує численні когнітивні функції, які неможливо запрограмувати за допомогою логічних виразів.