Маск, Харарі, Возняк та ще тисяча експертів закликали призупинити розробку просунутого ІІ

29 березня 2023, 22:09 | Технології
фото з Зеркало недели
Розмір тексту:

Понад тисячу експертів, серед яких засновник SpaceX і Tesla Ілон Маск, один із засновників Apple Стів Возняк, ізраїльський історик та футуролог Юваль Ной Харарі та інші, підписали лист, у якому закликали поставити на паузу розробку просунутого штучного інтелекту. Як випливає з листа, вони вважають, що розвиток штучного інтелекту становить небезпеку для розвитку суспільства та людства в цілому.

Зокрема, розвиток ІІ може спричинити глибокі зміни в історії життя на Землі, тому його варто розвивати та керувати ним з особливою обережністю.

«На жаль, такого рівня планування та управління не існує, навіть незважаючи на те, що в останні місяці лабораторії штучного інтелекту застрягли в неконтрольованій гонці з розробки та розгортання все більш потужних цифрових умів, які ніхто, навіть їхні творці, не може зрозуміти, спрогнозувати..

Експерти також зазначили, що сучасні системи штучного інтелекту вже можуть конкурувати з людьми у спільних завданнях, що порушує низку питань.. Наприклад, чи повинні ми дозволити машинам поширювати дезінформацію, чи повинні прагнути до повної автоматизації робочих місць, а також розвивати нелюдський інтелект, який у майбутньому може перевершити, перехитрити та замінити людину. За словами експертів, розвивати потужні системи штучного інтелекту можна лише в тому випадку, якщо ми будемо впевнені в тому, що їхній вплив буде позитивним, а всі ризики, які можуть бути принесені, - усуваються.

«Тому ми закликаємо всі лабораторії ІІ негайно призупинити як мінімум на шість місяців навчання систем ІІ більш потужних, ніж GPT-4. Ця пауза повинна бути загальнодоступною та перевіркою, що піддається, і в ній повинні брати участь усі ключові учасники. Якщо таку паузу не можна запровадити швидко, уряди мають втрутитися та ввести мораторій», - йдеться у листі.



Ця пауза необхідна лабораторіям та незалежним експертам у галузі ІІ для розробки та впровадження протоколів безпеки, дотримання яких контролюватиметься зовнішніми експертами. Ці протоколи повинні будуть гарантувати, що розробка ІІ безпечна.

Експерти вважають, що пауза не заважатиме розвитку ІІ, а дозволить відійти від «бездумних перегонів» до все більш масштабних і непередбачуваних моделей.

Раніше дослідження Goldman Sachs показало, що прорив у розвитку ІІ може призвести до автоматизації чверті роботи, що виконується у США та Єврозоні.. Якщо технологія виправдає очікування, вона може призвести до "




Додати коментар
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введіть вірну відповідь