ІІ може відкинути ЗМІ на 100 років назад

09 листопада 2017, 17:23 | Технології
фото з InternetUA
Розмір тексту:

З такою думкою виступив вчений Ян Гудфеллоу з Google Brain. Він розповів, що ІІ наближається до рівня, коли зможе з легкістю фальсифікувати будь-які фотографії або відеоролики. Як тільки це відбудеться, візуальний новинний контент сильно знеціниться -все те, що раніше служило незаперечним доказом, може перестати викликати довіру, пише Technology Review.

Гудфеллоу каже, що зараз займається подібними проектами в Google Brain. Здебільшого, це генеративно-змагальні мережі - поняття, яке він сам описав в 2014 році. Це спеціальні алгоритми машинного навчання, які побудовані на суперництві двох нейромереж. Одна відтворює різні моделі, а друга перевіряє їх справжність. В ході такого суперництва моделі виходять дедалі досконалішим. І вже зараз такі мережі здатні створювати фотографії, справжність яких людина не здатна встановити.

Фейки створювалися і раніше, але для дійсно якісної підробки були потрібні величезні ресурси. ІІ може кардинально змінити ситуацію. Алгоритми роблять процес фальсифікації доступним і набагато швидшим. При цьому вони не стоять на місці і постійно вивчають, як зробити результат своєї роботи ще більш достовірним. Через це Гудфеллоу вважає, що скоро в медіа і новинний середовищі з'явиться величезна кількість таких якісних підробок, що зможуть обдурити дуже велике число людей.

Боротися з цим складно, тому, на його думку, люди просто стануть більш скептично налаштованими. Хтось зовсім перестане споживати фото і відеоконтент, тому що повністю втратить до нього довіру. «Історично склалося, що ми покладаємося на відео як на доказ того, що подія дійсно відбулося», - розповів він під час виступу. Але з новими технологіями, можливо, доведеться щось міняти.

За словами Гудфеллоу, були часи в історії, коли люди справлялися без новин з відео- і фотоматеріалами. Можливо, доведеться знову повернутися в ці часи.

Як тільки ІІ взявся за редагування фотографій, відразу ж виникли побоювання в тому, що коли-небудь справа дійде і до створення підробок. Поки будувалися припущення, алгоритми навчили підробляти не тільки зображення, а й голоси конкретних людей. Так що під загрозою не тільки візуальні новини, але радіоефіри.




Додати коментар
:D :lol: :-) ;-) 8) :-| :-* :oops: :sad: :cry: :o :-? :-x :eek: :zzz :P :roll: :sigh:
 Введіть вірну відповідь         
Новости на русском