заглушки Експерт каже, що «ідеально справжні» DeepFakes з’являться через 6 місяців – Unite.AI
Зв'язатися з нами

Штучний Інтелект

Експерт каже, що «ідеально справжні» DeepFakes з’являться через 6 місяців

mm
оновлений on

Вражаючі, але суперечливі DeepFakes, зображення та відео, оброблені або згенеровані глибокими нейронними мережами, ймовірно, стануть ще більш вражаючими та суперечливими в найближчому майбутньому, за словами Хао Лі, директора лабораторії бачення та графіки Південного університету. Каліфорнія. Лі — експерт із комп’ютерного зору та DeepFakes в недавньому інтерв'ю CNBC він сказав, що «ідеально справжні» Deepfakes, ймовірно, з’являться протягом півроку.

Лі пояснив, що більшість DeepFakes все ще можна розпізнати як підробку для реального ока, і навіть більш переконливі DeepFakes вимагають значних зусиль з боку творця, щоб зробити їх реалістичними. Однак Лі переконаний, що через шість місяців DeepFakes, які виглядають цілком реальними, швидше за все, з’являться, оскільки алгоритми стануть більш складними.

Лі спочатку вважав, що знадобиться від двох до трьох років, перш ніж надзвичайно переконливі DeepFakes стануть більш звичайним явищем, зробивши це передбачення на нещодавній конференції в Массачусетському технологічному інституті. Однак Лі переглянув свій графік після оприлюднення нещодавнього китайського додатка Zao та інших нещодавніх подій щодо технології DeepFakes. Лі пояснив CNBC що методи, необхідні для створення реалістичних DeepFakes, більш-менш є методами, які зараз використовуються, і що основним інгредієнтом, який створюватиме реалістичні DeepFakes, є більше навчальних даних.

Лі та його колеги-дослідники наполегливо працювали над технологією виявлення DeepFake, очікуючи появи надзвичайно переконливих DeepFake. Лі та його колеги, такі як Хані Фарід з Каліфорнійського університету Берклі, експериментували з найсучаснішими алгоритмами DeepFake, щоб зрозуміти, як працює технологія, яка їх створює.

Лі пояснив CNBC:

«Якщо ви хочете мати можливість виявляти дипфейки, вам також потрібно знати обмеження. Якщо вам потрібно побудувати фреймворки штучного інтелекту, здатні виявляти надзвичайно реальні речі, їх потрібно навчити використовувати ці типи технологій, тому в певному сенсі їх неможливо виявити, якщо ви не знаєте, як вони працюють».

Лі та його колеги інвестували у створення інструментів для виявлення DeepFakes, усвідомлюючи потенційні проблеми та небезпеки, які створює ця технологія. Лі та його колеги – далеко не єдина група дослідників штучного інтелекту, стурбована можливими наслідками DeepFakes і зацікавлена ​​у створенні протидії їм.

Нещодавно Facebook почали спільне партнерство з Массачусетським технологічним інститутом, Microsoft і Оксфордським університетом для створення DeepFake Detection Challenge, метою якого є створення інструментів, за допомогою яких можна виявити, коли зображення або відео було змінено. Ці інструменти будуть відкритими для використання компаніями, медіа-організаціями та урядами. Тим часом дослідники з Інституту інформаційних наук Університету Південної Каліфорнії нещодавно створили низку алгоритмів, які можуть розрізняти підроблені відео з точністю близько 96%.

Однак Лі також пояснив, що проблема з DeepFakes полягає в тому, як ними можна зловживати, а не в самій технології. Лі зазначив кілька законних можливих застосувань технології DeepFake, зокрема в індустрії розваг і моди.

Методи DeepFake також використовувалися для відтворити міміку людей, обличчя яких закрито на зображеннях. Дослідники використовували Generative Adnversail Networks, щоб створити абсолютно нове обличчя, яке мало б такий самий вираз суб’єкта на оригінальному зображенні. Методи, розроблені Норвезьким університетом науки і технологій, можуть допомогти відобразити вирази обличчя під час інтерв’ю з чутливими людьми, яким потрібна конфіденційність, наприклад, інформаторами. Хтось інший може дозволити використовувати своє обличчя як заміну для людини, яка потребує анонімності, але вираз обличчя людини все одно можна буде прочитати.

У міру того, як технологія Deepfake буде вдосконалюватися, кількість законних випадків використання Deepfake також зростатиме. Однак небезпека також зростатиме, і з цієї причини робота Лі та інших із виявлення DeepFakes стає ще важливішою.