Штучний інтелект
Що таке дипфейки?

Оскільки дипфейки стають простішими у створенні та поширенішими, їм приділяється більше уваги. Дипфейки стали центральною темою дискусій, що стосуються етики ШІ, дезінформації, відкритості інформації та інтернету, а також регулювання. Корисно бути обізнаним щодо дипфейків і мати інтуїтивне розуміння того, що вони собою являють. Ця стаття пояснить визначення дипфейка, розгляне сфери їх застосування, обговорить, як можна виявити дипфейки, та дослідить наслідки дипфейків для суспільства.
Що таке дипфейки?
Перш ніж продовжувати обговорення дипфейків, було б корисно приділити час і з’ясувати що таке “дипфейки” насправді. Існує значна плутанина щодо терміна “дипфейк”, і часто цей термін помилково застосовують до будь-яких сфальсифікованих медіа, незалежно від того, чи є вони справжнім дипфейком. Щоб кваліфікуватися як дипфейк, сфальсифікований медіаматеріал має бути створений за допомогою системи машинного навчання, зокрема глибокої нейронної мережі. Ключовим компонентом дипфейків є машинне навчання. Машинне навчання дозволило комп’ютерам відносно швидко та легко автоматично генерувати відео та аудіо. Глибокі нейронні мережі навчаються на відеозаписах реальної людини, щоб мережа навчилася розпізнавати, як люди виглядають і рухаються в заданих умовах навколишнього середовища. Потім навчену мережу застосовують до зображень іншої людини та доповнюють додатковими техніками комп’ютерної графіки, щоб поєднати нову людину з оригінальним відео. Алгоритм кодування використовується для визначення схожості між оригінальним обличчям і цільовим обличчям. Після того, як спільні риси обличь ізольовано, використовується другий алгоритм ШІ, який називається декодером. Декодер аналізує закодовані (стиснуті) зображення та відтворює їх на основі ознак оригінальних зображень. Використовуються два декодера: один для обличчя оригінального суб’єкта, а другий — для обличчя цільової людини. Щоб здійснити заміну, декодер, навчений на зображеннях людини X, отримує зображення людини Y. В результаті обличчя людини Y відтворюється поверх міміки та орієнтації обличчя людини X. Наразі створення дипфейка все ще займає досить багато часу. Творець підробки має витратити багато часу на ручне коригування параметрів моделі, оскільки неоптимальні параметри призведуть до помітних недоліків та збоїв зображення, які видадуть справжню природу підробки. Хоча часто припускають, що більшість дипфейків створюються за допомогою типу нейронної мережі, яка називається генеративно-змагальною мережею (GAN), багато (можливо, більшість) дипфейків, створених сьогодні, не покладаються на GAN. Хоча GAN відігравали помітну роль у створенні ранніх дипфейків, більшість дипфейк-відео створюються альтернативними методами, як зазначає Сівей Лю з Університету штату Нью-Йорк у Буффало. Для навчання GAN потрібна непропорційно велика кількість навчальних даних, і GAN часто займають набагато більше часу для візуалізації зображення порівняно з іншими техніками генерації зображень. GAN також краще підходять для генерації статичних зображень, ніж відео, оскільки GAN мають труднощі з підтримкою узгодженості від кадру до кадру. Набагато частіше для створення дипфейків використовують кодувальник і кілька декодерів.
Для чого використовують дипфейки?
Багато дипфейків, знайдених в інтернеті, мають порнографічний характер. Згідно з дослідженням, проведеним AI-компанією Deeptrace, з вибірки приблизно 15 000 дипфейк-відео, взятих у вересні 2019 року, приблизно 95% з них мали порнографічний характер. Тривожним наслідком цього факту є те, що зі зростанням доступності технології може зрости кількість випадків фейкової порнографії помсти. Однак не всі дипфейки мають порнографічний характер. Існують більш легітимні способи використання технології дипфейків. Технологія аудіодипфейків могла б допомогти людям відновлювати свої звичайні голоси після того, як вони були пошкоджені або втрачені через хворобу чи травму. Дипфейки також можна використовувати для приховування облич людей, які перебувають у чутливих, потенційно небезпечних ситуаціях, водночас дозволяючи читати їхні губи та вираз обличчя. Технологія дипфейків потенційно може бути використана для покращення дубляжу іноземних фільмів, допомоги у відновленні старих та пошкоджених медіа та навіть створення нових стилів мистецтва.
Невідео дипфейки
Хоча більшість людей думають про фейкові відео, коли чують термін “дипфейк”, фейкові відео аж ніяк не є єдиним видом фейкових медіа, створених за допомогою технології дипфейків. Технологія дипфейків використовується для створення фото- та аудіопідробок також. Як згадувалося раніше, GAN часто використовуються для генерації фейкових зображень. Вважається, що було багато випадків фейкових профілів LinkedIn і Facebook, у яких зображення профілю були згенеровані за допомогою алгоритмів дипфейків. Також можна створювати аудіодипфейки. Глибокі нейронні мережі навчаються створювати голосові клони/голосові оболонки різних людей, включаючи знаменитостей та політиків. Одним відомим прикладом аудіодипфейка є випадок, коли AI-компанія Dessa використала модель ШІ, підтримувану не-ШІ алгоритмами, для відтворення голосу ведучого подкастів Джо Рогана.
Як розпізнати дипфейки
Оскільки дипфейки стають все більш витонченими, відрізнити їх від справжніх медіа стає все складніше. Наразі існують кілька характерних ознак, на які люди можуть звернути увагу, щоб визначити, чи є відео потенційним дипфейком, наприклад, погана синхронізація губ, незвичайні рухи, мерехтіння навколо краю обличчя та спотворення дрібних деталей, таких як волосся, зуби або відблиски. Інші потенційні ознаки дипфейка включають частини того самого відео нижчої якості та нерегулярне кліпання очей. Хоці ці ознаки можуть допомогти виявити дипфейк на даний момент, у міру вдосконалення технології дипфейків єдиним варіантом для надійного виявлення дипфейків можуть стати інші типи ШІ, навчені відрізняти підробки від справжніх медіа. Компанії зі штучного інтелекту, включаючи багато великих технологічних компаній, досліджують методи виявлення дипфейків. Минулого грудня було розпочато конкурс з виявлення дипфейків, підтриманий трьома технологічними гігантами: Amazon, Facebook і Microsoft. Дослідницькі команди з усього світу працювали над методами виявлення дипфейків, змагаючись у розробці найкращих методів виявлення. Інші групи дослідників, наприклад, об’єднана група дослідників з Google і Jigsaw, працюють над типом “обличнєвої криміналістики”, яка може виявляти відео, що були змінені, зробивши свої набори даних відкритими та заохочуючи інших розробляти методи виявлення дипфейків. Згадана вище Dessa працювала над вдосконаленням технік виявлення дипфейків, намагаючись забезпечити, щоб моделі виявлення працювали на дипфейк-відео, знайдених у відкритому доступі (в інтернеті), а не лише на попередньо складені навчальних та тестових наборах даних, як відкритий набір даних, наданий Google. Також досліджуються інші стратегії для боротьби з поширенням дипфейків. Наприклад, перевірка відео на відповідність іншим джерелам інформації є однією зі стратегій. Можна шукати відео подій, потенційно знятих з інших ракурсів, або перевіряти фонові деталі відео (такі як погодні умови та місця) на наявність невідповідностей. Крім того, система онлайн-реєстру Blockchain могла б реєструвати відео під час їх початкового створення, зберігаючи їх оригінальне аудіо та зображення, щоб похідні відео завжди можна було перевірити на маніпуляції. Зрештою, важливо, щоб були створені надійні методи виявлення дипфейків і щоб ці методи виявлення йшли в ногу з останніми досягненнями технології дипфейків. Хоча важко точно знати, якими будуть наслідки дипфейків, якщо не буде надійних методів виявлення дипфейків (та інших форм фейкових медіа), дезінформація потенційно може поширюватися неконтрольовано і підривати довіру людей до суспільства та інституцій.
Наслідки дипфейків
Які небезпеки неконтрольованого поширення дипфейків? Однією з найбільших проблем, які створюють дипфейки наразі, є непогоджена порнографія, створена шляхом поєднання облич людей з порнографічними відео та зображеннями. Етики ШІ стурбовані тим, що дипфейки будуть частіше використовуватися для створення фейкової порнографії помсти. Крім того, дипфейки можна використовувати для знущань та пошкодження репутації майже будь-кого, оскільки їх можна використовувати для розміщення людей у суперечливих та компрометуючих сценаріях. Компанії та фахівці з кібербезпеки висловили занепокоєння щодо використання дипфейків для полегшення шахрайства, обману та вимагання. За повідомленнями, дипфейк-аудіо використовувалося для переконання співробітників компанії перерахувати гроші шахраям. Можливо, що дипфейки можуть мати шкідливі наслідки навіть за межами перерахованих вище. Дипфейки потенційно можуть підривати довіру людей до медіа взагалі та ускладнювати розрізнення між справжніми та фейковими новинами. Якщо багато відео в інтернеті будуть фейковими, уря








