заглушки Що таке Deepfakes? - Об'єднуйтесь.AI
Зв'язатися з нами

AI 101

Що таке Deepfakes?

mm
оновлений on

Оскільки дипфейки стають легшими для створення та більш продуктивними, їм приділяється більше уваги. Deepfakes стали центром дискусій щодо етики ШІ, дезінформації, відкритості інформації та Інтернету, а також регулювання. Варто бути поінформованим про дипфейки та мати інтуїтивне розуміння того, що таке дипфейки. У цій статті буде роз’яснено визначення deepfake, розглянуто випадки їх використання, обговорено, як можна виявити deepfakes, і вивчено наслідки deepfake для суспільства.

Що таке Deepfakes?

Перш ніж перейти до подальшого обговорення deepfakes, було б корисно приділити трохи часу та пояснити що таке «дипфейки» насправді. Існує значна плутанина щодо терміну Deepfake, і часто цей термін неправильно застосовують до будь-якого фальсифікованого ЗМІ, незалежно від того, чи є це справжнім deepfake. Щоб кваліфікуватись як Deepfake, фейкове медіа, про яке йдеться, має бути згенероване за допомогою системи машинного навчання, зокрема глибокої нейронної мережі.

Ключовим компонентом дипфейків є машинне навчання. Машинне навчання дозволило комп’ютерам відносно швидко й легко автоматично генерувати відео та аудіо. Глибинні нейронні мережі навчаються на записах реальної людини, щоб мережа дізнавалася, як люди виглядають і рухаються в цільових умовах середовища. Потім навчена мережа використовується на зображеннях іншої людини та доповнюється додатковими техніками комп’ютерної графіки, щоб поєднати нову людину з оригінальним кадром. Алгоритм кодера використовується для визначення подібності між вихідним і цільовим обличчям. Після виділення спільних рис облич використовується другий алгоритм ШІ, який називається декодером. Декодер перевіряє закодовані (стиснуті) зображення та реконструює їх на основі особливостей оригінальних зображень. Використовуються два декодери: один на обличчі суб’єкта, а другий – на обличчі цільової людини. Для того, щоб здійснити обмін, декодер, навчений на зображеннях особи X, передає зображення особи Y. Результатом є те, що обличчя особи Y є реконструйованим за виразом обличчя та орієнтацією особи X.

На даний момент все ще потрібно досить багато часу, щоб створити глибокий фейк. Творцю підробки доводиться витрачати тривалий час на ручне налаштування параметрів моделі, оскільки неоптимальні параметри призведуть до помітних недоліків і збоїв зображення, які видають справжню природу підробки.

Хоча часто припускають, що більшість дипфейків створюються за допомогою типу нейронної мережі під назвою a генеративна змагальна мережа (GAN), багато (можливо, більшість) дипфейків, створених сьогодні, не покладаються на GAN. Незважаючи на те, що GAN відіграли визначну роль у створенні ранніх дипфейків, за словами Сівей Лю з SUNY Buffalo, більшість відео фейків створюються за допомогою альтернативних методів.

Щоб навчити GAN, потрібна непропорційно велика кількість навчальних даних, і GAN часто займає набагато більше часу, щоб відтворити зображення порівняно з іншими методами генерації зображень. GAN також краще для створення статичних зображень, ніж відео, оскільки GAN мають труднощі з підтримкою узгодженості від кадру до кадру. Для створення глибоких фейків набагато частіше використовують кодер і кілька декодерів.

Для чого використовуються Deepfakes?

Багато дипфейків, знайдених в Інтернеті, мають порнографічний характер. Згідно з дослідженням, проведеним Deeptrace, компанією штучного інтелекту, із вибірки приблизно 15,000 2019 глибоких фейкових відео, знятих у вересні 95 року, приблизно XNUMX% з них мали порнографічний характер. Тривожним наслідком цього факту є те, що в міру того, як технологія стане легшою у використанні, випадки фальшивого порно з помстою можуть зрости.

Однак не всі глибокі фейки мають порнографічний характер. Є більш законні способи використання технології deepfake. Технологія Audio DeepFake може допомогти людям транслювати свої звичайні голоси після того, як вони пошкоджені або втрачені через хворобу чи травму. Deepfakes також можна використовувати для приховування облич людей, які перебувають у чутливих, потенційно небезпечних ситуаціях, але при цьому дозволяє читати їхні губи та вирази. Технологія Deepfake потенційно може бути використана для покращення дубляжу іншомовних фільмів, допомоги у відновленні старих і пошкоджених носіїв і навіть для створення нових стилів мистецтва.

Невідео Deepfakes

Хоча більшість людей думають про фейкові відео, коли чують термін «deepfake», фейкові відео — це аж ніяк не єдиний вид фейкових медіа, створених за допомогою технології deepfake. Технологія Deepfake також використовується для створення фото- та аудіофейків. Як згадувалося раніше, GAN часто використовуються для створення підроблених зображень. Вважається, що було багато випадків фальшивих профілів LinkedIn і Facebook, зображення профілів яких створено за допомогою алгоритмів deepfake.

Також можна створювати звукові дипфейки. Глибокі нейронні мережі навчені створювати голосові клони/голосові оболонки різних людей, включаючи знаменитостей і політиків. Одним із відомих прикладів аудіо Deepfake є AI компанія Dessa використовував модель ШІ, підтримується алгоритмами без ШІ, щоб відтворити голос ведучого подкасту Джо Рогана.

Як розпізнати Deepfakes

Оскільки дипфейки стають все більш витонченими, відрізнити їх від справжніх медіа буде все складніше і складніше. В даний час є кілька показових ознак люди можуть шукати, щоб переконатися, що відео потенційно є дипфейком, як-от погана синхронізація губ, неприродні рухи, мерехтіння навколо краю обличчя та викривлення дрібних деталей, як-от волосся, зуби чи відблиски. Інші потенційні ознаки дипфейку включають низькоякісні частини того самого відео та нерегулярне кліпання очима.

Хоча ці ознаки можуть допомогти помітити deepfake на даний момент, оскільки технологія deepfake покращує, єдиним варіантом надійного виявлення deepfake можуть бути інші типи штучного інтелекту, навчені відрізняти фейки від реальних медіа.

Компанії зі штучного інтелекту, включаючи багато великих технологічних компаній, досліджують методи виявлення дипфейків. У грудні минулого року було розпочато завдання з виявлення глибоких фейків за підтримки трьох технологічних гігантів: Amazon, Facebook і Microsoft. Дослідницькі групи з усього світу працювали над методами виявлення дипфейків, змагаючись за розробку найкращих методів виявлення. Інші групи дослідників, як-от об’єднана група дослідників із Google і Jigsaw, працюють над типом «криміналістики облич», яка може виявляти відео, які були змінені, зробити свої набори даних відкритими а також заохочувати інших до розробки методів виявлення глибоких фейків. Вищезгаданий Dessa працював над удосконаленням методів виявлення deepfake, намагаючись переконатися, що моделі виявлення працюють на deepfake відео, знайдених у дикій природі (в Інтернеті), а не лише на попередньо складених навчальних і тестових наборах даних, як-от набір даних з відкритим кодом. Google надав.

Існують також інші стратегії які розслідуються для боротьби з розповсюдженням дипфейків. Наприклад, перевірка відео на відповідність іншим джерелам інформації є однією зі стратегій. Можна шукати відео подій, потенційно знятих з інших ракурсів, або перевіряти фонові деталі відео (наприклад, погодні умови та місця розташування) на наявність невідповідностей. Крім цього, онлайнова система реєстру Blockchain може реєструвати відео під час їх початкового створення, зберігаючи їхній оригінальний звук і зображення, щоб похідні відео завжди можна було перевірити на наявність маніпуляцій.

Зрештою, важливо, щоб були створені надійні методи виявлення deepfake і щоб ці методи виявлення йшли в ногу з останніми досягненнями в технології deepfake. Хоча важко точно знати, якими будуть наслідки дипфейків, якщо немає надійних методів виявлення дипфейків (та інших форм фейкових ЗМІ), дезінформація потенційно може поширитися та знизити довіру людей до суспільства та установ.

Наслідки Deepfakes

Які небезпеки безконтрольного розповсюдження глибокої підробки?

Одна з найбільших проблем, які зараз створюють дипфейки, — це порнографія без згоди, створена шляхом поєднання облич людей із порнографічними відео та зображеннями. Фахівці з етики штучного інтелекту стурбовані тим, що дипфейки знайдуть більше застосування у створенні фальшивого порно з помстою. Окрім цього, дипфейки можуть використовуватися для залякування та псування репутації майже будь-кого, оскільки вони можуть використовуватися для введення людей у ​​суперечливі та компрометуючі сценарії.

Компанії та спеціалісти з кібербезпеки висловили занепокоєння щодо використання дипфейків для сприяння шахрайству, шахрайству та здирництву. Нібито був глибокий фейк аудіо використовується для переконання працівників компанії для переказу грошей шахраям

Цілком можливо, що дипфейки можуть мати шкідливі наслідки навіть за межами перелічених вище. Глибокі фейки потенційно можуть підірвати довіру людей до ЗМІ загалом і ускладнити людям розрізнення справжніх новин від фейкових. Якщо багато відео в Інтернеті є підробленими, урядам, компаніям та іншим організаціям стає легше поставити під сумнів законні суперечки та неетичні дії.

Коли мова йде про уряди, дипфейки можуть навіть становити загрозу для функціонування демократії. Демократія вимагає, щоб громадяни могли приймати обґрунтовані рішення щодо політиків на основі надійної інформації. Дезінформація підриває демократичні процеси. Наприклад, президент Габону Алі Бонго знявся у відео, намагаючись заспокоїти громадян Габону. Передбачалося, що президент погано почувається протягом тривалого періоду часу, а його раптова поява в Ймовірно фейкове відео поклало початок спробі державного перевороту. Президент Дональд Трамп заявив, що аудіозапис, на якому він хвалиться тим, що хапає жінок за геніталії був фальшивим, незважаючи на те, що це також описується як «розмова в роздягальні». Князь Андрій також стверджував, що зображення, надане адвокатом Емілі Майтіліс, було підробкою, хоча адвокат наполягав на його достовірності.

Зрештою, незважаючи на законне використання технології deepfake, є багато потенційних збитків, які можуть виникнути внаслідок неправильного використання цієї технології. З цієї причини надзвичайно важливо створювати та підтримувати методи визначення автентичності медіа.