Лідери думок
У 2024 році Deepfakes стане мейнстрімом. Ось як компанії можуть захистити себе

Принаймні з виборів 2016 року, коли в суспільну свідомість увірвалася стурбованість дезінформацією, експерти б’ють на сполох щодо дипфейків. Наслідки цієї технології були — і залишаються — жахливими. Неконтрольоване поширення гіперреалістичних синтетичних носіїв становить загрозу для все— від політиків до звичайних людей. У горючому середовищі, яке вже характеризується широко поширеною недовірою, deepfakes пообіцяли лише розпалити вогонь.
Як виявилося, наші побоювання були передчасними. Технологічне ноу-хау, необхідне для фактичного створення дипфейків, у поєднанні з їхньою часто поганою якістю означало, що протягом принаймні двох останніх циклів президентських виборів вони залишалися мінімальною проблемою.
Але все це незабаром зміниться — уже змінюється. За останні два роки технологія генеративного штучного інтелекту увійшла в мейнстрім, радикально спростивши процес створення дипфейків для середнього споживача. Ці самі інновації значно підвищили якість дипфейків, тому під час сліпого тестування більшість людей не змогли б відрізнити підроблене відео від справжнього.
Особливо цього року ми почали бачити ознаки того, як ця технологія може вплинути на суспільство, якщо не вжити зусиль для боротьби з нею. Минулого року, наприклад, згенероване штучним інтелектом фото Папи Франциска в незвичайно стильному пальто пішов вірусний, і багато хто вважав його автентичним. Хоча з одного боку це може здатися нешкідливою розвагою, воно розкриває небезпечну силу цих глибоких фейків і те, наскільки важко може бути приборкати дезінформацію, коли вона почала поширюватися. Ми можемо очікувати, що найближчими місяцями та роками знайдемо набагато менш забавні — і набагато небезпечніші — випадки такого роду вірусної фальшивки.
З цієї причини вкрай важливо, щоб організації будь-якого масті — від засобів масової інформації до фінансів, урядів і платформ соціальних медіа — зайняли активну позицію щодо виявлення глибоких фейків і перевірки автентичності вмісту. Необхідно створити культуру довіри через гарантії зараз, перш ніж хвиля дипфейків змиє наше спільне розуміння реальності.
Розуміння загрози deepfake
Перш ніж заглиблюватися в те, що організації можуть зробити для боротьби з цим сплеском дипфейків, варто докладніше пояснити, навіщо потрібні інструменти захисту. Як правило, ті, хто стурбований дипфейками, посилаються на їхній потенційний вплив на політику та довіру в суспільстві. Ці потенційні наслідки надзвичайно важливі, і ними не слід нехтувати в будь-якій розмові про дипфейки. Але, як це сталося, зростання цієї технології потенційно має жахливі наслідки для багатьох секторів економіки США.
Візьміть, наприклад, страховку. Наразі річний обсяг страхових шахрайств у Сполучених Штатах становить 308.6 мільярдів доларів — це приблизно чверть від усієї галузі. У той же час внутрішні операції більшості страхових компаній стають все більш автоматизованими, до 70 року прогнозується, що 2025% стандартних вимог будуть безконтактними. Це означає, що рішення все частіше приймаються з мінімальним втручанням людини: самообслуговування на передня частина та автоматизація за допомогою ШІ на задній частині.
За іронією долі, сама технологія, яка дозволила таке зростання автоматизації, тобто машинне навчання та штучний інтелект, гарантувала її експлуатацію зловмисниками. Тепер пересічній людині легше, ніж будь-коли, маніпулювати претензіями, наприклад, використовуючи генеративні програми AI, такі як Dall-E, Midjourney або Stable Diffusion, щоб зробити автомобіль більш пошкодженим, ніж він є. Вже існують програми спеціально для цієї мети, наприклад Dude Your Car!, яка дозволяє користувачам штучно створювати вм’ятини на фотографіях своїх транспортних засобів.
Те саме стосується офіційних документів, якими тепер можна легко маніпулювати — за допомогою рахунків-фактур, оцінок гарантії та навіть підписів, скоригованих або вигаданих оптом. Ця здатність є проблемою не лише для страховиків, а й для всієї економіки. Це проблема фінансових установ, які повинні перевіряти справжність широкого кола документів. Це проблема для роздрібних продавців, які можуть отримати скаргу про те, що продукт надійшов зі дефектами, супроводжуючи їх фальсифікованим зображенням.
Підприємства просто не можуть працювати з таким рівнем невизначеності. Певний ступінь шахрайства, ймовірно, завжди неминучий, але з глибокими фейками ми не говоримо про шахрайство на полях — ми говоримо про потенційну епістемологічну катастрофу, під час якої компанії не мають чітких способів відрізнити правду від вигадки та втрачають мільярди доларів до цієї плутанини.
Боротьба з вогнем вогнем: як ШІ може допомогти
Отже, що можна зробити, щоб з цим боротися? Можливо, не дивно, що відповідь криється в самій технології, яка сприяє створенню глибоких фейків. Якщо ми хочемо зупинити це лихо, перш ніж воно набере обертів, нам потрібно боротися з вогнем вогнем. Штучний інтелект може допомогти генерувати глибокі фейки, але він також, на щастя, може допомогти ідентифікувати їх автоматично та в масштабі.
Використовуючи правильні інструменти штучного інтелекту, компанії можуть автоматично визначати, чи була фотографія, відео або документ підроблено. Залучаючи десятки різних моделей до завдання підробної ідентифікації, штучний інтелект може автоматично повідомляти підприємствам, чи є дана фотографія чи відео підозрілими. Подібно до інструментів, які компанії вже впроваджують для автоматизації щоденних операцій, ці інструменти можуть працювати у фоновому режимі, не обтяжуючи перенапруженого персоналу та не забираючи часу на важливі проекти.
Якщо та коли фотографію ідентифікують як потенційно змінену, персонал може бути попереджений і може безпосередньо оцінити проблему за допомогою інформації, наданої ШІ. Використовуючи глибокий аналіз, він може розповісти компаніям чому він вважає, що фотографію, ймовірно, було фальсифіковано, вказуючи, наприклад, на метадані, змінені вручну, існування ідентичних зображень у мережі, різноманітні невідповідності фотографії тощо.
Усе це не означає приниження неймовірних досягнень генеративної технології ШІ за останні кілька років, яка справді має корисні та продуктивні застосування в різних галузях. Але сама потужність — не кажучи вже про простоту — цієї нової технології майже гарантує зловживання нею тими, хто прагне маніпулювати організаціями, чи то для особистої вигоди, чи для того, щоб посіяти суспільний хаос.
Організацій може мати найкраще з обох світів: переваги продуктивності ШІ без недоліків повсюдних глибоких фейків. Але для цього потрібен новий рівень пильності, особливо враховуючи той факт, що результати генеративного штучного інтелекту з кожним днем стають лише переконливішими, детальнішими та реалістичнішими. Чим швидше організації звернуть увагу на цю проблему, тим швидше вони зможуть скористатися перевагами автоматизованого світу.