Лідери думок
У 2024 році глибокі підробки стають масовими. Як бізнес може захистити себе

Від至少 2016 року виборів, коли проблеми навколо дезінформації вибухнули у громадську свідомість, експерти звучали тривогу щодо глибоких підробок. Наслідки цієї технології були – і залишаються – страшними. Неконтрольоване поширення гіперреалістичних синтетичних медіа становить загрозу усім – від політиків до звичайних людей. У вже вибухонебезпечному середовищі, характеризованому широким недовірою, глибокі підробки обіцяли лише підігріти полум’я далі.
Як виявилося, наші страхи були передчасними. Технологічні знання, необхідні для створення глибоких підробок, а також їх часто низька якість, означали, що протягом至少 двох президентських виборчих циклів вони залишалися мінімальною проблемою.
Але все це ось-ось зміниться – вже змінюється. За останні два роки технологія генерації штучного інтелекту увійшла в масову свідомість, радикально спрощуючи процес створення глибоких підробок для середнього споживача. Ці самі інновації суттєво покращили якість глибоких підробок, так що в сліпому тесті більшість людей не зможуть розрізнити підроблене відео від справжнього.
Цього року, особливо, ми почали бачити ознаки того, як ця технологія може вплинути на суспільство, якщо не будуть прийняті заходи для боротьби з нею. Наприклад, минулого року фотографія Папи Франциска в незвично стильному пальто поширилася, і багатьма була прийнята за справжню. Хоча це може здатися, на одному рівні, безневинною забавою, воно розкриває небезпечну потужність цих глибоких підробок і те, як важко зупинити дезінформацію, коли вона починає поширюватися. Ми можемо очікувати знайти ще менше забавних – і ще більш небезпечних – випадків такого типу вірусної підробки в найближчі місяці та роки.
Через це організації всіх видів – від медіа до фінансів, урядів та соціальних медіа-платформ – повинні зайняти проактивну позицію щодо виявлення глибоких підробок та верифікації автентичності контенту. Культура довіри через заходи безпеки повинна бути створена зараз, перш ніж хвиля глибоких підробок змогла змитити наш спільний розуміння реальності.
Розуміння загрози глибоких підробок
Перед тим, як зануритися в те, що організації можуть зробити для боротьби з цим зростанням глибоких підробок, варто роз’яснити, чому саме засоби безпеки необхідні. Зазвичай, ті, хто турбується про глибокі підробки, цитують їх потенційний вплив на політику та суспільну довіру. Ці потенційні наслідки дуже важливі та не повинні бути знехтувані в будь-якій розмові про глибокі підробки. Але як виявилося, зростання цієї технології має потенційно катастрофічні наслідки в різних секторах економіки США.
Взяти, наприклад, страхування. Зараз щорічна страхова афера в Сполучених Штатах становить 308,6 мільярдів доларів – це число приблизно в чотири рази менше всього страхового ринку. В той же час, бек-енд операції більшості страхових компаній все більше автоматизуються, і 70% стандартних претензій мають бути бездотиковими до 2025 року. Це означає, що рішення все більше приймаються з мінімальним втручанням людини: самообслуговування на фронт-енді та автоматизація, підтримувана штучним інтелектом, на бек-енді.
Іронічно, сама технологія, яка дозволила збільшити автоматизацію – тобто, машинне навчання та штучний інтелект – гарантувала її експлуатацію зловмисниками. Тепер стало простіше для звичайної людини маніпулювати претензіями – наприклад, використовуючи програмні засоби генерації штучного інтелекту, такі як Dall-E, Midjourney або Stable Diffusion, щоб зробити машину більш пошкодженою, ніж вона є насправді. Вже існують програми спеціально для цієї мети, такі як Dude Your Car!, які дозволяють користувачам штучно створювати дент на фотографіях їхніх транспортних засобів.
Те саме стосується офіційних документів, які тепер можна легко маніпулювати – з рахунками, апеляціями щодо страхування та навіть підписами, які можна змінити або вигадати цілком. Ця можливість є проблемою не тільки для страхових компаній, але й по всій економіці. Це проблема для фінансових установ, які повинні верифікувати автентичність широкого спектра документів. Це проблема для рітейлерів, які можуть отримати скаргу про те, що продукт надійшов зі шкодами, супроводжуваною підробленою фотографією.
Бізнес просто не може функціонувати з таким рівнем невизначеності. Якесь мінімальне шахрайство, ймовірно, завжди неминуче, але з глибокими підробками ми говоримо не про шахрайство на маргінесах – ми говоримо про потенційну епістемологічну катастрофу, в якій бізнес не має чіткого засобу визначення істини від вигадки, і в результаті втрачає мільярди доларів через цю плутаніну.
Боротьба з вогнем за допомогою вогню: як штучний інтелект може допомогти
Що ж можна зробити, щоб боротися з цим? Можливо, не дивно, що відповідь лежить у самій технології, яка сприяє глибоким підробкам. Якщо ми хочемо зупинити цю чуму, перш ніж вона набере ще більше імпульсу, нам потрібно боротися з вогнем за допомогою вогню. Штучний інтелект може допомогти генерувати глибокі підробки, але він також, на щастя, може допомогти їх ідентифікувати автоматично та у великих масштабах.
Використовуючи правильні інструменти штучного інтелекту, бізнес може автоматично визначити, чи була певна фотографія, відео чи документ змінена. Зібравши десятки різних моделей для завдання ідентифікації підробок, штучний інтелект може автоматично повідомити бізнесу про те, чи є певна фотографія або відео підозрілими. Як інструменти, які бізнес вже розгортає для автоматизації щоденних операцій, ці інструменти можуть працювати на фоні без навантаження вже перевантаженого персоналу або відведення часу від важливих проєктів.
Якщо фотографія ідентифікується як потенційно змінена, людський персонал може бути повідомлений, і може оцінити проблему безпосередньо, допоможений інформацією, наданою штучним інтелектом. Використовуючи глибокий аналіз, він може повідомити бізнесу чому він вважає, що фотографія, ймовірно, була підроблена – вказуючи, наприклад, на вручну змінені метадані, існування ідентичних зображень у всьому інтернеті, різні фотографічні нерегулярності тощо.
Все це не означає знецінення неймовірних досягнень, яких ми стали свідками у сфері генерації штучного інтелекту за останні кілька років, які мають корисні та продуктивні застосування у різних галузях. Але саме потужність – не кажучи вже про простоту – цієї нової технології майже гарантує її експлуатацію тими, хто хоче маніпулювати організаціями, чи то за особисту вигоду, чи для сіяння суспільної хаосу.
Організації можуть мати все найкраще з двох світів: продуктивні вигоди від штучного інтелекту без негативних сторін універсальних глибоких підробок. Але для цього потрібно новий рівень пильності, особливо враховуючи той факт, що генеративний штучний інтелект лише став більш переконливим, деталізованим та життєвим з дня на день. Чим швидше організації звернуть свою увагу на цю проблему, тим швидше вони зможуть повністю скористатися перевагами автоматизованого світу.










