заглушки Інструменти браузера зі штучним інтелектом спрямовані на розпізнавання Deepfakes та інших фейкових медіа - Unite.AI
Зв'язатися з нами

Штучний Інтелект

Інструменти браузера AI спрямовані на розпізнавання Deepfakes та інших підроблених медіа

mm
оновлений on

Зусилля технологічних компаній, спрямовані на боротьбу з дезінформацією та фейковим контентом, останнім часом активізуються, оскільки складні технології створення фейкового контенту, як-от DeepFakes, стають простішими у використанні та вдосконаленими. Однією з майбутніх спроб допомогти людям виявляти дипфейки та боротися з ними є RealityDefender, створений фонд AI, яка взяла на себе зобов’язання розробити етичних агентів штучного інтелекту та помічників, яких користувачі можуть навчити виконувати різні завдання.

Найбільш помітним проектом AI Foundation є платформа, яка дозволяє людям створювати власні цифрові персонажі, схожі на них, і представляти їх у віртуальних місцях спілкування. Фонд ШІ контролюється Глобальною радою ШІ, і в рамках свого мандату вони повинні передбачати можливі негативні наслідки платформ ШІ, а потім намагатися випереджати ці проблеми. Як повідомляє VentureBeatОдин із інструментів, створених Фондом штучного інтелекту для виявлення дипфейків, отримав назву Reality Defender. Reality Defender — це інструмент, який людина може використовувати у своєму веб-браузері (перевірте це), який аналізуватиме відео, зображення та інші типи медіафайлів, щоб виявити ознаки того, що медіафайли були підроблені або змінені певним чином. Є надія, що інструмент допоможе протистояти зростаючому потоку дипфейків в Інтернеті, який, за деякими оцінками, приблизно подвоївся протягом останніх шести місяців.

Захисник реальності працює, використовуючи різноманітні алгоритми на основі штучного інтелекту, які можуть виявляти ознаки того, що зображення чи відео могли бути підробленими. Моделі ШІ виявляють ледве помітні ознаки обману та маніпуляцій, а помилкові спрацьовування, які виявляє модель, позначаються користувачами інструменту як неправильні. Потім дані використовуються для повторного навчання моделі. Компанії штучного інтелекту, які створюють дипфейки без омани, позначають свій вміст тегом «чесний штучний інтелект» або водяним знаком, який дозволяє людям легко ідентифікувати створені штучним інтелектом фейки.

Reality Defender — це лише один із набору інструментів і цілої платформи відповідальності AI, яку намагається створити AI Foundation. Фонд штучного інтелекту працює над створенням Guardian AI, платформи відповідальності, побудованої на принципі того, що люди повинні мати доступ до особистих агентів штучного інтелекту, які працюють на них і можуть допомогти захистити їх від експлуатації зловмисниками. По суті, AI Foundation прагне як розширити охоплення штучного інтелекту в суспільстві, донести його до більшої кількості людей, так і захистити від ризиків штучного інтелекту.

Reality Defender — не єдиний новий продукт на основі штучного інтелекту, спрямований на зменшення дезінформації про Сполучені Штати. Подібний продукт називається SurfSafe, який створили двоє студентів університету в Берклі, Рохан Фадт і Еш Бхат. За інформацією The Verge, SurfSafe працює, дозволяючи своїм користувачам клацати фрагмент медіафайлу, який їх цікавить, і програма виконає зворотний пошук зображень і спробує знайти подібний вміст із різних надійних джерел в Інтернеті, позначаючи зображення, які, як відомо, є оброблений.

Незрозуміло, наскільки ці рішення будуть ефективними в довгостроковій перспективі. Професор Дартмутського коледжу та судово-медичний експерт Хані Фаріда цитує The Verge кажучи, що він «надзвичайно скептично» ставиться до того, що системи планування, такі як Reality Defender, працюватимуть у значущій якості. Фарід пояснив, що одна з ключових проблем із виявленням фейкового контенту полягає в тому, що ЗМІ не є суто фейковими чи справжніми. Фарід пояснив:

«Існує континуум; неймовірно складний спектр проблем, з якими потрібно мати справу. Деякі зміни безглузді, а деякі кардинально змінюють природу зображення. Вдавати, що ми можемо навчити штучний інтелект помічати різницю, неймовірно наївно. І робити вигляд, що ми можемо використовувати краудсорсинг, це навіть більше».

Крім того, важко включити елементи краудсорсингу, такі як позначення хибних спрацьовувань, оскільки люди зазвичай погано розпізнають підроблені зображення. Люди часто роблять помилки та пропускають тонкі деталі, які позначають зображення як підробку. Також незрозуміло, як боротися з недобросовісними акторами, які тролять, коли позначають вміст.

Здається ймовірним, що для того, щоб бути максимально ефективними, інструменти виявлення підробок доведеться поєднувати з зусиллями з цифрової грамотності, які навчать людей міркувати про контент, з яким вони взаємодіють в Інтернеті.