стуб Шта су Деепфакес? - Уните.АИ
Повежите се са нама

АИ 101

Шта су Деепфакес?

mm
Ажурирано on

Како деепфакес постаје лакши за прављење и постаје плоднији, више пажње се посвећује њима. Дубоки фајкови су постали жариште дискусија које укључују етику вештачке интелигенције, дезинформације, отвореност информација и интернета и регулативу. Исплати се бити информисан о деепфаке-овима и имати интуитивно разумевање шта су деепфакес. Овај чланак ће појаснити дефиницију деепфаке-а, испитати њихове случајеве употребе, размотрити како се деепфаке могу открити и испитати импликације деепфаке-а за друштво.

Шта су Деепфакес?

Пре него што пређемо на даље дискусију о деепфакес-у, било би од помоћи да одвојите мало времена и разјасните шта су "деепфакес" заправо. Постоји значајна конфузија у вези са термином Деепфаке, а често се тај термин погрешно примењује на било који фалсификовани медиј, без обзира да ли је реч о стварном деепфакеу или не. Да би се квалификовали као Деепфаке, дотични лажни медији морају бити генерисани системом машинског учења, посебно дубоком неуронском мрежом.

Кључни састојак деепфакеса је машинско учење. Машинско учење је омогућило рачунарима да релативно брзо и лако аутоматски генеришу видео и аудио. Дубоке неуронске мреже се обучавају на снимцима стварне особе како би мрежа научила како људи изгледају и крећу се у циљаним условима окружења. Обучена мрежа се затим користи на сликама другог појединца и допуњава додатним техникама компјутерске графике како би се нова особа комбиновала са оригиналним снимком. Алгоритам енкодера се користи за одређивање сличности између оригиналног и циљног лица. Када се изолују заједничке карактеристике лица, користи се други АИ алгоритам који се зове декодер. Декодер испитује кодиране (компримоване) слике и реконструише их на основу карактеристика оригиналних слика. Користе се два декодера, један на лицу оригиналног субјекта, а други на лицу циљне особе. Да би се извршила замена, декодер обучен на сликама особе Кс добија слике особе И. Резултат је да је лице особе И реконструкција преко израза лица и оријентације особе Кс.

Тренутно је потребно доста времена да се направи деепфаке. Творац фалсификата мора да проведе дуго времена ручно прилагођавајући параметре модела, јер ће подоптимални параметри довести до уочљивих несавршености и пропуста на слици који одају праву природу лажног.

Иако се често претпоставља да је већина деепфаке-а направљена помоћу врсте неуронске мреже која се зове а генеративна супарничка мрежа (ГАН), многи (можда већина) деепфакес креираних ових дана не ослањају се на ГАН-ове. Док су ГАН-ови играли истакнуту улогу у стварању раних деепфаке-ова, већина деепфаке видео снимака се ствара алтернативним методама, каже Сивеи Лиу из СУНИ Буффало.

Потребна је несразмерно велика количина података за обуку да би се тренирао ГАН, а ГАН-овима је често потребно много дуже да се прикаже слика у поређењу са другим техникама генерисања слике. ГАН-ови су такође бољи за генерисање статичних слика него видео, пошто ГАН-ови имају потешкоћа да одрже конзистентност од кадра до кадра. Много је уобичајеније користити кодер и више декодера за креирање деепфакеса.

За шта се користе Деепфакес?

Многи од деепфакес пронађених на мрежи су порнографске природе. Према истраживању које је спровео Деептраце, АИ фирма, од узорка од приближно 15,000 деепфаке видео снимака снимљених у септембру 2019. године, отприлике 95% њих је било порнографске природе. Забрињавајућа импликација ове чињенице је да како технологија постаје лакша за коришћење, инциденти лажне осветничке порнографије би могли расти.

Међутим, нису сви дубоки лажњаци порнографске природе. Постоји више легитимних употреба за деепфаке технологију. Аудио деепфаке технологија може помоћи људима да емитују своје уобичајене гласове након што су оштећени или изгубљени због болести или повреде. Деепфакес се такође може користити за сакривање лица људи који се налазе у осетљивим, потенцијално опасним ситуацијама, док и даље дозвољавају читање њихових усана и израза лица. Деепфаке технологија се потенцијално може користити за побољшање синхронизације филмова на страном језику, помоћ у поправци старих и оштећених медија, па чак и стварање нових стилова уметности.

Не-Видео Деепфакес

Док већина људи помисли на лажне видео снимке када чује израз „деепфаке“, лажни видео снимци никако нису једина врста лажних медија произведених технологијом деепфаке. Деепфаке технологија се такође користи за креирање лажних фотографија и звука. Као што је раније поменуто, ГАН-ови се често користе за генерисање лажних слика. Сматра се да је било много случајева лажних ЛинкедИн и Фацебоок профила који имају слике профила генерисане помоћу деепфаке алгоритама.

Могуће је креирати и аудио факе. Дубоке неуронске мреже су обучене да производе гласовне клонове/гласове различитих људи, укључујући познате личности и политичаре. Један познати пример аудио Деепфаке-а је када је АИ компанија Десса користио АИ модел, подржан од алгоритама који нису АИ, да би се поново створио глас водитеља подкаста Џоа Рогана.

Како уочити Деепфакес

Како деепфакес постају све софистициранији, разликовање њих од правих медија биће све теже и теже. Тренутно постоје неколико издајнички знакова људи могу да траже да утврде да ли је видео потенцијално лажан, као што је лоша синхронизација усана, неприродно кретање, треперење око ивице лица и искривљење финих детаља попут косе, зуба или одсјаја. Други потенцијални знаци деепфаке-а укључују делове истог видеа нижег квалитета и неправилно трептање очију.

Иако ови знаци тренутно могу помоћи да се открије деепфаке, пошто технологија деепфаке побољшава, једина опција за поуздано откривање дубоког лажирања могу бити друге врсте АИ обучене да разликују лажне од правих медија.

Компаније за вештачку интелигенцију, укључујући многе велике технолошке компаније, истражују методе откривања дубоких лажирања. Прошлог децембра покренут је изазов за откривање дубоких лажњака, који су подржала три технолошка гиганта: Амазон, Фацебоок и Мицрософт. Истраживачки тимови из целог света радили су на методама откривања деепфакеса, такмичећи се у развоју најбољих метода детекције. Друге групе истраживача, попут групе комбинованих истраживача из Гугла и Јигсав, раде на врсти „форензике лица“ која може да открије видео снимке који су измењени, чинећи своје скупове података отвореним кодом и охрабривање других да развију методе откривања дубоких лажњака. Горе поменута Десса је радила на усавршавању техника детекције дубоког лажирања, покушавајући да осигура да модели детекције раде на дубоким лажним видео записима који се налазе у дивљини (на интернету), а не само на унапред састављеним скуповима података за обуку и тестирање, као што је скуп података отвореног кода Гоогле је обезбедио.

Постоје друге стратегије који се истражују како би се суочили са пролиферацијом деепфакеса. На пример, провера видео записа да ли су у складу са другим изворима информација је једна од стратегија. Могу се претраживати видео снимци догађаја који су потенцијално снимљени из других углова, или се могу проверити позадинске детаље видео снимка (као што су временски обрасци и локације) да ли постоје недоследности. Преко тога, Блоцкцхаин систем онлајн књиге могу да региструју видео записе када су првобитно креирани, држећи оригинални звук и слике тако да се изведени видео записи увек могу проверити за манипулацију.

На крају крајева, важно је да се креирају поуздане методе откривања деепфаке-а и да ове методе детекције иду у корак са најновијим достигнућима у технологији деепфаке. Иако је тешко тачно знати какви ће бити ефекти деепфакеса, ако не постоје поуздани методи за откривање деепфакеса (и других облика лажних медија), дезинформације би потенцијално могле да расту и деградирају поверење људи у друштво и институције.

Импликације Деепфакеса

Које су опасности допуштања да се дубоки лажни неконтролисано размножавају?

Један од највећих проблема које деепфакес тренутно ствара је порнографија без сагласности, направљена комбиновањем лица људи са порнографским видео записима и сликама. Етичари вештачке интелигенције су забринути да ће деепфакес више користити у стварању лажне осветничке порнографије. Осим тога, деепфакес би се могли користити за малтретирање и нарушавање репутације готово било кога, јер би се могли користити за постављање људи у контроверзне и компромитујуће сценарије.

Компаније и стручњаци за сајбер безбедност изразили су забринутост због употребе деепфаке-а за олакшавање превара, преваре и изнуда. Наводно, дубоки лажни звук је био користи за убеђивање запослених компаније за пренос новца преварантима

Могуће је да би деепфакес могли имати штетне ефекте чак и изван горе наведених. Дубоки фајкови би потенцијално могли да наруше поверење људи у медије уопште и отежају људима да праве разлику између правих и лажних вести. Ако су многи видео снимци на вебу лажни, владама, компанијама и другим субјектима постаје лакше да доведу у сумњу легитимне контроверзе и неетичке праксе.

Када је реч о владама, деепфакес могу чак представљати претњу функционисању демократије. Демократија захтева да грађани буду у стању да доносе информисане одлуке о политичарима на основу поузданих информација. Дезинформације поткопавају демократске процесе. На пример, председник Габона Али Бонго појавио се у видео снимку покушавајући да увери грађане Габона. Претпостављало се да је председнику дуго било лоше, а његово изненадно појављивање у вероватно лажни видео је покренуо покушај државног удара. Председник Доналд Трамп тврди да је на аудио снимку како се хвали како хвата жене за гениталије била лажна, упркос томе што га описује и као „разговор у свлачионици“. кнез Андреја такође тврдио да је слика коју је дао адвокат Емили Маитилис лажна, иако је адвокат инсистирао на његовој аутентичности.

На крају, иако постоји легитимна употреба технологије деепфаке, постоји много потенцијалних штета које могу настати због злоупотребе те технологије. Из тог разлога је изузетно важно да се креирају и одржавају методе за утврђивање аутентичности медија.