никулец Што се Deepfakes? - Обединете се.АИ
Поврзете се со нас

АИ 101 година

Што се Deepfakes?

mm
Ажурирани on

Како што deepfakes стануваат полесни за правење и поплодни, им се посветува поголемо внимание. Deepfakes станаа централно место на дискусиите кои вклучуваат етика на вештачката интелигенција, дезинформации, отвореност на информации и интернет и регулатива. Се исплати да се биде информиран за длабок фејк и да се има интуитивно разбирање за тоа што се длабоки фејкови. Оваа статија ќе ја разјасни дефиницијата за длабок фејк, ќе ги испита случаите на нивната употреба, ќе разговара за тоа како може да се открие длабок фејк и ќе ги испита импликациите на длабоките фејкови за општеството.

Што се Deepfakes?

Пред да продолжите да разговарате за длабоките фејкови, би било корисно да одвоите малку време и да разјасните што всушност се „deepfakes“.. Постои значителна количина на конфузија во однос на терминот Deepfake, и често терминот погрешно се применува на кој било фалсификуван медиум, без оглед на тоа дали станува збор за вистински длабок фејк или не. За да се квалификува како Deepfake, лажните медиуми за кои станува збор мора да се генерираат со систем за машинско учење, поточно длабока невронска мрежа.

Клучната состојка на deepfakes е машинското учење. Машинското учење им овозможи на компјутерите автоматски да генерираат видео и аудио релативно брзо и лесно. Длабоките невронски мрежи се обучуваат на снимки од вистинска личност со цел мрежата да научи како луѓето изгледаат и како се движат под целните услови на животната средина. Тренираната мрежа потоа се користи на слики од друго лице и се надополнува со дополнителни техники на компјутерска графика со цел да се комбинира новото лице со оригиналната снимка. Се користи алгоритам за шифрирање за да се одредат сличностите помеѓу оригиналното лице и целното лице. Откако ќе се изолираат заедничките карактеристики на лицата, се користи втор алгоритам за вештачка интелигенција наречен декодер. Декодерот ги испитува кодираните (компресирани) слики и ги реконструира врз основа на карактеристиките на оригиналните слики. Се користат два декодера, еден на лицето на оригиналниот субјект, а вториот на лицето на целната личност. За да може да се изврши замената, декодерот обучен за слики на личноста X добива слики од лицето Y. Резултатот е дека лицето на лицето Y е реконструкција над изразите на лицето и ориентацијата на лицето X.

Во моментов, сè уште е потребно доволно време за да се направи длабок фејк. Креаторот на лажниот мора да потроши долго време рачно приспособувајќи ги параметрите на моделот, бидејќи неоптималните параметри ќе доведат до забележителни несовршености и дефекти на сликата што ја оддалечуваат вистинската природа на лажниот.

Иако често се претпоставува дека повеќето длабоки фејкови се направени со тип на невронска мрежа наречена a генеративна противничка мрежа (GAN), многу (можеби повеќето) deepfakes создадени деновиве не се потпираат на GAN-ови. Додека GAN-ите играа значајна улога во создавањето на раните длабоки фејкови, повеќето видеа со длабок фејк се создаваат преку алтернативни методи, според Сивеи Љу од SUNY Buffalo.

Потребно е непропорционално големо количество податоци за обука за да се обучи GAN, а на GAN често им треба многу подолго за да се направи слика во споредба со другите техники за генерирање слики. GAN-ите се исто така подобри за генерирање статични слики отколку видео, бидејќи GAN-ите имаат потешкотии да одржуваат конзистентност од кадар до кадар. Многу повообичаено е да се користи енкодер и повеќе декодери за да се создадат длабоки фалсификати.

За што се користат Deepfakes?

Многу од длабоките фејкови пронајдени на интернет се од порнографска природа. Според истражувањето направено од Deeptrace, фирма за вештачка интелигенција, од примерок од приближно 15,000 длабоко лажни видеа направени во септември 2019 година, приближно 95% од нив биле порнографски по природа. Вознемирувачка импликација на овој факт е дека како што технологијата станува полесна за употреба, може да се зголемат инциденти на лажни одмазднички порно.

Сепак, не сите длабоки фалсификати се порнографски по природа. Постојат повеќе легитимни употреби на технологијата за длабоко фејк. Аудио deepfake технологијата може да им помогне на луѓето да ги емитуваат своите редовни гласови откако ќе бидат оштетени или изгубени поради болест или повреда. Дипфејксот може да се користи и за криење на лицата на луѓето кои се во чувствителни, потенцијално опасни ситуации, а притоа дозволувајќи им да се читаат нивните усни и изрази. Технологијата Deepfake потенцијално може да се користи за да се подобри синхронизацијата на филмовите на странски јазик, да се помогне во поправка на стари и оштетени медиуми, па дури и да се создадат нови стилови на уметност.

Не-видео Deepfakes

Додека повеќето луѓе помислуваат на лажни видеа кога ќе го слушнат терминот „deepfake“, лажните видеа во никој случај не се единствениот вид на лажни медиуми произведени со длабока лажна технологија. Технологијата Deepfake се користи и за создавање фалсификати за фотографии и аудио. Како што беше претходно споменато, GAN често се користат за генерирање лажни слики. Се смета дека има многу случаи на лажни профили на LinkedIn и Facebook кои имаат профилни слики генерирани со длабоко лажни алгоритми.

Можно е да се креираат и аудио длабоки фејкови. Длабоките невронски мрежи се обучени да произведуваат гласовни клонови/гласови на различни луѓе, вклучително и познати личности и политичари. Еден познат пример за аудио Deepfake е кога компанијата за вештачка интелигенција Dessa користел модел на вештачка интелигенција, поддржано од алгоритми што не се ВИ, за да се рекреира гласот на водителот на подкаст Џо Роган.

Како да забележите Deepfakes

Како што длабоките фејкови стануваат сè пософистицирани, разликувањето од вистинските медиуми ќе станува сè построго и построго. Во моментов, постојат неколку звучни знаци луѓето можат да бараат да утврдат дали видеото е потенцијално лажно, како што е лошо синхронизирање на усните, неприродно движење, треперење околу работ на лицето и искривување на фини детали како коса, заби или рефлексии. Други потенцијални знаци на длабок фејк вклучуваат делови со послаб квалитет од истото видео и неправилно трепкање на очите.

Иако овие знаци може да помогнат да се забележи длабок фејк во моментот, бидејќи технологијата на длабок фејк ја подобрува единствената опција за сигурно откривање длабоко лажни може да бидат други типови на вештачка интелигенција обучени да разликуваат лажни од вистински медиуми.

Компаниите за вештачка интелигенција, вклучително и многу од големите технолошки компании, истражуваат методи за откривање на длабоки фалсификати. Минатиот декември започна предизвик за откривање длабоко лажни, поддржан од три технолошки гиганти: Амазон, Фејсбук и Мајкрософт. Истражувачки тимови од целиот свет работеа на методи за откривање длабоки фалсификати, натпреварувајќи се да развијат најдобри методи за откривање. Други групи истражувачи, како група комбинирани истражувачи од Google и Jigsaw, работат на еден вид „форензика на лице“ што може да открие видеа што се изменети. правејќи ги нивните збирки на податоци со отворен код и охрабрување на другите да развијат методи за откривање на длабоки лажни. Гореспоменатата Деса работеше на рафинирање на техниките за откривање длабоко лажни, обидувајќи се да осигура дека моделите за откривање работат на длабоки лажни видеа пронајдени во дивината (на интернет) наместо само на претходно составени збирки податоци за обука и тестирање, како што е базата на податоци со отворен код. Google обезбеди.

Исто така има други стратегии кои се истражуваат за да се справат со ширењето на длабоки фејкови. На пример, проверката на видеата за усогласеност со други извори на информации е една стратегија. Може да се пребаруваат видео записи од настани потенцијално преземени од други агли или деталите во заднината на видеото (како временските обрасци и локациите) може да се проверат за неусогласеност. Надвор од ова, Blockchain онлајн Леџер систем може да регистрира видеа кога тие првично се креирани, држејќи ги нивните оригинални аудио и слики, така што изведените видеа секогаш може да се проверат за манипулација.

На крајот на краиштата, важно е да се создадат веродостојни методи за откривање на длабоки фалсификати и овие методи за откривање да бидат во чекор со најновите достигнувања во технологијата за длабоко фејк. Иако е тешко да се знае точно какви ќе бидат ефектите од дип фејкс, ако не постојат сигурни методи за откривање на длабоки фејкови (и други форми на лажни медиуми), дезинформациите потенцијално би можеле да се разбијат и да ја намалат довербата на луѓето во општеството и институциите.

Импликации на Deepfakes

Кои се опасностите да се дозволи длабокиот лажен да се размножува неконтролирано?

Еден од најголемите проблеми што во моментов го создаваат длабоките фејкови е неконсензуалната порнографија, направена со комбинирање на лицата на луѓето со порнографски видеа и слики. Етичарите на вештачката интелигенција се загрижени дека deepfakes ќе има поголема употреба во создавањето на лажни одмазднички порно. Надвор од ова, deepfakes може да се користат за малтретирање и оштетување на угледот на речиси секој, бидејќи тие би можеле да се користат за ставање на луѓето во контроверзни и компромитирачки сценарија.

Компаниите и специјалистите за сајбер-безбедност изразија загриженост за употребата на длабоки фалсификати за да се олеснат измамите, измамите и изнудата. Наводно, длабоко фејк аудио е се користи за убедување на вработените на компанија за префрлање пари на измамници

Можно е длабоките фејкови да имаат штетни ефекти дури и надвор од оние наведени погоре. Дип фејк може потенцијално да ја наруши довербата на луѓето во медиумите генерално и да им отежни на луѓето да разликуваат вистинска вест и лажна вест. Ако многу видеа на интернет се лажни, на владите, компаниите и другите субјекти им станува полесно да стават сомнеж врз легитимните контроверзи и неетички практики.

Кога станува збор за владите, фејк-фејковите може дури и да претставуваат закана за функционирањето на демократијата. Демократијата бара граѓаните да бидат способни да донесуваат информирани одлуки за политичарите врз основа на веродостојни информации. Дезинформациите ги поткопуваат демократските процеси. На пример, претседателот на Габон, Али Бонго, се појави во видео во обид да ги увери граѓаните на Габон. Се претпоставуваше дека претседателот не е добро долго време, а неговото ненадејно појавување во веројатно лажно видео започна обид за државен удар. Претседателот Доналд Трамп тврдеше дека аудио снимка на која се фали дека ги фаќа жените за гениталиите беше лажен, и покрај тоа што исто така го опишуваат како „разговор во соблекувалната“. Принцот Ендру исто така тврдеше дека сликата дадена од адвокатот на Емили Маитилис е лажна, иако адвокатот инсистираше на неговата автентичност.

На крајот на краиштата, иако постојат легитимни употреби за длабока лажна технологија, постојат многу потенцијални штети кои можат да произлезат од злоупотребата на таа технологија. Од таа причина, исклучително е важно методите за утврдување на автентичноста на медиумите да се креираат и одржуваат.

Блогер и програмер со специјалитети во Машинско учење Длабоко учење теми. Даниел се надева дека ќе им помогне на другите да ја искористат моќта на вештачката интелигенција за општествено добро.