škrbina Kako prepoznati Deepfake videozapise poput alata za provjeru činjenica - Unite.AI
Povežite se s nama

Umjetna inteligencija

Kako prepoznati Deepfake videozapise poput alata za provjeru činjenica

mm

Objavljeno

 on

Deepfakeovi su sintetički mediji gdje pojedinac zamjenjuje nečiji lik tuđim. Sve su češći na internetu, često šireći dezinformacije diljem svijeta. Iako se neki mogu činiti bezopasnima, drugi mogu imati zlonamjerne namjere, zbog čega je za pojedince važno razlikovati istinu od digitalno izrađenog lažnog sadržaja.

Nažalost, ne može svatko pristupiti najsuvremenijem softveru za prepoznavanje deepfake videozapisa. Ovdje'pogledajte kako oni koji provjeravaju činjenice ispituju video kako bi utvrdili njegovu legitimnost i kako možete koristiti njihove strategije za sebe.

1. Ispitajte kontekst

Presudno je proučiti kontekst u kojem je video prikazan. To znači pogledati pozadinsku priču, okruženje i podudaraju li se događaji u videu s onim što znate da je istina. Deepfakeovi često promaknu ovdje, prikazujući sadržaj koji se ne može usporediti s činjenicama iz stvarnog svijeta ili vremenskim okvirima nakon detaljnijeg pregleda.

Jedan primjer uključuje deepfake ukrajinskog predsjednika Volodimira Zelenskog. U ožujku 2022. na društvenim mrežama pojavio se deepfake video gdje se činilo da Zelenski poziva ukrajinske trupe da polože oružje i predaju se ruskim snagama. 

Nakon detaljnijeg ispitivanja, nekoliko kontekstualnih naznaka istaknulo je neautentičnost videa. Službeni kanali ukrajinske vlade i sam Zelensky nisu podijelili ovu poruku. Također, vrijeme i okolnosti nisu bile u skladu s poznatim činjenicama o ukrajinskom stavu i vojnoj strategiji. Stvaranje videa imalo je za cilj demoralizirati ukrajinski otpor i proširiti zbunjenost među međunarodnom zajednicom koja podržava Ukrajinu.

2. Provjerite izvor

Kada na internetu naiđete na video, provjerite njegov izvor. Presudno je razumjeti odakle video dolazi jer bi ga hakeri mogli upotrijebiti protiv vas za izvođenje kibernetičkog napada. Nedavno, 75% stručnjaka za kibernetičku sigurnost izvijestio je o porastu kibernetičkih napada, pri čemu je 85% primijetilo upotrebu generativne umjetne inteligencije od strane zlonamjernih pojedinaca. 

To je povezano s porastom deepfake videozapisa, a profesionalci se sve više bave sigurnosnim incidentima koje potiče sadržaj generiran umjetnom inteligencijom. Provjerite izvor traženjem odakle je video nastao. Video koji potječe iz sumnjivog izvora mogao bi biti dio veće strategije kibernetičkog napada. 

Manje je vjerojatno da će pouzdani izvori širiti lažne videozapise, što ih čini sigurnijim izborom za pouzdane informacije. Uvijek unakrsno provjerite videozapise s uglednim novinskim kućama ili službenim web stranicama kako biste bili sigurni da je ono što gledate autentično.

3. Potražite nedosljednosti u izrazima lica

Jedan od izdajničkih znakova deepfakea je prisutnost nedosljednosti u izrazima lica. Iako je tehnologija deepfake napredovala, često se bori s točnim oponašanjem suptilnih i složenih pokreta koji se prirodno javljaju kada osoba govori ili izražava emocije. Možete ih uočiti tako da obratite pažnju na sljedeće nedosljednosti:

  • Neprirodno treptanje: Ljudi trepću u pravilnom, prirodnom obrascu. Međutim, deepfakeovi mogu ili nedovoljno predstavljati treptanje ili ga pretjerati. Na primjer, deepfake može prikazati osobu koja govori dulje vrijeme bez treptanja ili trepće prebrzo.
  • Pogreške sinkronizacije usana: Kad netko govori u videu, pokret njegovih usana može biti isključen. Pažljivo promatrajte odgovaraju li usne zvuku. U nekim dubokim krivotvorinama, neusklađenost je suptilna, ali se može otkriti kada se pogleda izbliza.
  • Izrazi lica i emocije: Istinske ljudske emocije su složene i odražavaju se kroz pokrete lica. Deepfakeovi to često ne uspijevaju uhvatiti, što dovodi do ukočenih, pretjeranih ili nepotpuno usklađenih izraza lica. Na primjer, deepfake video može prikazati osobu koja se smiješi ili namršti s manje nijansi ili emocionalna reakcija možda ne odgovara kontekstu razgovora.

4. Analizirajte zvuk

Zvuk vam također može dati naznake je li video stvaran ili lažan. Tehnologija Deepfake pokušava oponašati glasove, ali razlike ih često odaju. Na primjer, obratite pozornost na kvalitetu i karakteristike glasa. Deepfake mogu zvučati robotski ili ravnodušno u svom govoru, ili im možda nedostaju emocionalne infleksije koje bi stvarni ljudi prirodno ispoljavali.

Pozadinska buka i kvaliteta zvuka također mogu dati tragove. Iznenadna promjena mogla bi značiti da su dijelovi zvuka izmijenjeni ili spojeni. Autentični videozapisi obično ostaju dosljedni u cijelosti.

5. Istražite rasvjetu i sjene

Osvjetljenje i sjene igraju veliku ulogu u otkrivanju autentičnosti videa. Tehnologija Deepfake često se bori s točnim repliciranjem interakcije svjetlosti s objektima iz stvarnog svijeta, uključujući ljude. Obraćanje velike pozornosti na osvjetljenje i sjene može vam pomoći da uočite razne stavke koje ukazuju na to radi li se o deepfakeu.

U autentičnim videozapisima, osvjetljenje subjekta i okolina trebaju biti dosljedni. Deepfake video zapisi mogu prikazivati ​​nepravilnosti, kao što je lice drugačije osvijetljeno od pozadine. Ako smjer videozapisa ili izvor svjetla nemaju smisla, to bi mogao biti znak manipulacije.

Drugo, sjene bi se trebale ponašati prema izvorima svjetla u sceni. U deepfakeovima, sjene se mogu pojaviti pod pogrešnim kutovima ili se ne podudaraju s drugim objektima. Anomalije u veličini sjene, smjeru i prisutnosti ili odsutnosti očekivanih sjena daju vam cjelokupnu ideju.

6. Provjerite postoji li emocionalna manipulacija

Deepfakeovi čine više od stvaranja uvjerljivih neistina — ljudi ih često osmišljavaju kako bi manipulirali emocijama i izazvali reakcije. Ključni aspekt prepoznavanja takvog sadržaja je procijeniti ima li za cilj potaknuti emocionalnu reakciju koja bi mogla pomutiti racionalnu prosudbu.

Na primjer, uzmite u obzir incident u kojem je slika bombe u Pentagonu koju je generirala umjetna inteligencija kružila na Twitteru X. Unatoč tome što je potpuno izmišljena, alarmantna priroda slike uzrokovala je da postane viralna i izazove široku paniku. Kao rezultat, gubitak od 500 milijardi dolara na burzi dogodila.

Deepfake video zapisi mogu izazvati istu količinu panike, posebno kada je u pitanju umjetna inteligencija. Dok procjenjujete ove videozapise, zapitajte se:

  • Pokušava li sadržaj izazvati snažnu emocionalnu reakciju, poput straha, ljutnje ili šoka? Autentični izvori vijesti imaju za cilj informirati, a ne poticati.
  • Je li sadržaj u skladu s aktualnim događajima ili poznatim činjenicama? Emocionalna manipulacija često se oslanja na odvajanje publike od racionalne analize.
  • Izvještavaju li ugledni izvori istu priču? Nedostatak potvrde od pouzdanih novinskih kuća može ukazivati ​​na izmišljanje emocionalno nabijenog sadržaja. 

7. Iskoristite Deepfake alate za otkrivanje

Kako deepfakeovi postaju sofisticiraniji, oslanjanje isključivo na ljudsko promatranje za njihovu identifikaciju može biti izazovno. Srećom, dostupni su alati za otkrivanje deepfakea koji koriste naprednu tehnologiju za razlikovanje stvarnog od lažnog. 

Ovi alati mogu analizirati videozapise u potrazi za nedosljednostima i anomalijama koje možda nisu vidljive golim okom. Iskorištavaju umjetnu inteligenciju i strojno učenje koristeći govorni vodeni žig kao jednu od metoda. Ove tehnologije su obučeni da prepoznaju položaj vodenog žiga kako bi se utvrdilo je li zvuk neovlašteno mijenjan.

Microsoft je razvio alat pod nazivom Video Authenticator, koji pruža ocjenu pouzdanosti koja ukazuje na vjerojatnost deepfakea. Slično tome, startupi i akademske institucije neprestano razvijaju i usavršavaju tehnologije kako bi išle u korak s rastućim deepfakeovima.

Uspješno otkrivanje Deepfakea

Tehnologija ima svijetlu i mračnu stranu i neprestano se razvija, stoga je važno biti skeptičan prema onome što vidite na internetu. Kada naiđete na sumnjivi deepfake, upotrijebite svoja osjetila i dostupne alate. Osim toga, uvijek provjerite odakle potječe. Sve dok ste u tijeku s najnovijim deepfake vijestima, vaša će marljivost biti ključna u očuvanju istine u doba lažnih medija.

Zac Amos je pisac o tehnologiji koji se fokusira na umjetnu inteligenciju. Također je urednik značajki na ReHack, gdje možete pročitati više o njegovim radovima.