stub Kaip atpažinti netikrus vaizdo įrašus kaip faktų tikrintuvą – Unite.AI
Susisiekti su mumis

Dirbtinis intelektas

Kaip atpažinti netikrus vaizdo įrašus kaip faktų tikrintuvą

mm

paskelbta

 on

Deepfake yra sintetinė laikmena, kai asmuo pakeičia asmens panašumą į kažkieno kitą. Jie tampa vis dažnesni internete ir dažnai visame pasaulyje skleidžia klaidingą informaciją. Nors kai kurie gali atrodyti nekenksmingi, kiti gali turėti piktų ketinimų, todėl asmenims svarbu atskirti tiesą nuo skaitmeniniu būdu sukurto melagingo turinio.

Deja, ne visi gali pasiekti naujausią programinę įrangą, skirtą identifikuoti netikrus vaizdo įrašus. Čia"pažiūrėkite, kaip faktų tikrintojai tiria vaizdo įrašą, kad nustatytų jo teisėtumą ir kaip galite patys panaudoti jų strategijas.

1. Išnagrinėkite kontekstą

Labai svarbu atidžiai išnagrinėti kontekstą, kuriame pateikiamas vaizdo įrašas. Tai reiškia, kad reikia peržiūrėti fono istoriją, aplinką ir tai, ar vaizdo įrašo įvykiai atitinka tai, ką žinote esant tiesa. Deepfake čia dažnai praslysta ir pateikia turinį, kuris, atidžiau pažvelgus, neatitinka realaus pasaulio faktų ar laiko juostų.

Vienas iš pavyzdžių yra Ukrainos prezidento Volodymyro Zelenskio klastojimas. 2022 m. kovo mėn. socialiniuose tinkluose pasirodė gilus netikras vaizdo įrašas kur Zelenskis, regis, ragino Ukrainos karius padėti ginklus ir pasiduoti Rusijos pajėgoms. 

Atidžiau panagrinėjus, keletas kontekstinių užuominų išryškino vaizdo įrašo neautentiškumą. Ukrainos vyriausybės oficialūs kanalai ir pats Zelenskis šia žinia nepasidalijo. Be to, laikas ir aplinkybės neatitiko žinomų faktų apie Ukrainos poziciją ir karinę strategiją. Vaizdo įrašu buvo siekiama demoralizuoti Ukrainos pasipriešinimą ir paskleisti sumaištį Ukrainą remiančioje tarptautinėje bendruomenėje.

2. Patikrinkite šaltinį

Kai pamatysite vaizdo įrašą internete, patikrinkite jo šaltinį. Labai svarbu suprasti, iš kur gaunamas vaizdo įrašas, nes įsilaužėliai gali jį panaudoti prieš jus, kad surengtų kibernetinę ataką. Neseniai 75% kibernetinio saugumo specialistų pranešė apie kibernetinių atakų šuolį, o 85 % pažymėjo, kad piktybiški asmenys naudoja generatyvųjį AI. 

Tai siejama su netikrų vaizdo įrašų atsiradimu, o profesionalai vis dažniau susiduria su saugumo incidentais, kuriuos skatina dirbtinio intelekto sukurtas turinys. Patvirtinkite šaltinį ieškodami vaizdo įrašo kilmės vietos. Vaizdo įrašas, sukurtas iš abejotino šaltinio, gali būti didesnės kibernetinės atakos strategijos dalis. 

Rečiau patikimi šaltiniai platins netikrus vaizdo įrašus, todėl jie yra saugesni už patikimą informaciją. Visada patikrinkite vaizdo įrašus patikimose naujienų vietose arba oficialiose svetainėse, kad įsitikintumėte, jog tai, ką žiūrite, yra tikras.

3. Ieškokite neatitikimų veido išraiškose

Vienas iš įspėjamųjų gilaus klastotės požymių yra veido išraiškų nenuoseklumas. Nors giliosios klastotės technologija yra pažengusi į priekį, ji dažnai stengiasi tiksliai imituoti subtilius ir sudėtingus judesius, kurie natūraliai atsiranda, kai žmogus kalba ar išreiškia emocijas. Galite juos pastebėti ieškodami šių neatitikimų:

  • Nenatūralus mirksėjimas: Žmonės mirksi įprastai, natūraliai. Tačiau giliosios klastotės gali mirksėti per mažai arba per daug. Pavyzdžiui, gilus klastotė gali parodyti, kad asmuo kalba ilgą laiką nemirksėdamas arba mirksėdamas per greitai.
  • Lūpų sinchronizavimo klaidos: Kai kas nors kalba vaizdo įraše, jo lūpos gali nejudėti. Atidžiai stebėkite, ar lūpos atitinka garsą. Kai kuriuose giliuose klastojimuose neatitikimas yra subtilus, bet pastebimas žiūrint atidžiai.
  • Veido išraiškos ir emocijos: Tikros žmogaus emocijos yra sudėtingos ir atsispindi veido judesiuose. Deepfake dažnai nesugeba to užfiksuoti, todėl išraiškos yra griežtos, perdėtos arba nevisiškai suderintos. Pavyzdžiui, netikrame vaizdo įraše gali būti rodomas žmogus, besišypsantis arba susiraukęs su mažiau niuansų, arba emocinė reakcija gali neatitikti pokalbio konteksto.

4. Analizuokite garsą

Garsas taip pat gali padėti suprasti, ar vaizdo įrašas yra tikras, ar netikras. Deepfake technologija bando mėgdžioti balsus, tačiau neatitikimai dažnai juos atmeta. Pavyzdžiui, atkreipkite dėmesį į balso kokybę ir savybes. Gilios klastotės savo kalboje gali skambėti robotiškai arba nedrąsiai, arba jiems gali trūkti emocinių posūkių, kuriuos natūraliai parodytų tikras žmogus.

Fono triukšmas ir garso kokybė taip pat gali suteikti užuominų. Staigus pakeitimas gali reikšti, kad garso dalys buvo pakeistos arba sujungtos. Autentiški vaizdo įrašai paprastai išlieka vienodi visame pasaulyje.

5. Ištirkite apšvietimą ir šešėlius

Apšvietimas ir šešėliai vaidina svarbų vaidmenį atskleidžiant vaizdo įrašo autentiškumą. Deepfake technologija dažnai stengiasi tiksliai atkartoti, kaip šviesa sąveikauja su realaus pasaulio objektais, įskaitant žmones. Atkreipdami dėmesį į apšvietimą ir šešėlius, galite pastebėti įvairius elementus, rodančius, ar tai yra klastotė.

Autentiškuose vaizdo įrašuose objekto apšvietimas ir aplinka turi būti vienodi. Deepfake vaizdo įrašuose gali būti nelygybių, pvz., veidas apšviestas kitaip nei fonas. Jei vaizdo įrašo kryptis ar šviesos šaltinis nėra prasmingi, tai gali būti manipuliavimo ženklas.

Antra, šešėliai turėtų elgtis pagal šviesos šaltinius scenoje. Giliuose padirbinėjimuose šešėliai gali pasirodyti netinkamais kampais arba nesutapti su kitais objektais. Šešėlio dydžio, krypties anomalijos ir laukiamų šešėlių buvimas ar nebuvimas suteikia jums bendrą idėją.

6. Patikrinkite, ar nėra emocinių manipuliacijų

Deepfake daro daugiau nei sukuria įtikinamą melą – žmonės dažnai kuria jas manipuliuoti emocijomis ir sukelti reakcijas. Pagrindinis tokio turinio nustatymo aspektas yra įvertinti, ar juo siekiama sukelti emocinę reakciją, kuri gali aptemdyti racionalų sprendimą.

Pavyzdžiui, apsvarstykite incidentą, kai „Twitter X“ pasklido dirbtinio intelekto sukurtas Pentagono bombos vaizdas. Nepaisant to, kad vaizdas buvo visiškai išgalvotas, nerimą keliantis vaizdas jį išplito ir sukėlė plačią paniką. Kaip rezultatas, 500 milijardo JAV dolerių nuostolį akcijų rinkoje įvyko.

Deepfake vaizdo įrašai gali sukelti tiek pat panikos, ypač kai dalyvauja dirbtinis intelektas. Vertindami šiuos vaizdo įrašus, paklauskite savęs:

  • Ar turinys bando sukelti stiprų emocinį atsaką, pvz., baimę, pyktį ar šoką? Autentiški naujienų šaltiniai siekia informuoti, o ne kurstyti.
  • Ar turinys atitinka dabartinius įvykius ar žinomus faktus? Emocinė manipuliacija dažnai remiasi auditorijos atjungimu nuo racionalios analizės.
  • Ar patikimi šaltiniai skelbia tą pačią istoriją? Tai, kad patikimų naujienų šaltinių nepatvirtina, gali rodyti emociškai įkrauto turinio kūrimą. 

7. Pasinaudokite Deepfake Detection Tools

Kadangi gilios klastotės tampa vis sudėtingesnės, jas atpažinti pasikliauti vien žmogaus stebėjimu gali būti sudėtinga. Laimei, yra giliųjų klastotės aptikimo įrankių, kurie naudoja pažangias technologijas, kad atskirtų tikrą ir netikrą. 

Šie įrankiai gali analizuoti vaizdo įrašus dėl neatitikimų ir nukrypimų, kurie gali būti nematomi plika akimi. Jie naudoja dirbtinį intelektą ir mašininį mokymąsi, kaip vieną metodą naudodami kalbos vandenženklį. Šios technologijos yra išmokyti atpažinti vandens ženklo vietą nustatyti, ar garsas buvo sugadintas.

„Microsoft“ sukūrė įrankį, pavadintą „Video Authenticator“, kuris suteikia patikimumo balą, nurodantį gilaus klastojimo tikimybę. Panašiai startuoliai ir akademinės institucijos nuolat kuria ir tobulina technologijas, kad neatsiliktų nuo besivystančių gilių klastotės.

Sėkmingai aptinkami gilūs klastotės

Technologijos turi šviesiąją ir tamsiąją pusę ir nuolat tobulėja, todėl svarbu skeptiškai žiūrėti į tai, ką matote internete. Susidūrę su įtariamu klastojimu, pasinaudokite savo pojūčiais ir turimais įrankiais. Be to, visada patikrinkite, kur jis atsirado. Tol, kol sužinosite naujausias netikras naujienas, jūsų stropumas bus labai svarbus siekiant išsaugoti tiesą netikros žiniasklaidos amžiuje.

Zacas Amosas yra technologijų rašytojas, daugiausia dėmesio skiriantis dirbtiniam intelektui. Jis taip pat yra funkcijų redaktorius ReHack, kur galite perskaityti daugiau jo darbų.