škrbina Orodja za brskalnik z umetno inteligenco si prizadevajo prepoznati Deepfake in druge lažne medije - Unite.AI
Povežite se z nami

Umetna inteligenca

Orodja brskalnika AI so namenjena prepoznavanju Deepfake in drugih lažnih medijev

mm
Posodobljeno on

Prizadevanja tehnoloških podjetij za boj proti dezinformacijam in lažni vsebini se v zadnjem času močno pospešujejo, saj postajajo sofisticirane tehnologije za ustvarjanje lažne vsebine, kot je DeepFakes, enostavnejše za uporabo in bolj izpopolnjene. Eden od prihajajočih poskusov pomoči ljudem pri odkrivanju globokih ponaredkov in boju proti njim je RealityDefender, ki ga proizvaja AI Foundation, ki se je zavezala k razvoju etičnih agentov AI in pomočnikov, ki jih lahko uporabniki usposobijo za opravljanje različnih nalog.

Najpomembnejši projekt Fundacije AI je platforma, ki ljudem omogoča ustvarjanje lastnih digitalnih osebnosti, ki so jim podobne, in jih predstavljajo v virtualnih prostorih za klepetalnice »Hangout«. Fundacijo za umetno inteligenco nadzira Svet za globalno umetno inteligenco in v okviru svojega mandata morajo predvideti možne negativne vplive platform za umetno inteligenco, nato pa poskušati te težave prehiteti. Kot poroča VentureBeat, Eno od orodij, ki jih je AI Foundation ustvarila za pomoč pri odkrivanju globokih ponaredkov, se imenuje Reality Defender. Reality Defender je orodje, ki ga lahko oseba uporablja v svojem spletnem brskalniku (preverite to), ki bo analiziralo video, slike in druge vrste medijev, da bi zaznalo znake, da so bili mediji na nek način ponarejeni ali spremenjeni. Upamo, da bo orodje pomagalo preprečiti naraščajoči tok globokih ponaredkov na internetu, ki se je po nekaterih ocenah v zadnjih šestih mesecih približno podvojil.

Reality defender deluje z uporabo različnih algoritmov, ki temeljijo na umetni inteligenci in lahko zaznajo namige, ki nakazujejo, da sta slika ali videoposnetek morda ponarejena. Modeli umetne inteligence zaznajo subtilne znake prevare in manipulacije, lažne pozitivne rezultate, ki jih model zazna, pa uporabniki orodja označijo kot nepravilne. Podatki se nato uporabijo za ponovno usposabljanje modela. Podjetja z umetno inteligenco, ki ustvarjajo nezavajajoče globoke ponaredke, imajo svojo vsebino označeno z oznako »pošten AI« ali vodnim žigom, ki ljudem omogoča preprosto prepoznavanje ponaredkov, ustvarjenih z umetno inteligenco.

Reality Defender je le eno od nabora orodij in celotne platforme odgovornosti AI, ki jo poskuša ustvariti AI Foundation. Fundacija AI si prizadeva za ustanovitev Guardian AI, platforme odgovornosti, zgrajene na načelu, da morajo imeti posamezniki dostop do osebnih agentov AI, ki delajo zanje in ki lahko pomagajo pri zaščiti pred njihovim izkoriščanjem s strani slabih akterjev. V bistvu si AI Foundation prizadeva razširiti doseg umetne inteligence v družbi in jo približati več ljudem, hkrati pa zaščititi pred tveganji umetne inteligence.

Reality Defender ni edini nov izdelek, ki temelji na umetni inteligenci in katerega namen je zmanjšati napačne informacije o Združenih državah. Podoben izdelek se imenuje SurfSafe, ki sta ga ustvarila dva dodiplomska študenta UC Berkeley, Rohan Phadte in Ash Bhat. Po mnenju The Verge, SurfSafe deluje tako, da svojim uporabnikom dovoli, da kliknejo na del medija, ki jih zanima, program pa bo izvedel obratno iskanje slik in poskušal najti podobno vsebino iz različnih zaupanja vrednih virov v internetu, pri čemer bo označil slike, za katere je znano, da so doktoriral.

Ni jasno, kako učinkovite bodo te rešitve na dolgi rok. Profesor na kolidžu Dartmouth in strokovnjak za forenziko Hanyja Farida je citiral The Verge kot pravi, da je "izjemno skeptičen", da bodo načrtovalni sistemi, kot je Reality Defender, delovali smiselno. Farid je pojasnil, da je eden od ključnih izzivov pri odkrivanju lažne vsebine ta, da mediji niso zgolj lažni ali resnični. Farid je pojasnil:

»Obstaja kontinuum; neverjetno zapleten nabor vprašanj, s katerimi se je treba ukvarjati. Nekatere spremembe so nesmiselne, nekatere pa bistveno spremenijo naravo slike. Pretvarjati se, da lahko usposobimo AI, da opazi razliko, je neverjetno naivno. In pretvarjati se, da lahko uporabljamo množice, je še toliko bolj.«

Poleg tega je težko vključiti elemente zbiranja množic, kot je označevanje lažno pozitivnih rezultatov, ker so ljudje običajno precej slabi pri prepoznavanju lažnih slik. Ljudje se pogosto zmotimo in spregledamo subtilne podrobnosti, zaradi katerih je slika lažna. Prav tako ni jasno, kako ravnati z zlonamernimi igralci, ki trolajo, ko označujejo vsebino.

Zdi se verjetno, da bo treba orodja za odkrivanje ponaredkov združiti s prizadevanji za digitalno opismenjevanje, ki ljudi učijo, kako razmišljati o vsebini, s katero komunicirajo na spletu, da bi bila čim bolj učinkovita.