Connect with us

Deepfakes și navigarea în noua eră a mass-media sintetice

Lideri de opinie

Deepfakes și navigarea în noua eră a mass-media sintetice

mm

Îți amintești de “știri false”? Termenul a fost folosit (și abuzat) atât de mult până în acest moment, încât poate fi greu să ne amintim la ce se referea inițial. Dar conceptul are o origine foarte specifică. Acum zece ani, jurnaliștii au început să semnaleze o avalanșă de site-uri de “știri” care aruncau afirmații false, adesea neverosimile, despre politicieni și celebrități. Mulți au putut să vadă instantaneu că aceste site-uri erau nelegitime.

Dar mulți alții nu aveau instrumentele critice pentru a recunoaște acest lucru. Rezultatul a fost primele mișcări ale unei crize epistemologice care este acum pe cale să cuprindă internetul – una care a atins cea mai înfricoșătoare manifestare cu apariția deepfakes.

Chiar și în comparație cu un deepfake acceptabil, site-urile de “știri false” de altădată par inofensive. Mai rău, chiar și cei care cred că posedă niveluri relativ ridicate de alfabetizare media sunt în pericol de a fi înșelați. Mass-media sintetică creată cu ajutorul algoritmilor de învățare profundă și inteligență artificială generativă are potențialul de a distruge fundamentele societății noastre. Conform Deloitte, anul acesta singur ele ar putea costa companiile mai mult de 250 de milioane de dolari prin tranzacții false și alte tipuri de fraudă. Între timp, Forumul Economic Mondial a numit deepfakes “una dintre cele mai îngrijorătoare utilizări ale IA”, subliniind potențialul “roboților și avatarilor de chat IA cu agendă” de a facilita noi tipuri de manipulare ultra-personalizată (și ultra-eficientă).

Răspunsul sugerat de WEF la această problemă este unul sensibil: ei susțin o “atitudine de încredere zero“, una care aduce un anumit nivel de scepticism în fiecare întâlnire cu mass-media digitală. Dacă vrem să distingem între autentic și sintetic în viitor – în special în mediile online imersive – o astfel de atitudine va fi din ce în ce mai esențială.

Două abordări pentru combaterea crizei deepfakes

Combaterea dezinformării rampante generate de mass-media sintetică va necesita, în opinia mea, două abordări distincte.

Prima implică verificarea: oferirea unei modalități simple pentru utilizatorii obișnuiți de internet de a determina dacă videoul pe care îl privesc este într-adevăr autentic. Unelte de acest fel sunt deja răspândite în industrii precum asigurările, dată fiind posibilitatea ca actori răi să depună cereri false ajutați de videoclipuri, fotografii și documente falsificate. Democratizarea acestor unelte – făcându-le gratuite și ușor de accesat – este un prim pas crucial în această luptă, și deja vedem o mișcare semnificativă pe acest front.

A doua etapă este mai puțin tehnologică și, prin urmare, mai dificilă: și anume, creșterea conștientizării și dezvoltarea abilităților de gândire critică. În urma scandalului inițial cu “știri false”, în 2015, organizații non-profit din întreaga țară au creat programe de alfabetizare media și au lucrat pentru a răspândi cele mai bune practici, adesea în parteneriat cu instituții civice locale pentru a împuternici cetățenii obișnuiți să identifice falsurile. Desigur, “știrile false” de modă veche sunt un joc de copii în comparație cu deepfakes-ul cel mai avansat, ceea ce ne face să ne reîndreptăm eforturile pe acest front și să investim în educație la toate nivelurile.

Deepfakes avansați necesită gândire critică avansată

Desigur, aceste inițiative educaționale au fost mult mai ușor de întreprins atunci când dezinformarea în cauză era bazată pe text. Cu site-urile de “știri false”, semnele de fraudă erau adesea evidente: design de site ciudat, erori de ortografie, surse ciudate. Cu deepfakes, semnele sunt mult mai subtile – și adesea imposibil de remarcat la prima vedere.

Prin urmare, utilizatorii de internet de toate vârstele trebuie să se reantreneze pentru a examina cu atenție videoclipurile digitale pentru a identifica indicatorii de deepfake. Acest lucru înseamnă a acorda o atenție deosebită unui număr de factori. Pentru video, acest lucru ar putea însemna zone blurry neverosimile și umbre; mișcări faciale și expresii neverosimile; tonuri de piele prea perfecte; modele inconsistente în îmbrăcăminte și mișcări; erori de sincronizare a buzelor; și așa mai departe. Pentru audio, acest lucru ar putea însemna voci care sună prea curate (sau evident digitalizate), lipsa unui ton emoțional uman, tipare de vorbire ciudate sau frazare neobișnuită.

Pe termen scurt, acest tip de autodidactism poate fi foarte util. Prin a ne întreba, în mod repetat, Arată acest lucru suspect?, îmbunătățim nu numai capacitatea noastră de a detecta deepfakes, ci și abilitățile noastre generale de gândire critică. Cu toate acestea, ne apropiem rapid de un punct în care nici măcar cel mai bine antrenat ochi nu va putea să distingă faptele de ficțiune fără asistență externă. Semnele vizuale – neregularitățile menționate mai sus – vor fi netezite tehnologic, astfel încât clipurile complet fabricate vor fi indistincte de articolul autentic. Ce ne va rămâne este intuiția noastră situativă – capacitatea noastră de a ne pune întrebări de genul Ar spune cu adevărat un politician sau o celebritate așa ceva? Este conținutul acestui videoclip plauzibil?

În acest context, platformele de detectare AI devin esențiale. Când ochiul nud este lipsit de relevanță pentru detectarea deepfakes, aceste platforme pot servi ca arbitri definitivi ai realității – garduri de protecție împotriva abisului epistemologic. Când un videoclip pare real, dar pare în mod ciudat suspect – așa cum se va întâmpla din ce în ce mai mult în lunile și anii următori – aceste platforme ne pot ține ancorați în fapte, confirmând veracitatea de bază a ceea ce privim. În cele din urmă, cu o tehnologie atât de puternică, singurul lucru care ne poate salva este IA însăși. Trebuie să luptăm focul cu foc – ceea ce înseamnă utilizarea unei IA bune pentru a eradica cele mai grave abuzuri ale tehnologiei.

Cu adevărat, dobândirea acestor abilități nu are nevoie să fie un proces cinic sau negativ. Promovarea unei atitudini de încredere zero poate fi, în schimb, considerată o oportunitate de a îmbunătăți gândirea critică, intuiția și conștientizarea. Prin a ne pune, în mod repetat, anumite întrebări cheie – Are sens acest lucru? Este acesta suspect? – îmbunătățim capacitatea noastră de a confrunta nu numai mass-media falsă, ci și lumea în ansamblu. Dacă există un aspect pozitiv al epocii deepfakes, acesta este. Ne obligă să gândim singuri și să devenim mai empirici în viața noastră de zi cu zi – și acest lucru nu poate fi decât bun.

Nicos Vekiarides este directorul general și co-fondator al Attestiv. El a petrecut ultimii 20 de ani în domeniul IT pentru întreprinderi și cloud, ca CEO și antreprenor, aducând pe piață tehnologii inovatoare. Compania sa anterioară de startup, TwinStrata, o companie de stocare în cloud inovatoare, unde el a inițiat stocarea integrată cloud pentru întreprinderi, a fost achiziționată de EMC în 2014. Înainte de aceasta, el a adus pe piață primul aparat de virtualizare a stocării pentru StorageApps, o companie ulterior achiziționată de HP.