Lideri de opinie
În 2024, Deepfakes devin mainstream. Iată cum pot proteja afacerile

De la alegerile din 2016, când preocupările legate de dezinformare au izbucnit în conștiința publică, experții au avertizat despre deepfakes. Implicațiile acestei tehnologii au fost și rămân înfricoșătoare. Proliferarea necontrolată a mass-media sintetice hiper-reale reprezintă o amenințare pentru toată lumea – de la politicieni la oamenii de rând. Într-un mediu deja caracterizat prin neîncredere generalizată, deepfakes promit să aprindă și mai mult flăcările.
Așa cum s-a dovedit, temerile noastre au fost premature. Expertiza tehnologică necesară pentru a crea cu adevărat deepfakes, împreună cu calitatea adesea slabă a acestora, a însemnat că, pentru cel puțin ultimele două cicluri ale alegerilor prezidențiale, acestea au rămas o preocupare minimă.
Dar toate acestea sunt pe cale să se schimbe – se schimbă deja. În ultimii doi ani, tehnologia de inteligență artificială generativă a intrat în mainstream, simplificând radical procesul de creare a deepfakes pentru consumatorul mediu. Inovațiile acestea au îmbunătățit semnificativ calitatea deepfakes, astfel încât, într-un test orb, majoritatea oamenilor nu ar fi în măsură să distingă un videoclip falsificat de cel real.
Anul acesta, în special, am început să vedem indicii despre modul în care această tehnologie ar putea afecta societatea, dacă nu se iau măsuri pentru a o combate. Anul trecut, de exemplu, o fotografie generată de AI a Papei Francisc purtând un palton neobișnuit de stylish a devenit virală și a fost considerată de mulți ca fiind autentică. În timp ce acest lucru poate părea, la un nivel, ca o glumă nevinovată, el revelează potențialul periculos al acestor deepfakes și cât de greu poate fi să se combată dezinformarea odată ce a început să se răspândească. Ne putem aștepta să găsim exemple mult mai puțin amuzante și mult mai periculoase ale acestui tip de falsificare virală în lunile și anii care urmează.
Din acest motiv, este imperativ ca organizațiile de toate tipurile – de la mass-media la finanțe, guverne și platforme de social media – să adopte o poziție proactivă față de detectarea deepfakes și verificarea autenticității conținutului. O cultură a încrederii prin intermediul garanțiilor trebuie să fie stabilită acum, înainte ca o valură de deepfakes să poată spăla înțelegerea noastră comună a realității.
Înțelegerea amenințării deepfakes
Înainte de a aborda ce pot face organizațiile pentru a combate această creștere a deepfakes, este important să elaborăm asupra motivului pentru care sunt necesare uneltele de protecție. De obicei, cei care se tem de deepfakes menționează efectul lor potențial asupra politicii și încrederii sociale. Aceste consecințe potențiale sunt extrem de importante și nu ar trebui să fie negate în nicio discuție despre deepfakes. Dar, așa cum se întâmplă, apariția acestei tehnologii are efecte potențial dezastruoase în multiple sectoare ale economiei americane.
Să luăm, de exemplu, asigurările. În prezent, frauda anuală cu asigurări în Statele Unite se ridică la 308,6 miliarde de dolari – o sumă de aproximativ o pătrime din întreaga industrie. În același timp, operațiunile de back-end ale majorității companiilor de asigurări sunt din ce în ce mai automate, cu 70% din cererile standard care urmează să fie fără atingere până în 2025. Acest lucru înseamnă că deciziile sunt luate din ce în ce mai mult cu intervenție minimă a omului: auto-servire la capătul frontal și automatizare facilitată de AI la capătul din spate.
Ironia sorții este că tehnologia care a permis această creștere a automatizării – adică învățarea mașinilor și inteligența artificială – a garantat exploatarea acesteia de către actorii răi. Acum este mai ușor ca oricând pentru oamenii obișnuiți să manipuleze cererile – de exemplu, utilizând programe de inteligență artificială generativă precum Dall-E, Midjourney sau Stable Diffusion pentru a face ca o mașină să pară mai deteriorată decât este în realitate. Deja există aplicații care au acest scop, cum ar fi Dude Your Car!, care permite utilizatorilor să creeze artificial găuri în fotografii cu vehiculele lor.
Același lucru se aplică și documentelor oficiale, care pot fi manipulate cu ușurință – facturi, evaluări de asigurare și chiar semnături ajustate sau inventate în întregime. Această capacitate este o problemă nu numai pentru asigurători, ci și pentru întreaga economie. Este o problemă pentru instituțiile financiare, care trebuie să verifice autenticitatea unei game largi de documente. Este o problemă pentru retailerii care pot primi o plângere că un produs a sosit defect, însoțită de o imagine falsificată.
Afacerile nu pot funcționa cu acest nivel de incertitudine. Un anumit nivel de fraudă este probabil întotdeauna inevitabil, dar cu deepfakes, nu vorbim despre fraudă la margine – vorbim despre o potențială catastrofă epistemologică în care afacerile nu au niciun mijloc clar de a distinge adevărul de ficțiune și ajung să piardă miliarde de dolari din cauza acestei confuzii.
Lupta cu focul cu foc: cum poate ajuta inteligența artificială
Ce se poate face pentru a combate acest lucru? Poate nu este surprinzător, răspunsul se află în tehnologia care facilitează deepfakes. Dacă vrem să oprim această plagă înainte să capete și mai multă forță, trebuie să luptăm focul cu foc. Inteligența artificială poate ajuta la generarea de deepfakes, dar poate și să ajute la identificarea lor în mod automat și la scară.
Utilizând instrumentele potrivite de inteligență artificială, afacerile pot determina în mod automat dacă o anumită fotografie, videoclip sau document a fost manipulat. Aducând zeci de modele disparate la sarcina de identificare a falsurilor, inteligența artificială poate spune afacerilor în mod automat dacă o anumită fotografie sau videoclip este suspect. La fel ca instrumentele pe care afacerile le folosesc deja pentru a automatiza operațiunile zilnice, aceste instrumente pot rula în fundal fără a încărca personalul deja supraîncărcat sau a lua timp de la proiecte importante.
Dacă și când o fotografie este identificată ca fiind posibil alterată, personalul uman poate fi alertat și poate evalua problema direct, ajutat de informațiile furnizate de inteligența artificială. Utilizând analiza de scanare profundă, aceasta poate spune afacerilor de ce crede că o fotografie a fost probabil falsificată – indicând, de exemplu, metadate modificate manual, existența unor imagini identice pe web, diverse neregularități fotografice etc.
Nimic din toate acestea nu este menit să denigreze progresele incredibile pe care le-am văzut în tehnologia de inteligență artificială generativă în ultimii ani, care au aplicații utile și productive în întreaga industrie. Dar potențialul și, nu în ultimul rând, simplitatea acestei tehnologii emergente garantează aproape abuzul de către cei care doresc să manipuleze organizații, fie pentru câștig personal, fie pentru a semăna haos social.
Organizațiile pot avea partea bună a ambelor lumi: beneficiile de productivitate ale inteligenței artificiale fără dezavantajele deepfakes omniprezente. Dar pentru a face acest lucru, este necesar un nou grad de vigiliență, mai ales având în vedere faptul că ieșirile inteligenței artificiale generative devin tot mai convingătoare, detaliate și realiste de zi cu zi. Cu cât organizațiile își vor îndrepta atenția asupra acestei probleme, cu atât mai repede vor putea recolta beneficiile depline ale unui lumii automate.










