ciot În 2024, Deepfake-urile devin mainstream. Iată cum se pot proteja companiile - Unite.AI
Conectează-te cu noi

Liderii gândirii

În 2024, Deepfake-urile devin mainstream. Iată cum se pot proteja companiile

mm

Publicat

 on

Cel puțin de la alegerile din 2016, când preocupările legate de dezinformare au izbucnit în conștiința publicului, experții au tras un semnal de alarmă cu privire la deepfakes. Implicațiile acestei tehnologii au fost – și rămân – terifiante. Proliferarea necontrolată a mediilor sintetice hiper-realiste reprezintă o amenințare pentru toată lumea— de la politicieni la oamenii obișnuiți. Într-un mediu combustibil deja caracterizat de o neîncredere larg răspândită, deepfake-urile promiteau doar să aprindă flăcările și mai mult.

După cum se dovedește, temerile noastre au fost premature. Know-how-ul tehnologic necesar pentru a face efectiv deepfake-uri, împreună cu calitatea lor adesea necorespunzătoare, au făcut ca cel puțin pentru ultimele două cicluri ale alegerilor prezidențiale, acestea să rămână o preocupare minimă.

Dar toate acestea sunt pe cale să se schimbe – se schimbă deja. În ultimii doi ani, tehnologia AI generativă a intrat în curent, simplificând radical procesul de creare a deepfake-urilor pentru consumatorul mediu. Aceleași inovații au crescut semnificativ calitatea deepfake-urilor, astfel încât, într-un test orb, majoritatea oamenilor nu ar putea distinge un videoclip falsificat de cel real.

Anul acesta, în special, am început să vedem indicii despre modul în care această tehnologie ar putea afecta societatea dacă nu se depun eforturi pentru a o combate. Anul trecut, de exemplu, o fotografie generată de inteligență artificială a Papei Francisc purtând o haină neobișnuit de elegantă a devenit viral, și a fost considerat de mulți ca fiind autentic. Deși acest lucru ar putea părea, la un nivel, ca un pic de distracție inofensiv, dezvăluie potența periculoasă a acestor deepfake-uri și cât de greu poate fi să reducă dezinformarea odată ce a început să se răspândească. Ne putem aștepta să găsim cazuri mult mai puțin amuzante – și mult mai periculoase – ale acestui tip de falsificare virală în lunile și anii următori.

Din acest motiv, este imperativ ca organizațiile de orice tip – de la mass-media la finanțare la guverne la platformele de social media – să adopte o atitudine proactivă față de detectarea deepfake-ului și verificarea autenticității conținutului. Trebuie stabilită o cultură a încrederii prin garanții acum, înainte ca un val de deepfake să ne poată spăla înțelegerea comună a realității.

Înțelegerea amenințării deepfake

Înainte de a explora ce pot face organizațiile pentru a combate această creștere a deepfake-urilor, merită să detaliem exact de ce sunt necesare instrumentele de protecție. De obicei, cei preocupați de deepfakes citează efectul lor potențial asupra politicii și încrederii societății. Aceste consecințe potențiale sunt extrem de importante și nu trebuie neglijate în nicio conversație despre deepfakes. Dar, așa cum se întâmplă, creșterea acestei tehnologii are potențial efecte grave în mai multe sectoare ale economiei SUA.

Luați asigurarea, de exemplu. În prezent, frauda anuală în asigurări în Statele Unite se ridică la 308.6 miliarde de dolari – un număr cu aproximativ un sfert mai mare decât întreaga industrie. În același timp, operațiunile de back-end ale majorității companiilor de asigurări sunt din ce în ce mai automatizate, cu 70% din daune standard proiectate a fi fără atingere până în 2025. Ceea ce înseamnă aceasta este că deciziile sunt luate din ce în ce mai mult cu intervenție umană minimă: autoservire pe front end și automatizare facilitată de AI pe partea din spate.

În mod ironic, însăși tehnologia care a permis această creștere a automatizării, adică învățarea automată și inteligența artificială, a garantat exploatarea acesteia de către actori răi. Acum este mai ușor ca niciodată pentru o persoană obișnuită să manipuleze reclamațiile – de exemplu, folosind programe AI generative precum Dall-E, Midjourney sau Stable Diffusion pentru a face o mașină să pară mai deteriorată decât este. Există deja aplicații special pentru acest scop, cum ar fi Dude Your Car!, care permite utilizatorilor să creeze în mod artificial lovituri în fotografiile vehiculelor lor.

Același lucru este valabil și pentru documentele oficiale, care pot fi acum ușor manipulate - cu facturi, evaluări de subscriere și chiar semnături ajustate sau inventate en gros. Această capacitate este o problemă nu doar pentru asigurători, ci și în întreaga economie. Este o problemă pentru instituțiile financiare, care trebuie să verifice autenticitatea unei game largi de documente. Este o problemă pentru comercianții cu amănuntul, care pot primi o plângere că un produs a sosit defect, însoțită de o imagine falsificată.

Afacerile pur și simplu nu pot funcționa cu acest grad de incertitudine. Un anumit grad de fraudă este probabil întotdeauna inevitabil, dar cu deepfake-urile, nu vorbim despre fraudă la margine – vorbim despre o potențială catastrofă epistemologică în care companiile nu au mijloace clare de a determina adevărul din ficțiune și ajung să piardă miliarde de dolari la această confuzie.

Combaterea focului cu focul: cum poate ajuta AI

Deci, ce se poate face pentru a combate acest lucru? Poate deloc surprinzător, răspunsul constă în însăși tehnologia care facilitează deepfake-urile. Dacă vrem să oprim acest flagel înainte ca acesta să capete mai mult impuls, trebuie să luptăm cu focul. AI poate ajuta la generarea de deepfakes, dar, din fericire, poate ajuta la identificarea lor automată și la scară.

Folosind instrumentele AI potrivite, companiile pot determina automat dacă o anumită fotografie, videoclip sau document a fost modificată. Aducând zeci de modele disparate în sarcina identificării false, inteligența artificială poate spune automat companiilor cu precizie dacă o anumită fotografie sau un videoclip este suspect. Asemenea instrumentelor pe care companiile le implementează deja pentru a automatiza operațiunile zilnice, aceste instrumente pot rula în fundal fără a îngreuna personalul supraîncărcat sau a lua timp departe de proiectele importante.

Dacă și când o fotografie este identificată ca fiind potențial alterată, personalul uman poate fi alertat și poate evalua problema în mod direct, ajutat de informațiile furnizate de AI. Folosind analiza de scanare profundă, poate spune companiilor de ce se crede că o fotografie a fost probabil manipulată – indicând, de exemplu, metadate modificate manual, existența unor imagini identice pe web, diverse nereguli fotografice etc.

Nimic din toate acestea nu este pentru a denigra progresele incredibile pe care le-am văzut în tehnologia AI generativă în ultimii ani, care într-adevăr au aplicații utile și productive în toate industriile. Dar însăși potența – ca să nu mai vorbim de simplitate – a acestei tehnologii emergente aproape că garantează abuzul ei de către cei care doresc să manipuleze organizațiile, fie pentru câștig personal, fie pentru a semăna haosul societal.

Organizaţii poate să au ce este mai bun din ambele lumi: beneficiile de productivitate ale AI fără dezavantajele deepfake-urilor omniprezente. Dar pentru a face acest lucru necesită un nou grad de vigilență, mai ales având în vedere faptul că rezultatele AI generative devin din ce în ce mai persuasive, detaliate și mai realiste pe zi ce trece. Cu cât organizațiile își îndreaptă mai devreme atenția asupra acestei probleme, cu atât mai devreme pot profita de toate beneficiile unei lumi automatizate.

Nicos Vekiarides este directorul executiv și co-fondator al atestat. El și-a petrecut ultimii 20 de ani în IT și cloud pentru întreprinderi, în calitate de CEO și antreprenor, aducând noi tehnologii inovatoare pe piață. Startup-ul său anterior, TwinStrata, o companie inovatoare de stocare în cloud, în care a fost pionierul stocării integrate în cloud pentru întreprindere, a fost achiziționată de EMC în 2014. Înainte de aceasta, a scos pe piață primul dispozitiv de virtualizare a stocării din industrie pentru StorageApps, o companie achiziționată ulterior de către HP.