škrbina 2024. Deepfake postaje mainstream. Evo kako se tvrtke mogu zaštititi - Unite.AI
Povežite se s nama

Vođe misli

Godine 2024. Deepfakes postaje mainstream. Evo kako se tvrtke mogu zaštititi

mm

Objavljeno

 on

Najmanje od izbora 2016., kada je zabrinutost oko dezinformacija izbila u javnu svijest, stručnjaci oglašavaju uzbunu zbog deepfakea. Posljedice ove tehnologije bile su - i ostale - zastrašujuće. Nekontrolirano širenje hiperrealističnih sintetičkih medija predstavlja prijetnju za svako— od političara do običnih ljudi. U zapaljivom okruženju koje već karakterizira široko rasprostranjeno nepovjerenje, deepfakes su obećavali da će samo još više potpaliti plamen.

Ispostavilo se da su naši strahovi bili preuranjeni. Tehnološko znanje i iskustvo koje je potrebno za stvarno pravljenje deepfakeova, zajedno s njihovom često lošom kvalitetom, značilo je da su najmanje u posljednja dva ciklusa predsjedničkih izbora oni ostali minimalna briga.

Ali sve će se to promijeniti - već se mijenja. Tijekom posljednje dvije godine, generativna AI tehnologija ušla je u mainstream, radikalno pojednostavljujući proces stvaranja deepfakeova za prosječnog potrošača. Te iste inovacije značajno su povećale kvalitetu deepfakeova, tako da u slijepom testu većina ljudi ne bi mogla razlikovati lažirani video od pravog.

Osobito ove godine počeli smo uočavati naznake kako bi ova tehnologija mogla utjecati na društvo ako se ne poduzmu napori za borbu protiv nje. Prošle godine, na primjer, AI-generirana fotografija pape Franje u neobično elegantnom kaputu prešao virusno, a mnogi su ga smatrali autentičnim. Iako bi se ovo moglo činiti, na jednoj razini, kao bezazlena zabava, otkriva opasnu moć ovih lažnih lažiranja i koliko teško može biti obuzdati dezinformacije nakon što se počnu širiti. Možemo očekivati ​​da ćemo u nadolazećim mjesecima i godinama pronaći daleko manje zabavne — i daleko opasnije — primjere ove vrste virusnog lažiranja.

Iz tog je razloga imperativ da organizacije svih vrsta – od medija preko financija do vlada i platformi društvenih medija – zauzmu proaktivan stav prema otkrivanju dubokih lažnih sadržaja i provjeri autentičnosti sadržaja. Potrebno je uspostaviti kulturu povjerenja putem zaštitnih mjera sada, prije nego što plimni val deepfakeova ispere naše zajedničko razumijevanje stvarnosti.

Razumijevanje deepfake prijetnje

Prije nego što se udubimo u ono što organizacije mogu učiniti u borbi protiv ovog porasta deepfakeova, vrijedi razraditi zašto su alati za zaštitu potrebni. Tipično, oni koji su zabrinuti zbog deepfakea navode njihov potencijalni učinak na politiku i društveno povjerenje. Ove potencijalne posljedice iznimno su važne i ne smiju se zanemariti u bilo kojem razgovoru o deepfakeovima. Ali kako to već biva, uspon ove tehnologije ima potencijalno strašne učinke na više sektora američkog gospodarstva.

Uzmite osiguranje, na primjer. Upravo sada, godišnje prijevare u osiguranju u Sjedinjenim Državama iznose do 308.6 milijardi dolara - brojka koja je otprilike jedna četvrtina veće od cijele industrije. Istodobno, pozadinske operacije većine osiguravajućih društava sve su više automatizirane, pri čemu se predviđa da će 70% standardnih šteta biti beskontaktno do 2025. To znači da se odluke sve više donose uz minimalnu ljudsku intervenciju: samoposluživanje na prednji kraj i automatizacija potpomognuta umjetnom inteligencijom na stražnjem kraju.

Ironično, sama tehnologija koja je omogućila ovo povećanje automatizacije – tj. strojno učenje i umjetna inteligencija – zajamčila je njezino iskorištavanje od strane loših aktera. Sada je prosječnoj osobi lakše nego ikad manipulirati potraživanjima—na primjer, korištenjem generativnih AI programa kao što su Dall-E, Midjourney ili Stable Diffusion kako bi automobil izgledao oštećenije nego što jest. Već postoje aplikacije posebno za tu svrhu, kao što je Dude Your Car!, koja korisnicima omogućuje umjetno stvaranje udubljenja na fotografijama svojih vozila.

Isto se odnosi i na službene dokumente, kojima se sada može lako manipulirati—s fakturama, procjenama osiguranja, pa čak i potpisima prilagođenim ili izmišljenim na veliko. Ta sposobnost nije problem samo za osiguravatelje, već i za cijelo gospodarstvo. To je problem za financijske institucije koje moraju provjeriti vjerodostojnost širokog spektra dokumenata. To je problem za trgovce koji mogu primiti pritužbu da je proizvod stigao s nedostatkom, popraćen ispravljenom slikom.

Poduzeća jednostavno ne mogu poslovati s takvim stupnjem neizvjesnosti. Određeni stupanj prijevare je vjerojatno uvijek neizbježan, ali s deepfakeovima, ne govorimo o prijevari na marginama - govorimo o potencijalnoj epistemološkoj katastrofi u kojoj poduzeća nemaju jasna sredstva za određivanje istine od fikcije, i završavaju gubitkom milijardi dolara ovoj zabuni.

Gašenje požara vatrom: kako AI može pomoći

Dakle, što se može učiniti za borbu protiv toga? Možda nije iznenađujuće, odgovor leži u samoj tehnologiji koja omogućuje deepfake. Ako želimo zaustaviti ovu pošast prije nego što dobije veći zamah, protiv vatre se moramo boriti vatrom. Umjetna inteligencija može pomoći u generiranju dubokih krivotvorina — ali također, na sreću, može pomoći u njihovom automatskom identificiranju u velikom broju.

Koristeći prave AI alate, tvrtke mogu automatski utvrditi je li određena fotografija, video ili dokument neovlašteno mijenjan. Dovođenjem desetaka različitih modela na zadatak lažne identifikacije, AI može automatski reći tvrtkama točno jesu li određena fotografija ili video sumnjivi. Poput alata koje tvrtke već upotrebljavaju za automatizaciju dnevnih operacija, ovi alati mogu raditi u pozadini bez opterećivanja preopterećenog osoblja ili oduzimanja vremena važnim projektima.

Ako i kada se fotografija identificira kao potencijalno izmijenjena, ljudsko osoblje tada može biti upozoreno i može izravno procijeniti problem, uz pomoć informacija koje daje AI. Koristeći dubinsku analizu, može reći tvrtkama zašto vjeruje da je fotografija vjerojatno lažirana - upućujući, na primjer, na ručno izmijenjene metapodatke, postojanje identičnih slika na webu, razne fotografske nepravilnosti itd.

Ništa od ovoga ne želi ocrnjivati ​​nevjerojatan napredak koji smo vidjeli u generativnoj AI tehnologiji u posljednjih nekoliko godina, a koji doista ima korisne i produktivne primjene u raznim industrijama. Ali sama moć - da ne spominjemo jednostavnost - ove tehnologije u nastajanju gotovo jamči njezinu zlouporabu od strane onih koji žele manipulirati organizacijama, bilo za osobnu korist ili za sijanje društvenog kaosa.

Organizacije može imaju najbolje od oba svijeta: prednosti produktivnosti umjetne inteligencije bez nedostataka sveprisutnih dubokih lažiranja. Ali za to je potreban novi stupanj opreza, posebno s obzirom na činjenicu da rezultati generativne umjetne inteligencije iz dana u dan postaju sve uvjerljiviji, detaljniji i realističniji. Što prije organizacije obrate pozornost na ovaj problem, prije će moći iskoristiti sve prednosti automatiziranog svijeta.

Nicos Vekiarides je glavni izvršni direktor i suosnivač atestiv. Posljednjih 20 godina proveo je u poslovnom IT-u i oblaku, kao izvršni direktor i poduzetnik, donoseći inovativne nove tehnologije na tržište. Njegov prethodni startup, TwinStrata, inovativna tvrtka za pohranu u oblaku u kojoj je bio pionir pohrane integrirane u oblak za poduzeće, kupio je EMC 2014. Prije toga je na tržište iznio prvi uređaj za virtualizaciju pohrane u industriji za StorageApps, tvrtku koju je kasnije kupio HP.