stub Expert säger att "Perfectly Real" DeepFakes kommer att vara här om 6 månader - Unite.AI
Anslut dig till vårt nätverk!

Artificiell intelligens

Expert säger att "Perfectly Real" DeepFakes kommer att vara här om 6 månader

mm
Uppdaterad on

De imponerande men kontroversiella DeepFakes, bilder och video som manipuleras eller genereras av djupa neurala nätverk, kommer sannolikt att bli både mer imponerande och mer kontroversiella inom en snar framtid, enligt Hao Li, chef för Vision and Graphics Lab vid University of Southern Kalifornien. Li är en datorseende och DeepFakes-expert, och i en nyligen intervju med CNBC han sa att "helt äkta" Deepfakes troligen kommer inom ett halvår.

Li förklarade att de flesta DeepFakes fortfarande känns igen som falska för det verkliga ögat, och även de mer övertygande DeepFakes kräver fortfarande betydande ansträngningar från skaparens sida för att få dem att framstå som realistiska. Li är dock övertygad om att inom sex månader kommer DeepFakes som verkar helt verkliga sannolikt att dyka upp när algoritmerna blir mer sofistikerade.

Li trodde först att det skulle ta mellan två till tre år för extremt övertygande DeepFakes att bli vanligare, och gjorde den förutsägelsen vid en nyligen genomförd konferens vid Massachusetts Institute of Technology. Li reviderade dock sin tidslinje efter avslöjandet av den senaste kinesiska appen Zao och andra senaste utvecklingar rörande DeepFakes-teknik. Li förklarade för CNBC att metoderna som behövs för att skapa realistiska DeepFakes mer eller mindre är den metod som används för närvarande och att huvudingrediensen som kommer att skapa realistiska DeepFakes är mer träningsdata.

Li och hans forskarkollegor har arbetat hårt med DeepFake-detektionsteknologi och väntat på ankomsten av extremt övertygande DeepFakes. Li och hans kollegor, som Hany Farid från University fo California Berkely, experimenterade med toppmoderna DeepFake-algoritmer för att förstå hur tekniken som skapar dem fungerar.

Li förklarade för CNBC:

”Om man vill kunna upptäcka djupförfalskningar måste man också se vad gränserna går. Om du behöver bygga AI-ramverk som är kapabla att upptäcka saker som är extremt verkliga, måste de tränas med den här typen av teknik, så på vissa sätt är det omöjligt att upptäcka dem om du inte vet hur de fungerar.”

Li och hans kollegor har investerat i att skapa verktyg för att upptäcka DeepFakes i erkännande av de potentiella problem och faror som tekniken utgör. Li och kollegor är långt ifrån den enda gruppen av AI-forskare som är bekymrade över de möjliga effekterna av DeepFakes och intresserade av att skapa motåtgärder mot dem.

Nyligen Facebook startade ett gemensamt samarbete med MIT, Microsoft och University of Oxford för att skapa DeepFake Detection Challenge, som syftar till att skapa verktyg som kan användas för att upptäcka när bilder eller videor har ändrats. Dessa verktyg kommer att vara öppen källkod och användbara av företag, medieorganisationer och regeringar. Samtidigt skapade forskare från University of Southern Californias Information Sciences Institute nyligen en serie algoritmer som kunde särskilja falska videor med cirka 96 % noggrannhet.

Men Li förklarade också att problemet med DeepFakes är hur de kan missbrukas, och inte själva tekniken. Li noterade flera legitima möjliga användningsområden för DeepFake-teknik, inklusive inom underhållnings- och modeindustrin.

DeepFake-tekniker har också använts replikera ansiktsuttrycken av människor med sina ansikten mörka på bilder. Forskare använde Generative Adnversail Networks för att skapa ett helt nytt ansikte som hade samma uttryck som ett motiv i en originalbild. Teknikerna som utvecklats av Norges teknisk-naturvetenskapliga universitet kan hjälpa till att återge ansiktsuttryck under intervjuer med känsliga personer som behöver integritet, till exempel whistleblowers. Någon annan skulle kunna låta sitt ansikte användas som stand-in för den som behöver anonymitet, men personens ansiktsuttryck kunde ändå avläsas.

När sofistikeringen av Deepfake-tekniken ökar, kommer de legitima användningsfallen för Deepfakes också att öka. Men faran kommer också att öka, och av denna anledning blir arbetet med att upptäcka DeepFakes som gjorts av Li och andra ännu viktigare.