Tekoäly
Deepfakes Voivat Tehokkaasti Petkuttaa Monia Suuria Kasvojen ‘Elävyyden’ API:ja

Uusi tutkimusyhteistyö Yhdysvaltojen ja Kiinan välillä on tutkinut joitain maailman suurimpien kasvojen perusteella tapahtuvien todennusjärjestelmien haavoittuvuutta deepfake-hyökkäyksille ja havainnut, että useimmat niistä ovat alttiita kehittyville ja uusille deepfake-hyökkäysmuodoille.
Tutkimus suoritettiin deepfake-pohjaisia hyökkäyksiä käyttäen mukautettua kehystä, joka käytettiin kasvojen elävyyden todennusjärjestelmiä (FLV) vastaan, jotka ovat yleisesti suurten toimittajien toimittamia ja myytäviä palveluna alihankkijoille, kuten lentoyhtiöille ja vakuutusyhtiöille.

Tutkimuksesta, yleiskatsaus siitä, miten Kasvojen Elävyyden Todennus (FLV) -rajapinnat toimivat suurten toimittajien keskuudessa. Lähde: https://arxiv.org/pdf/2202.10673.pdf
Kasvojen elävyyden tarkoituksena on estää tekniikoiden, kuten vastakkaisen kuvan hyökkäysten, naamioiden ja esitallennettujen videoiden, niin kutsuttujen “mestarikasvojen” ja muiden visuaalisen tunnistamisen kloonaamisen muotojen, käyttö.
Tutkimus johtaa siihen, että rajoitettu määrä deepfake-tunnistusmoduleja, jotka on käytössä näissä järjestelmissä, joista useimmat palvelevat miljoonia asiakkaita, eivät ole välttämättä täydellisiä, ja ne saattavat olla määritetty deepfake-tekniikoille, jotka ovat jo vanhentuneita tai saattavat olla liian arkkitehtuuriin sidottuja.
Kirjoittajat toteavat:
‘[Eri] deepfake-menetelmät näyttävät vaihtelevan eri toimittajien välillä… Ilman pääsyä kohde-FLV-toimittajien teknisiin yksityiskohtiin, spekuloidaan, että tällaiset vaihtelut johtuvat puolustuskeinoista, jotka eri toimittajat ovat käyttäneet. Esimerkiksi tietyt toimittajat voivat käyttää puolustuksia tiettyjä deepfake-hyökkäyksiä vastaan.’
Ja jatkavat:
‘[Useimmat] FLV-rajapinnat eivät käytä anti-deepfake-tunnistusta; jopa niillä, joilla on tällaiset puolustukset, niiden tehokkuus on huolestuttavaa (esim. se voi havaita laadukkaita syntetisoituja videoita, mutta epäonnistua havaitsemaan huonolaatuisia yhdistelmiä).’
Tutkijat huomaavat, että ‘aidonus’ on suhteellista:
‘[Vaikka] syntetisoitu video on epätodellinen ihmisille, se voi silti kiertää nykyisen anti-deepfake-tunnistusmekanismin hyvin suurella onnistumisprosentilla.’
… (rest of the translation remains the same, following the exact structure and formatting of the original)












