Inteligență artificială
Deepfakes Pot Fi Folosi Pentru a Înșela Multe API-uri Majore de “Liveness” Faciale

O nouă colaborare de cercetare între Statele Unite și China a examinat susceptibilitatea la deepfakes a unor dintre cele mai mari sisteme de autentificare facială din lume și a constatat că majoritatea acestora sunt vulnerabile la forme de atac deepfake în curs de dezvoltare și emergente.
Cercetarea a efectuat intruziuni bazate pe deepfakes utilizând un cadru personalizat implementat împotriva sistemelor de verificare a “liveness”-ului facial (FLV) care sunt furnizate în mod obișnuit de furnizori importanți și vândute ca serviciu clienților din aval, cum ar fi companiile aeriene și de asigurări.

Din lucrare, o prezentare generală a funcționării API-urilor de verificare a liveness-ului facial (FLV) la principalii furnizori. Sursă: https://arxiv.org/pdf/2202.10673.pdf
Verificarea liveness-ului facial are scopul de a respinge utilizarea unor tehnici precum atacurile de imagine adversă, utilizarea de măști și videoclipuri preînregistrate, așa-numitele “fețe maestre” și alte forme de clonare a identității vizuale.
Studiul concluzionează că numărul limitat de module de detectare a deepfakes implementate în aceste sisteme, care deservește milioane de clienți, sunt departe de a fi infailibile și pot fi configurate pe tehnici de deepfake care sunt acum învechite sau pot fi prea specifice arhitecturii.
Autorii notează:
‘[Diferite] metode de deepfake prezintă variații în cadrul diferiților furnizori… Fără acces la detalii tehnice ale furnizorilor FLV țintă, speculăm că astfel de variații sunt atribuite măsurilor de apărare implementate de diferiți furnizori. De exemplu, anumiți furnizori pot implementa apărări împotriva unor atacuri de deepfake specifice.’
Și continuă:
‘[Majoritatea] API-urilor FLV nu utilizează detectarea anti-deepfake; chiar și pentru cele care au astfel de apărări, eficacitatea este îngrijorătoare (de exemplu, poate detecta videoclipuri sintetizate de înaltă calitate, dar nu poate detecta videoclipuri de calitate scăzută).’
Cercetătorii observă, în acest sens, că “autenticitatea” este relativă:
‘[Chiar dacă] un videoclip sintetizat este ireal pentru oameni, el poate totuși ocoli mecanismul de detectare anti-deepfake cu un nivel de succes foarte ridicat.’
… (restul conținutului, păstrând aceeași structură și formatare)












