Yapay Zeka
Deepfake'ler Yüzle İlgili Başlıca "Canlılık" API'lerini Etkili Bir Şekilde Kandırabilir

ABD ile Çin arasındaki yeni bir araştırma işbirliği, dünyadaki en büyük yüz tabanlı kimlik doğrulama sistemlerinden bazılarının deepfake saldırılarına karşı duyarlılığını araştırdı ve bunların çoğunun, gelişen ve yeni ortaya çıkan deepfake saldırı biçimlerine karşı savunmasız olduğunu ortaya çıkardı.
Araştırma, genellikle büyük satıcılar tarafından sağlanan ve havayolları ve sigorta şirketleri gibi alt müşterilere bir hizmet olarak satılan Yüz Canlılığı Doğrulama (FLV) sistemlerine karşı konuşlandırılan özel bir çerçeve kullanarak derin sahte tabanlı izinsiz girişler gerçekleştirdi.

Makaleden, Yüz Canlılığı Doğrulaması (FLV) API'lerinin ana sağlayıcılar genelinde işleyişine genel bir bakış. Kaynak: https://arxiv.org/pdf/2202.10673.pdf
Yüz Canlılığı gibi tekniklerin kullanımını engellemeyi amaçlamaktadır. düşmanca görüntü saldırılarıKullanımı, maskeler ve önceden kaydedilmiş video, sözde 'usta yüzler've diğer biçimleri görsel kimlik klonlama.
Çalışma, bu sistemlerde dağıtılan ve çoğu milyonlarca müşteriye hizmet veren sınırlı sayıda deepfake algılama modülünün hatasız olmaktan uzak olduğu ve artık modası geçmiş veya mimariye çok özel olabilecek deepfake teknikleri üzerinde yapılandırılmış olabileceği sonucuna varıyor. .
Yazarlar notu:
'[Farklı] deepfake yöntemleri, farklı tedarikçiler arasında da farklılıklar göstermektedir... Hedef FLV tedarikçilerinin teknik detaylarına erişimimiz olmadığı için, bu farklılıkların farklı tedarikçiler tarafından uygulanan savunma önlemlerinden kaynaklandığını tahmin ediyoruz. Örneğin, belirli tedarikçiler belirli deepfake saldırılarına karşı savunma yöntemleri uygulayabilir.'
Ve devam et:
'[Çoğu] FLV API'si deepfake tespitini kullanmıyor; bu tür savunmalara sahip olanlar için bile etkililikleri endişe verici (örneğin, yüksek kaliteli sentezlenmiş videoları tespit edebilir ancak düşük kaliteli olanları tespit edemez).'
Araştırmacılar bu bağlamda 'özgünlüğün' göreceli olduğunu gözlemliyorlar:
'Sentezlenmiş bir video insanlar için gerçek dışı olsa bile, mevcut derin sahteciliğe karşı tespit mekanizmasını çok yüksek bir başarı oranıyla aşabilir.'

Yukarıda, yazarların deneylerinde kimlik doğrulaması yapılabilen örnek deepfake görseller yer alıyor. Aşağıda ise, kimlik doğrulaması yapılamayan, görünüşe göre çok daha gerçekçi sahte görseller yer alıyor.
Diğer bir bulgu da, jenerik yüz doğrulama sistemlerinin mevcut konfigürasyonunun beyaz erkeklere yönelik olmasıydı. Daha sonra, kadın ve beyaz olmayan kimliklerin doğrulama sistemlerini atlamada daha etkili olduğu ve bu kategorilerdeki müşterileri deepfake tabanlı teknikler yoluyla daha fazla ihlal riski altına soktuğu bulundu.

Rapor, beyaz erkek kimliklerinin en titiz ve doğru şekilde, popüler yüz canlılığı doğrulama API'leri tarafından değerlendirildiğini ortaya koyuyor. Yukarıdaki tabloda kadın ve beyaz olmayan kimliklerin sistemleri atlatmak için daha kolay kullanılabileceğini görüyoruz.
Kağıt bunu gözlemliyor '[Yüz Canlılığı Doğrulaması'nda] belirli bir grup insan için önemli güvenlik riskleri oluşturabilecek önyargılar var.'
Yazarlar ayrıca bir Çin hükümetine, büyük bir Çin havayoluna, Çin'deki en büyük hayat sigortası şirketlerinden birine ve R360Dünyanın en büyük unicorn yatırım gruplarından biri olan , incelenen API'lerin bu kuruluşlar tarafından daha sonraki kullanımlarını aşmada başarı elde ettiklerini bildiriyor.
Çin havayolunda kimlik doğrulamanın başarılı bir şekilde atlatılması durumunda, alt akış API'si, potansiyel deepfake materyaline karşı kanıt olarak kullanıcının 'başını sallamasını' gerektiriyordu; ancak araştırmacılar tarafından geliştirilen ve altı deepfake mimarisini içeren çerçeveye karşı bunun işe yaramadığı kanıtlandı.

Havayolunun kullanıcının baş sallama hareketini değerlendirmesine rağmen, deepfake içerik testi geçmeyi başardı.
Makale, yazarların çalışmayı kabul ettikleri bildirilen ilgili satıcılarla temasa geçtiğini belirtiyor.
Yazarlar, FLV'deki mevcut en son teknolojiye yönelik iyileştirmeler için bir dizi öneri sunuyor; bunlar arasında, kimlik doğrulamanın müşterinin kamera akışından tek bir kareye dayandığı tek görüntü kimlik doğrulamasının ('Görüntü tabanlı FLV') terk edilmesi; görüntü ve ses alanlarında deepfake tespit sistemlerinin daha esnek ve kapsamlı bir şekilde güncellenmesi; kullanıcı videosundaki ses tabanlı kimlik doğrulamanın dudak hareketleriyle senkronize edilmesi gerekliliğinin dayatılması (ki şu anda genel olarak böyle değil); ve kullanıcıların deepfake sistemlerinin şu anda yeniden üretmesinin zor olduğu jest ve hareketleri yapmasının zorunlu kılınması (örneğin, profilin görüntülenme sayısı ve yüzün kısmi karartılması).
The kâğıt başlıklı Görmek Yaşamak mı? Deepfake Çağında Yüz Canlılığı Doğrulamasının Güvenliğini Yeniden Düşünmek, ve ortak baş yazarlar Changjiang Li ve Li Wang ile Pennsylvania Eyalet Üniversitesi, Zhejiang Üniversitesi ve Shandong Üniversitesi'nden diğer beş yazardan geliyor.
Temel Hedefler
Araştırmacılar, araştırmada kripto adlarla anonimleştirilen 'en temsili altı' Yüz Canlılığı Doğrulama (FLV) satıcısını hedef aldı.
Satıcılar şu şekilde temsil edilir: 'BD' ve 'TC' Yüzle ilgili en fazla API çağrısına sahip ve Çin'in yapay zeka bulut hizmetlerinde en büyük paya sahip bir konglomera tedarikçisini temsil ediyoruz; 'Ödev' '[Çin'deki] en büyük genel bulut pazarına sahip tedarikçilerden biri'; 'CW' 'Bilgisayarlı görüş alanında en hızlı büyüme oranına sahip olan ve pazarda lider konuma ulaşan'; 'ST' en büyük bilgisayar görüntü sağlayıcıları arasındadır; Ve 'iFT' Çin'deki en büyük AI yazılım satıcıları arasında numaralar.
Veri ve Mimari
Projeye güç veren temel veriler, Çin inisiyatifinden 625,537 görüntüden oluşan bir veri kümesi içerir. CelebA-SpoofMichigan Eyalet Üniversitesi'nin 2019'daki canlı videolarıyla birlikte SiW-M Veri kümesi.
Tüm deneyler, toplam 2.40 GB çalışır durumda VRAM için 5 TB HDD ile 2640 GB RAM üzerinde çalışan ikiz 4 GHz Intel Xeon E256-4 v1080 CPU ve dört adet düzenlenmiş 44Ti NVIDIA GPU içeren bir sunucu üzerinde gerçekleştirildi.
Altı Bir Arada
Makalenin yazarları tarafından tasarlanan çerçeveye ne ad verilir? Canlı Buggerve FLV sistemlerindeki dört ana savunmaya karşı düzenlenmiş altı adet son teknoloji derin sahte çerçeve içerir.

LiveBugger, çeşitli derin sahte yaklaşımlar içerir ve FLV sistemlerindeki dört ana saldırı vektörüne odaklanır.
Kullanılan altı deepfake çerçevesi şunlardır: Oxford Üniversitesi'nin 2018 X2Face; ABD akademik işbirliği ICface; 2019 İsrail projesinin iki çeşidi FSGAN; İtalyan Birinci Dereceden Yöntem Modeli (FOMM), 2020'nin başından itibaren; ve Pekin Üniversitesi'nin Microsoft Araştırma iş birliği Yüz Değiştirici (Yine de FaceShifter açık kaynak olmadığı için, yazarlar onu yayınlanan mimari ayrıntılarına göre yeniden yapılandırmak zorunda kaldılar).
Bu çerçeveler arasında kullanılan yöntemler arasında, sahte videonun öznelerinin LiveBugger'ın önceki bir değerlendirme modülündeki API kimlik doğrulama gerekliliklerinden çıkarılan ezberlenmiş eylemleri gerçekleştirdiği önceden işlenmiş videonun kullanımı ve ayrıca bir bireyin canlı hareketlerini, ele geçirilmiş bir web kamerası akışına yerleştirilmiş derin sahte bir akışa dönüştüren etkili 'derin sahtecilik' kullanımı yer almaktadır.
İkincisine bir örnek DerinYüzCanlı, Hangi geçen yaz giriş yaptı popüler bir ek program olarak Derin Yüz Laboratuvarı, gerçek zamanlı deepfake akışını mümkün kılmak için, ancak yazarların araştırmasına dahil edilmemiştir.
Dört Vektöre Saldırı
Tipik bir FLV sistemindeki dört saldırı vektörü şunlardır: görüntü tabanlı FLVSistemde kayıtlı yüz kimliğine karşı kimlik doğrulama belirteci olarak tek bir kullanıcı tarafından sağlanan fotoğrafı kullanan; sessizlik tabanlı FLV, kullanıcının kendi video klibini yüklemesini gerektirir; eylem tabanlı FLVkullanıcının platform tarafından dikte edilen eylemleri gerçekleştirmesini gerektiren; Ve ses tabanlı FLV, kullanıcının istemli konuşmasını, o kullanıcının konuşma kalıbına ait sistem veritabanı girdisiyle eşleştirir.
Sistem için ilk zorluk, bir API'nin gereksinimlerini ne ölçüde ifşa edeceğini belirlemektir, çünkü bunlar daha sonra öngörülebilir ve deepfaking sürecinde karşılanabilir. Bu, halka açık API belgelerinden ve diğer kaynaklardan gereksinimler hakkında bilgi toplayan LiveBugger'daki Intelligence Engine tarafından gerçekleştirilir.
Yayımlanmış gereksinimler (çeşitli nedenlerle) API'nin gerçek rutinlerinde bulunmayabileceğinden, Intelligence Engine, keşifsel API çağrılarının sonuçlarına dayanarak örtük bilgi toplayan bir araştırma aracı içerir. Araştırma projesinde bu, geliştiricilerin yararına sağlanan resmi çevrimdışı "test" API'leri ve test için kendi canlı hesaplarını kullanmayı teklif eden gönüllüler tarafından kolaylaştırılmıştır.
Intelligence Engine, bir API'nin şu anda saldırılarda yararlı olabilecek belirli bir yaklaşımı kullanıp kullanmadığına ilişkin kanıt arar. Bu türden özellikler şunları içerebilir: tutarlılık tespiti, bir videodaki karelerin geçici olarak sürekli olup olmadığını kontrol eder - karıştırılmış video kareleri göndererek ve bunun kimlik doğrulama hatasına katkıda bulunup bulunmadığını gözlemleyerek belirlenebilen bir gereklilik.
Modül ayrıca şunları da arar: Dudak Dili Tespiti, burada API videodaki sesin olup olmadığını kontrol edebilir. kullanıcının dudak hareketlerine senkronize (nadiren böyle bir durum söz konusu olabilir – aşağıdaki 'Sonuçlar'a bakınız).
ÇIKTILAR
Yazarlar, değerlendirilen altı API'nin deneyler sırasında tutarlılık tespitini kullanmadığını ve LiveBugger'daki deepfaker motorunun, gönüllülerin katkıda bulunduğu materyale dayalı olarak sentezlenmiş sesi derin sahte video ile basitçe birleştirmesine izin verdiğini buldu.
Bununla birlikte, bazı aşağı akış uygulamalarının (yani API çerçevelerinin müşterileri), sürece tutarlılık tespiti eklediği ve bunun üstesinden gelmek için özel olarak hazırlanmış bir videonun önceden kaydedilmesini gerektirdiği bulundu.
Ek olarak, API satıcılarından yalnızca birkaçı dudak dili algılamayı kullanır; çoğu için video ve ses ayrı nicelikler olarak analiz edilir ve dudak hareketini sağlanan sesle eşleştirmeye çalışan hiçbir işlevsellik yoktur.

FLV API'lerindeki çeşitli saldırı vektörlerine karşı LiveBugger'da bulunan sahte teknikleri kapsayan çeşitli sonuçlar. Daha yüksek sayılar, derin sahte teknikler kullanılarak FLV'ye sızmada daha yüksek bir başarı oranını gösterir. Tüm API'ler, FLV için olası tüm savunmaları içermez; örneğin, birçoğu derin sahtekarlıklara karşı herhangi bir savunma sunmazken, diğerleri kimlik doğrulama sırasında kullanıcı tarafından gönderilen videodaki dudak hareketi ve ses eşleşmesini kontrol etmez.
Sonuç
Makalenin sonuçları ve FLV API'lerinin geleceğine ilişkin göstergeleri karmaşıktır ve yazarlar bunları, FLV geliştiricilerinin ortaya çıkarılan bazı sorunları daha iyi anlamalarına yardımcı olabilecek işlevsel bir 'güvenlik açığı mimarisi'ne bağlamıştır.

Makalenin, yüz tabanlı video tanımlama rutinlerinin deepfake saldırılarına karşı mevcut ve potansiyel duyarlılığına ilişkin öneriler ağı.
Tavsiye notu:
'FLV'nin güvenlik riskleri birçok gerçek dünya uygulamasında yaygın olarak mevcuttur ve bu nedenle milyonlarca son kullanıcının güvenliğini tehdit etmektedir'
Yazarlar ayrıca eylem tabanlı FLV kullanımının 'sınırlı' olduğunu ve kullanıcıların gerçekleştirmesi gereken eylem sayısını artırmanın 'herhangi bir güvenlik kazancı sağlayamayacağını' gözlemliyorlar.
Ayrıca yazarlar, API sağlayıcıları dudak hareketlerinin sesle senkronize edilmesini talep etmeye başlamadıkça, ses tanıma ve geçici yüz tanımayı (videoda) birleştirmenin sonuçsuz bir savunma olduğunu belirtiyorlar.
Makale, FBI'ın, yabancı etki operasyonlarında bu teknolojinin kullanılacağına dair kehanetinden yaklaşık bir yıl sonra, iş dünyasına deepfake dolandırıcılığının tehlikeleri konusunda yaptığı son uyarının ışığında geldi ve genel korkular canlı deepfake teknolojisi, video kimlik doğrulama güvenlik mimarilerine hala güvenen bir halk üzerinde yeni bir suç dalgasını kolaylaştıracak.
Bunlar, bir kimlik doğrulama saldırı yüzeyi olarak deepfake'in hâlâ ilk günleri; 2020'de 35 milyon dolar oldu hileli olarak çıkarılan derin sahte ses teknolojisi kullanılarak BAE'deki bir bankadan ve aynı şekilde bir İngiliz yönetici dolandırılarak 243,000 $ harcadı. 2019 yılında.
İlk olarak 23 Şubat 2022'de yayınlandı.