人工知能
ディープフェイクは多くの主要な顔の「生存性」APIを効果的に欺くことができる

米国と中国の共同研究により、世界最大の顔認証システムの一部がディープフェイクに対する脆弱性を調査し、そのほとんどが新しいディープフェイク攻撃に対して脆弱であることが判明した。
この研究では、カスタムフレームワークを使用して、Facial Liveness Verification (FLV) システムに対するディープフェイクベースの侵入を実施し、メジャーベンダーが提供するFLVシステムが、航空会社や保険会社などの下流クライアントにサービスとして販売されていることがわかった。

論文から、主要プロバイダーでのFacial Liveness Verification (FLV) APIの機能の概要。 ソース: https://arxiv.org/pdf/2202.10673.pdf
顔の生存性は、アドバーサリアル画像攻撃、マスク、事前に録画されたビデオ、「マスターフェイス」、およびその他の視覚IDクローニングなどの技術の使用を阻止することを目的としている。
この研究は、これらのシステムで展開されているディープフェイク検出モジュールの数が限られていること、そしてこれらのモジュールが古いディープフェイク技術に対して構成されている可能性があることを結論付けた。
著者は次のように述べている:
‘[異なる]ディープフェイク方法は、さまざまなベンダー間で変化する… FLVベンダーの技術的な詳細にアクセスできないため、ベンダーが展開する防御対策によってこれらの変化が生じていると推測する。たとえば、特定のベンダーは特定のディープフェイク攻撃に対する防御を展開しているかもしれない.’
さらに続けて、
‘[ほとんどの] FLV APIは、ディープフェイク検出を使用していない。ディープフェイク検出を使用している場合でも、その有効性は懸念される(たとえば、高品質の合成ビデオを検出できるが、低品質のビデオを検出できない)。’
研究者は、この点について「真実性」は相対的なものであると述べている:
‘[合成ビデオが人間には非現実的であっても、現在のディープフェイク検出メカニズムを非常に高い成功率で回避できる。’
…(以下、同じ構造とルールに従って、完全なコンテンツを翻訳してください)












