์ธ๊ณต์ง๋ฅ
๋ฅํ์ดํฌ๋ ๋ง์ ์ฃผ์ ์ผ๊ตด ‘์์ฒด์ธ์ฆ’ API๋ฅผ ํจ๊ณผ์ ์ผ๋ก ์์ผ ์ ์๋ค

미국과 중국의 새로운 연구 협력이 세계에서 가장 큰 얼굴 기반 인증 시스템 중 일부의 딥페이크에 대한 취약성을 조사했으며, 대부분이 개발되고 있는 딥페이크 공격 형태에 취약하다는 것을 발견했다.
이 연구는 일반적으로 주요 벤더가 공급하는 Facial Liveness Verification (FLV) 시스템에 대해 사용자 지정 프레임워크를 사용하여 딥페이크 기반 침입을 수행했으며, 항공사 및 보험 회사와 같은 다운스트림 클라이언트에게 서비스로 판매된다.

논문에서 주요 제공업체의 Facial Liveness Verification (FLV) API의 작동 개요. 출처: https://arxiv.org/pdf/2202.10673.pdf
Facial Liveness는 적대적 이미지 공격, 가면, 사전 녹화된 비디오, 소위 ‘마스터 페이스’ 및 기타 시각적 ID 클로닝 형태와 같은 기술의 사용을 막으려는 목적으로 설계되었다.
이 연구는 이러한 시스템에 배포된 딥페이크 감지 모듈의 수가 제한되어 있으며, 이는 수백만 명의 고객을 خدمت하는 많은 시스템에서 거의 완벽하지 않으며, 구식 딥페이크 기술이나 특정 아키텍처에 특화된 기술로 구성될 수 있다.
저자들은 다음과 같이 언급한다:
‘다른 딥페이크 방법은 다양한 벤더에서 변형을 보여준다… 타겟 FLV 벤더의 기술 세부 정보에 접근할 수 없기 때문에, 이러한 변형은 다양한 벤더가 배포한 방어 조치로 인한 것으로 추측된다. 예를 들어, 특정 벤더는 특정 딥페이크 공격에 대한 방어를 배포할 수 있다.’
그리고 계속해서:
‘대부분의 FLV API는 반 딥페이크 감지를 사용하지 않는다; 이러한 방어를 사용하는 경우에도, 그 효과는 우려스럽다(예: 높은 품질의 합성 비디오를 감지할 수 있지만 낮은 품질의 비디오를 감지하지 못할 수 있다).’
연구자들은 이와 관련하여 ‘진실성’은 상대적이라는 것을 관찰한다:
‘합성 비디오가 인간에게는 비현실적일 수 있지만, 현재의 반 딥페이크 감지 메커니즘을 매우 높은 성공률로 우회할 수 있다.’
… (중략)
결론
논문의 결과와 FLV API의 미래에 대한 시사점은 복잡하며, 저자들은 발견된 문제를 더 잘 이해하기 위해 FLV 개발자에게 도움이 될 수 있는 취약성의 ‘아키텍처’를 만들었다.
추천 사항은 다음과 같다:
‘FLV의 보안 위험은 많은 실제 응용 프로그램에서 普遍적으로 존재하며, 따라서 수백만 명의 최종 사용자의 보안을 위협한다.’
저자들은 또한 사용자에게 요구되는 동작의 수가 증가하면 ‘任何 보안 이익을 가져오지 못한다’는 것을 관찰한다.
さらに, 저자들은 음성 인식과 시각적 얼굴 인식을 결합하는 것은 API 제공업체가 唇 동작과 오디오를 동기화하도록 요구하기 전까지는 무의미한 방어라고 주장한다.
이 논문은 최근 FBI가 비즈니스에 대한 딥페이크 사기 위험에 대한 경고와, 이 기술의 외국인 영향 작전 및 일반적인 공포에 대한 경고를 발행한 지 거의 1년 후에 발표되었다.













