부본 딥페이크란? - Unite.AI
Rescale 미팅 예약

AI 101

딥페이크란?

mm
업데이트 on

딥페이크를 만들기가 더 쉬워지고 그 수가 많아지면서 딥페이크에 더 많은 관심이 쏠리고 있습니다. 딥페이크는 AI 윤리, 잘못된 정보, 정보 및 인터넷의 개방성, 규제와 관련된 논의의 초점이 되었습니다. 딥페이크에 관한 정보를 얻고 딥페이크가 무엇인지 직관적으로 이해하는 것은 유익합니다. 이 기사에서는 딥페이크의 정의를 명확히 하고, 딥페이크의 사용 사례를 검토하고, 딥페이크를 탐지하는 방법을 논의하고, 딥페이크가 사회에 미치는 영향을 검토할 것입니다.

딥페이크란 무엇입니까?

딥페이크에 대해 더 논의하기 전에 시간을 내어 명확히 하는 것이 도움이 될 것입니다. "딥페이크"가 실제로 무엇인지. Deepfake라는 용어와 관련하여 상당한 혼란이 있으며, 실제 Deepfake인지 여부에 관계없이 위조된 미디어에 이 용어가 잘못 적용되는 경우가 많습니다. Deepfake 자격을 얻으려면 문제의 가짜 미디어가 기계 학습 시스템, 특히 심층 신경망으로 생성되어야 합니다.

딥페이크의 핵심 요소는 머신러닝입니다. 기계 학습을 통해 컴퓨터는 상대적으로 빠르고 쉽게 비디오와 오디오를 자동으로 생성할 수 있게 되었습니다. 심층 신경망은 네트워크가 목표 환경 조건에서 사람들이 어떻게 보이고 움직이는지 학습하기 위해 실제 사람의 영상을 훈련받습니다. 훈련된 네트워크는 다른 개인의 이미지에 사용되며 추가적인 컴퓨터 그래픽 기술로 보강되어 새로운 인물과 원본 영상을 결합합니다. 인코더 알고리즘은 원본 얼굴과 대상 얼굴 간의 유사성을 결정하는 데 사용됩니다. 얼굴의 공통 특징이 분리되면 디코더라는 두 번째 AI 알고리즘이 사용됩니다. 디코더는 인코딩된(압축된) 이미지를 검사하고 원본 이미지의 특징을 기반으로 재구성합니다. 두 개의 디코더가 사용되는데, 하나는 원래 대상의 얼굴에, 다른 하나는 대상 사람의 얼굴에 사용됩니다. 교환이 이루어지기 위해 사람 X의 이미지에 대해 훈련된 디코더에는 사람 Y의 이미지가 제공됩니다. 결과적으로 사람 Y의 얼굴은 사람 X의 얼굴 표정과 방향에 따라 재구성됩니다.

현재 딥페이크를 만드는 데는 여전히 상당한 시간이 걸립니다. 모조품 제작자는 모형의 매개변수를 수동으로 조정하는 데 오랜 시간을 소비해야 합니다. 차선의 매개변수는 눈에 띄는 결함과 모조품의 진정한 본질을 드러내는 이미지 결함으로 이어질 수 있기 때문입니다.

대부분의 딥페이크는 생성적 적대 신경망(GAN), 요즘 생성된 많은 (아마도 대부분의) 딥페이크는 GAN에 의존하지 않습니다. SUNY Buffalo의 Siwei Lyu에 따르면 GAN은 초기 딥페이크 생성에 중요한 역할을 했지만 대부분의 딥페이크 비디오는 대체 방법을 통해 생성됩니다.

GAN을 훈련하기 위해서는 불균형적으로 많은 양의 훈련 데이터가 필요하며 GAN은 다른 이미지 생성 기술에 비해 이미지를 렌더링하는 데 훨씬 더 오래 걸리는 경우가 많습니다. GAN은 프레임 간 일관성을 유지하는 데 어려움이 있기 때문에 비디오보다 정적 이미지를 생성하는 데에도 더 좋습니다. 인코더와 여러 디코더를 사용하여 딥페이크를 만드는 것이 훨씬 일반적입니다.

Deepfakes는 무엇에 사용됩니까?

온라인에서 발견되는 많은 딥페이크는 본질적으로 포르노입니다. AI 회사인 Deeptrace가 수행한 연구에 따르면 15,000년 2019월에 촬영된 약 95개의 딥페이크 비디오 샘플 중 약 XNUMX%가 포르노물이었습니다. 이 사실이 암시하는 문제는 기술이 사용하기 쉬워짐에 따라 가짜 리벤지 포르노 사건이 증가할 수 있다는 것입니다.

그러나 모든 딥 페이크가 본질적으로 음란물인 것은 아닙니다. 딥페이크 기술에 대한 보다 합법적인 용도가 있습니다. 오디오 딥페이크 기술은 사람들이 질병이나 부상으로 인해 손상되거나 손실된 후 일반 음성을 방송하는 데 도움이 될 수 있습니다. Deepfakes는 민감하고 잠재적으로 위험한 상황에 처한 사람들의 얼굴을 숨기는 동시에 그들의 입술과 표정을 읽을 수 있도록 하는 데에도 사용할 수 있습니다. Deepfake 기술은 잠재적으로 외국어 영화의 더빙을 개선하고 오래되고 손상된 미디어를 복구하며 새로운 스타일의 예술을 만드는 데 사용될 수 있습니다.

동영상이 아닌 딥페이크

대부분의 사람들은 "딥페이크"라는 용어를 들으면 페이크 비디오를 생각하지만 페이크 비디오는 딥페이크 기술로 제작된 페이크 미디어의 유일한 종류가 아닙니다. Deepfake 기술은 사진 및 오디오 가짜를 만드는 데에도 사용됩니다. 앞서 언급했듯이 GAN은 가짜 이미지를 생성하는 데 자주 사용됩니다. 딥페이크 알고리즘으로 생성된 프로필 이미지가 있는 가짜 링크드인, 페이스북 프로필 사례가 많이 있었던 것으로 생각됩니다.

오디오 딥페이크도 만들 수 있습니다. 심층 신경망은 유명인과 정치인을 포함하여 다양한 사람들의 음성 복제/음성 스킨을 생성하도록 훈련되었습니다. 오디오 Deepfake의 한 가지 유명한 예는 AI 회사인 Dessa가 AI 모델을 활용한 비 AI 알고리즘에 의해 지원되어 팟캐스트 진행자 Joe Rogan의 목소리를 재현합니다.

딥페이크를 발견하는 방법

딥페이크가 점점 더 정교해짐에 따라 정품 미디어와 구별하기가 점점 더 어려워질 것입니다. 현재 몇 가지 명백한 징후 사람들은 동영상이 잘못된 립싱크, 부자연스러운 움직임, 얼굴 가장자리 주위의 깜박임, 머리카락, 치아 또는 반사와 같은 미세한 세부 사항의 뒤틀림과 같은 잠재적으로 딥페이크인지 확인할 수 있습니다. 딥페이크의 다른 잠재적인 징후로는 동일한 비디오의 저품질 부분과 불규칙한 눈 깜박임이 있습니다.

이러한 징후는 현재 딥페이크를 발견하는 데 도움이 될 수 있지만 딥페이크 기술이 향상됨에 따라 신뢰할 수 있는 딥페이크 감지를 위한 유일한 옵션은 가짜와 실제 미디어를 구별하도록 훈련된 다른 유형의 AI일 수 있습니다.

많은 대형 기술 회사를 포함한 인공 지능 회사는 딥 페이크를 탐지하는 방법을 연구하고 있습니다. 지난 XNUMX월 Amazon, Facebook 및 Microsoft의 세 거대 기술 기업이 지원하는 딥페이크 감지 챌린지가 시작되었습니다. 전 세계의 연구팀은 딥페이크를 탐지하는 방법에 대해 연구했으며 최고의 탐지 방법을 개발하기 위해 경쟁했습니다. Google과 Jigsaw의 공동 연구원 그룹과 같은 다른 연구원 그룹은 변경된 동영상을 감지할 수 있는 일종의 "얼굴 포렌식"을 연구하고 있습니다. 데이터 세트를 오픈 소스로 만들기 다른 사람들이 딥 페이크 탐지 방법을 개발하도록 장려합니다. 앞서 언급한 Dessa는 딥페이크 탐지 기술을 개선하여 탐지 모델이 오픈 소스 데이터세트와 같이 미리 구성된 교육 및 테스트 데이터세트가 아니라 인터넷에서 발견된 야생에서 발견된 딥페이크 비디오에서 작동하도록 노력했습니다. 구글 제공.

도 있습니다 다른 전략 딥 페이크의 확산을 처리하기 위해 조사되고 있습니다. 예를 들어 다른 정보 소스와 일치하는지 비디오를 확인하는 것이 하나의 전략입니다. 다른 각도에서 촬영한 이벤트의 비디오를 검색하거나 비디오의 배경 세부 정보(예: 날씨 패턴 및 위치)에서 불일치를 확인할 수 있습니다. 이 이상, 블록체인 온라인 원장 시스템 파생 동영상이 항상 조작 여부를 확인할 수 있도록 원본 오디오 및 이미지를 유지하면서 처음 생성될 때 동영상을 등록할 수 있습니다.

궁극적으로 딥페이크를 탐지하는 신뢰할 수 있는 방법을 만들고 이러한 탐지 방법이 딥페이크 기술의 최신 발전을 따라가는 것이 중요합니다. 딥페이크의 영향이 무엇인지 정확히 알기는 어렵지만 딥페이크(및 기타 형태의 가짜 미디어)를 탐지하는 신뢰할 수 있는 방법이 없다면 잘못된 정보가 잠재적으로 만연하고 사회와 기관에 대한 사람들의 신뢰를 떨어뜨릴 수 있습니다.

딥페이크의 의미

확인되지 않은 딥 페이크가 확산되도록 허용하는 위험은 무엇입니까?

현재 딥페이크가 만드는 가장 큰 문제 중 하나는 사람들의 얼굴을 포르노 비디오 및 이미지와 결합하여 조작된 동의 없는 포르노입니다. AI 윤리학자들은 딥페이크가 가짜 리벤지 포르노 제작에 더 많이 사용될 것이라고 우려하고 있습니다. 이 외에도 딥페이크는 사람들을 논쟁의 여지가 있고 타협적인 시나리오에 배치하는 데 사용될 수 있기 때문에 거의 모든 사람을 괴롭히고 평판을 손상시키는 데 사용될 수 있습니다.

기업과 사이버 보안 전문가들은 사기, 사기 및 갈취를 조장하기 위해 딥페이크를 사용하는 것에 대해 우려를 표명했습니다. 혐의로 딥 페이크 오디오가 직원을 설득하는 데 사용 사기꾼에게 돈을 송금하는 회사의

딥페이크는 위에 나열된 것 이상으로 유해한 영향을 미칠 수 있습니다. 딥페이크는 일반적으로 미디어에 대한 사람들의 신뢰를 잠식하고 사람들이 실제 뉴스와 가짜 뉴스를 구별하기 어렵게 만들 수 있습니다. 웹에 있는 많은 비디오가 가짜인 경우 정부, 회사 및 기타 단체가 정당한 논쟁과 비윤리적 관행에 의심을 던지기가 더 쉬워집니다.

정부의 경우 딥페이크는 민주주의 운영에 위협이 될 수도 있습니다. 민주주의는 시민들이 신뢰할 수 있는 정보를 기반으로 정치인에 대해 정보에 입각한 결정을 내릴 수 있도록 요구합니다. 잘못된 정보는 민주적 절차를 저해합니다. 예를 들어, 가봉의 알리 봉고 대통령은 가봉 시민들을 안심시키기 위해 비디오에 출연했습니다. 오랜 기간 몸이 좋지 않은 것으로 추정되는 대통령이 갑자기 모습을 드러냈다. 가짜 동영상이 쿠데타 시도를 촉발했습니다. 도널드 트럼프 대통령은 자신이 여성의 성기를 잡은 것에 대해 자랑하는 오디오 녹음이 있다고 주장했습니다. 가짜였다, "라커룸 토크"라고도 설명하지만. 앤드류 왕자도 Emily Maitilis의 변호사가 제공한 이미지가 가짜라고 주장했습니다., 변호사는 진위를 주장했지만.

궁극적으로 딥페이크 기술에 대한 합법적인 사용이 있지만 해당 기술의 오용으로 인해 발생할 수 있는 많은 잠재적 피해가 있습니다. 이러한 이유로 미디어의 진정성을 판단하는 방법을 만들고 유지하는 것이 매우 중요합니다.

전문 분야의 블로거 및 프로그래머 기계 학습 깊은 학습 주제. 다니엘은 다른 사람들이 사회적 이익을 위해 AI의 힘을 사용하도록 돕기를 희망합니다.