인공지능
딥페이크란 무엇인가?

딥페이크가 만들기 쉬워지고 더욱 흔해짐에 따라, 이에 대한 관심도 높아지고 있습니다. 딥페이크는 AI 윤리, 허위 정보, 정보와 인터넷의 개방성, 규제에 관한 논의의 초점이 되었습니다. 딥페이크에 대해 정보를 알고, 딥페이크가 무엇인지 직관적으로 이해하는 것이 중요합니다. 이 글은 딥페이크의 정의를 명확히 하고, 사용 사례를 살펴보며, 딥페이크를 어떻게 탐지할 수 있는지 논의하고, 딥페이크가 사회에 미치는 영향을 검토할 것입니다.
딥페이크란 무엇인가?
딥페이크에 대해 더 논의하기 전에, 시간을 내어 “딥페이크”가 실제로 무엇인지 명확히 하는 것이 도움이 될 것입니다. 딥페이크라는 용어에 대해 상당한 혼란이 있으며, 종종 이 용어는 진짜 딥페이크인지 여부와 관계없이 모든 조작된 미디어에 오용되곤 합니다. 딥페이크로 인정받기 위해서는, 해당 조작 미디어가 머신러닝 시스템, 특히 딥 뉴럴 네트워크를 사용해 생성되어야 합니다. 딥페이크의 핵심 요소는 머신러닝입니다. 머신러닝은 컴퓨터가 비교적 빠르고 쉽게 비디오와 오디오를 자동 생성할 수 있게 했습니다. 딥 뉴럴 네트워크는 실제 사람의 영상으로 훈련되어, 네트워크가 대상 환경 조건에서 사람들이 어떻게 보이고 움직이는지 학습하게 됩니다. 훈련된 네트워크는 다른 개인의 이미지에 적용되고, 새로운 사람을 원본 영상과 결합하기 위해 추가적인 컴퓨터 그래픽 기법으로 보강됩니다. 인코더 알고리즘은 원본 얼굴과 대상 얼굴의 유사성을 결정하는 데 사용됩니다. 얼굴의 공통 특징이 분리되면, 디코더라는 두 번째 AI 알고리즘이 사용됩니다. 디코더는 인코딩(압축)된 이미지를 검사하고 원본 이미지의 특징을 기반으로 이를 재구성합니다. 두 개의 디코더가 사용되며, 하나는 원본 대상의 얼굴에, 두 번째는 대상 인물의 얼굴에 사용됩니다. 얼굴을 교체하기 위해, 사람 X의 이미지로 훈련된 디코더에 사람 Y의 이미지가 입력됩니다. 그 결과는 사람 Y의 얼굴이 사람 X의 표정과 방향 위에 재구성되는 것입니다. 현재, 딥페이크를 만드는 데는 상당한 시간이 여전히 걸립니다. 조작물 제작자는 모델의 매개변수를 오랜 시간 수동으로 조정해야 하는데, 최적이 아닌 매개변수는 눈에 띄는 결함과 이미지 글리치를 초래하여 가짜의 진짜 본질을 드러내기 때문입니다. 대부분의 딥페이크가 생성적 적대 신경망(GAN)이라는 유형의 신경망으로 만들어졌다고 종종 가정되지만, 요즘 만들어지는 많은(아마도 대부분의) 딥페이크는 GAN에 의존하지 않습니다. GAN이 초기 딥페이크 제작에서 두드러진 역할을 했지만, SUNY Buffalo의 Siwei Lyu에 따르면 대부분의 딥페이크 비디오는 대체 방법을 통해 생성됩니다. GAN을 훈련시키기 위해서는 불균형적으로 많은 양의 훈련 데이터가 필요하며, GAN은 다른 이미지 생성 기법에 비해 이미지를 렌더링하는 데 훨씬 더 오랜 시간이 걸리는 경우가 많습니다. 또한 GAN은 프레임 간 일관성을 유지하는 데 어려움이 있어 비디오보다 정적 이미지 생성에 더 적합합니다. 딥페이크를 생성하는 데는 인코더와 여러 디코더를 사용하는 것이 훨씬 더 일반적입니다.
딥페이크는 무엇에 사용되는가?
온라인에서 발견되는 많은 딥페이크는 본질적으로 포르노그래피입니다. AI 기업 Deeptrace의 연구에 따르면, 2019년 9월에 채취된 약 15,000개의 딥페이크 비디오 샘플 중 약 95%가 본질적으로 포르노그래피였습니다. 이 사실의 불안한 함의는 기술이 사용하기 쉬워짐에 따라 가짜 복수 포르노 사건이 증가할 수 있다는 것입니다. 그러나 모든 딥페이크가 본질적으로 포르노그래피는 아닙니다. 딥페이크 기술에는 더 합법적인 용도가 있습니다. 오디오 딥페이크 기술은 질병이나 부상으로 손상되거나 잃어버린 후 사람들이 정상적인 목소리를 방송하는 데 도움을 줄 수 있습니다. 딥페이크는 민감하고 잠재적으로 위험한 상황에 있는 사람들의 얼굴을 숨기는 데도 사용될 수 있으며, 여전히 그들의 입술과 표정을 읽을 수 있게 합니다. 딥페이크 기술은 외국어 영화의 더빙 개선, 오래되고 손상된 미디어의 복원 지원, 심지어 새로운 스타일의 예술 창조에 잠재적으로 사용될 수 있습니다.
비디오가 아닌 딥페이크
대부분의 사람들은 “딥페이크”라는 용어를 들을 때 가짜 비디오를 생각하지만, 가짜 비디오는 딥페이크 기술로 생산되는 유일한 종류의 가짜 미디어는 결코 아닙니다. 딥페이크 기술은 사진과 오디오 가짜를 생성하는 데도 사용됩니다. 앞서 언급했듯이, GAN은 가짜 이미지를 생성하는 데 자주 사용됩니다. 딥페이크 알고리즘으로 생성된 프로필 이미지를 가진 가짜 LinkedIn 및 Facebook 프로필이 많은 경우가 있었다고 생각됩니다. 오디오 딥페이크를 생성하는 것도 가능합니다. 딥 뉴럴 네트워크는 유명인사와 정치인을 포함한 다양한 사람들의 음성 클론/음성 스킨을 생성하도록 훈련됩니다. 오디오 딥페이크의 유명한 예로는 AI 회사 Dessa가 비AI 알고리즘으로 지원되는 AI 모델을 활용하여 팟캐스트 호스트 Joe Rogan의 목소리를 재현한 경우입니다.
딥페이크를 발견하는 방법
딥페이크가 점점 더 정교해짐에 따라, 이를 진짜 미디어와 구별하는 것은 점점 더 어려워질 것입니다. 현재, 사람들이 비디오가 잠재적으로 딥페이크인지 확인하기 위해 찾을 수 있는 몇 가지 징후가 있습니다. 예를 들어, 부자연스러운 립싱크, 부자연스러운 움직임, 얼굴 가장자리 주변의 깜빡임, 머리카락, 이빨, 반사와 같은 세부 사항의 뒤틀림 등이 있습니다. 딥페이크의 다른 잠재적 징후로는 동일한 비디오의 낮은 품질 부분, 그리고 불규칙한 눈 깜빡임이 있습니다. 이러한 징후가 현재 딥페이크를 발견하는 데 도움이 될 수 있지만, 딥페이크 기술이 발전함에 따라 신뢰할 수 있는 딥페이크 탐지를 위한 유일한 옵션은 가짜와 진짜 미디어를 구별하도록 훈련된 다른 유형의 AI일 수 있습니다. 대형 기술 기업을 포함한 인공 지능 회사들은 딥페이크를 탐지하는 방법을 연구하고 있습니다. 지난 12월에는 Amazon, Facebook, Microsoft라는 세 기술 거대 기업의 지원을 받아 딥페이크 탐지 챌린지가 시작되었습니다. 전 세계의 연구팀들은 딥페이크를 탐지하는 방법에 대해 작업하며, 최고의 탐지 방법을 개발하기 위해 경쟁했습니다. Google과 Jigsaw의 합동 연구원 그룹과 같은 다른 연구자 그룹들은 변경된 비디오를 탐지할 수 있는 일종의 “얼굴 포렌식”을 연구하고 있으며, 데이터셋을 오픈 소스로 공개하고 다른 사람들이 딥페이크 탐지 방법을 개발하도록 장려하고 있습니다. 앞서 언급한 Dessa는 딥페이크 탐지 기술을 개선하는 작업을 해왔으며, 탐지 모델이 Google이 제공한 오픈 소스 데이터셋과 같은 사전 구성된 훈련 및 테스트 데이터셋뿐만 아니라 실제 환경(인터넷상)에서 발견되는 딥페이크 비디오에서도 작동하도록 보장하려고 노력했습니다. 딥페이크 확산을 다루기 위해 조사 중인 다른 전략들도 있습니다. 예를 들어, 비디오가 다른 정보 출처와 일치하는지 확인하는 것이 하나의 전략입니다. 다른 각도에서 촬영된 사건의 비디오를 검색하거나, 비디오의 배경 세부 사항(날씨 패턴과 위치 등)을 검사하여 불일치를 확인할 수 있습니다. 이를 넘어서, 블록체인 온라인 원장 시스템은 비디오가 처음 생성될 때 이를 등록하여 원본 오디오와 이미지를 보관함으로써 파생 비디오가 항상 조작 여부를 확인받을 수 있게 할 수 있습니다. 궁극적으로, 신뢰할 수 있는 딥페이크 탐지 방법이 만들어지고 이러한 탐지 방법이 딥페이크 기술의 최신 발전을 따라잡는 것이 중요합니다. 딥페이크의 효과가 정확히 무엇일지 알기는 어렵지만, 딥페이크(및 다른 형태의 가짜 미디어)를 탐지할 수 있는 신뢰할 수 있는 방법이 없다면, 허위 정보가 만연하여 사람들의 사회와 제도에 대한 신뢰를 훼손할 가능성이 있습니다.
딥페이크의 함의
딥페이크가 방치된 채 확산되는 것을 허용하는 위험은 무엇인가? 딥페이크가 현재 만들어내는 가장 큰 문제 중 하나는 사람들의 얼굴을 포르노그래피 비디오 및 이미지와 결합하여 제작된 비동의적 포르노그래피입니다. AI 윤리학자들은 딥페이크가 가짜 복수 포르노 제작에 더 많이 사용될 것을 우려하고 있습니다. 이를 넘어서, 딥페이크는 사람들을 논란의 여지가 있고 위험한 시나리오에 배치하는 데 사용될 수 있기 때문에 거의 모든 사람을 괴롭히고 명성을 훼손하는 데 사용될 수 있습니다. 기업들과 사이버보안 전문가들은 딥페이크를 이용한 사기, 사칭, 갈취를 용이하게 하는 데 대한 우려를 표명했습니다. 딥페이크 오디오가 회사 직원들을 설득하여 사기꾼들에게 돈을 이체하도록 하는 데 사용되었다고 주장됩니다. 딥페이크가 위에 열거된 것 이상의 해로운 영향을 미칠 가능성도 있습니다. 딥페이크는 잠재적으로 사람들의 미디어 전반에 대한 신뢰를 훼손하고, 사람들이 진짜 뉴스와 가짜 뉴스를 구별하기 어렵게 만들 수 있습니다. 웹상의 많은 비디오가 가짜라면, 정부, 기업 및 다른 기관들이 합법적인 논란과 비윤리적인 관행에 의문을 제기하기가 더 쉬워집니다. 정부에 관해서는, 딥페이크가 민주주의 운영에 위협을 가할 수도 있습니다. 민주주의는 시민들이 신뢰할 수 있는 정보를 바탕으로 정치인에 대해 정보에 입각한 결정을 내릴 수 있어야 합니다. 허위 정보는 민주적 과정을 훼손합니다. 예를 들어, 가봉의 대통령 Ali Bongo는 가봉 국민들을 안심시키려는 비디오에 등장했습니다. 대통령은 오랜 기간 동안 건강이 좋지 않은 것으로 추정되었고, 그의 갑작스러운 등장은 아마도 가짜 비디오에서 쿠데타 시도를 촉발시켰습니다. Donald Trump 대통령은 여성의 생식기를 잡는 것에 대해 자랑하는 자신의 오디오 녹음이 가짜라고 주장했으며, 동시에 이를 “락커룸 토크”라고 묘사하기도 했습니다. Prince Andrew 또한 Emily Maitilis 변호사가 제공한 이미지가 가짜라고 주장했지만, 변호사는 그 진위성을 주장했습니다. 궁극적으로, 딥페이크 기술에는 합법적인 용도가 있지만, 그 기술의 오용으로 인해 발생할 수 있는 많은 잠재적 해악이 있습니다. 그런 이유로, 미디어의 진위성을 판단하는 방법을 만들고 유지하는 것이 극히 중요합니다.








