Connect with us

인공지능

딥페이크 비디오를 사실 확인자처럼 식별하는 방법

mm

딥페이크는 개인의 외모를 다른 사람의 것으로 대체하는 합성 미디어입니다. 온라인에서 더 흔해지면서 전 세계에 잘못된 정보를 퍼뜨리고 있습니다. 일부는 무해할 수 있지만 다른 일부는 악의적인 의도를 가질 수 있으므로 개인이 진실을 디지털로 조작된 거짓 콘텐츠와 구별하는 것이 중요합니다.

불행히도 모든 사람이 딥페이크 비디오를 식별하는 최신 소프트웨어에 접근할 수 없습니다. 여기에서는 사실 확인자가 비디오의 적법성을 판단하는 방법과您가 이러한 전략을 자신에게 사용하는 방법을 살펴보겠습니다.

1. 맥락을 조사하세요

비디오가 제시되는 맥락을 조사하는 것이 중요합니다. 이것은 배경 이야기, 설정 및 비디오의 이벤트가 사실로 알려진 것과 일치하는지 확인하는 것을 의미합니다. 딥페이크는 종종 여기서 실수를 저지르며 실제 사실이나 시간대와 일치하지 않는 콘텐츠를 제시합니다.

우크라이나 대통령 볼로디미르 젤렌스키의 딥페이크가 하나의 예입니다. 2022년 3월, 소셜 미디어에서 젤렌스키가 우크라이나 군대에 무기를 놓고 러시아군에 항복하라고 命令하는 것으로 보이는 딥페이크 비디오가 등장했습니다. 그러나 더 가까이 조사해 보면, 여러 맥락적 단서들이 비디오의 부정통을 강조했습니다. 우크라이나 정부의 공식 채널과 젤렌스키 자신은 이 메시지를 공유하지 않았습니다. 또한 시기와 상황은 우크라이나의 입장과 군사 전략에 대해 알려진 사실과 일치하지 않았습니다. 비디오의 제작은 우크라이나 저항을 демор얼화시키고 우크라이나를 지지하는 국제 사회 사이에서 혼란을 퍼뜨리기 위한 것이었습니다.

2. 출처를 확인하세요

온라인에서 비디오를 발견했을 때, 출처를 확인하세요. 비디오가 어디서 왔는지 이해하는 것이 중요합니다. 왜냐하면 해커가 사이버 공격을 시행하기 위해 이를 사용할 수 있기 때문입니다. 최근, 75%의 사이버 보안 전문가가 사이버 공격이 증가했다고 보고했으며, 85%는 악의적인 개인이 생성된 AI를 사용한다고 주장했습니다.

이것은 딥페이크 비디오의 증가와 관련이 있으며, 전문가들은 점점 더 AI 생성 콘텐츠가 유발하는 보안 사고와 대처하고 있습니다. 출처를 확인하여 비디오가 어디서 시작되었는지 확인하세요. 의심스러운 출처에서 시작된 비디오는 더 큰 사이버 공격 전략의 일부일 수 있습니다.

신뢰할 수 있는 출처는 딥페이크 비디오를 퍼뜨릴 가능성이 낮으므로 신뢰할 수 있는 정보를 얻을 수 있습니다. 항상 비디오를 신뢰할 수 있는 뉴스 출처 또는 공식 웹사이트와 교차 확인하여 보는 것이 실제인지 확인하세요.

3. 얼굴 표정의 불일치를 찾으세요

딥페이크의 명백한 징조는 얼굴 표정의 불일치입니다. 딥페이크 기술은 발전했지만, 자연스럽게 발생하는 사람의 말이나 감정의 미묘하고 복잡한 움직임을 정확하게 모방하는 데 어려움을 겪습니다. 다음 불일치를 찾음으로써 이러한 것을 식별할 수 있습니다:

  • 비정상적인 깜빡임: 인간은 규칙적이고 자연스러운 패턴으로 깜빡입니다. 그러나 딥페이크는 깜빡임을 과소 또는 과대 표현할 수 있습니다. 예를 들어, 딥페이크는 깜빡임 없이 오랫동안 말하는 사람 또는 너무 빠르게 깜빡이는 사람을 보여줄 수 있습니다.
  • 립 싱크 오류: 누군가가 비디오에서 말할 때, 唇의 움직임이 맞지 않을 수 있습니다. 唇과 오디오가 일치하는지 확인하기 위해 가까이서 살펴보세요. 일부 딥페이크에서는 불일치가 미묘하지만 가까이서 살펴보면 감지할 수 있습니다.
  • 얼굴 표정과 감정: 진짜 인간의 감정은 복잡하며 얼굴 움직임을 통해 반영됩니다. 딥페이크는 종종 이를 포착하지 못하며,僵硬한, 과장되거나 완전히 일치하지 않는 표정을 유발합니다. 예를 들어, 딥페이크 비디오는 누군가가 미묘하지 않거나 대화의 맥락과 일치하지 않는 표정을 짓고 있는 것을 보여줄 수 있습니다.

4. 오디오를 분석하세요

오디오도 비디오가 실제인지 가짜인지에 대한 단서를 제공할 수 있습니다. 딥페이크 기술은 목소리를 모방하려고 하지만, 차이점은 종종 이를 드러냅니다. 예를 들어, 목소리의 품질과 특성을 주의해서 들어보세요. 딥페이크는 목소리가 로봇처럼 들리거나 평평한 음성으로 말하거나, 실제 인간이 자연스럽게 나타낼 수 있는 감정의 음색이 부족할 수 있습니다.

배경 소음과 음질도 단서를 제공할 수 있습니다. 갑자기 음질이 바뀌면 오디오의 일부가 변경되거나 조작되었다는 것을 의미할 수 있습니다. 실제 비디오는 일반적으로 전체에 걸쳐 일관성을 유지합니다.

5. 조명을 조사하세요

조명과 그림자는 비디오의 진위를 드러내는 데 큰 역할을 합니다. 딥페이크 기술은 현실 세계의 객체, 포함하여 사람들과 상호작용하는 조명을 정확하게 복제하는 데 어려움을 겪습니다. 조명과 그림자를 주의해서 살펴보면, 이것이 가짜인지에 대한 여러 항목을 식별할 수 있습니다.

진짜 비디오에서는 주체의 조명과 주변 환경이 일관되어야 합니다. 딥페이크 비디오는 불일치, 예를 들어 얼굴이 배경과 다르게照明되는 것을 보여줄 수 있습니다. 비디오의 방향이나 조명의 출처가 합리적이지 않으면, 조작의 징조일 수 있습니다.

둘째, 그림자는 장면의 조명 출처에 따라 행동해야 합니다. 딥페이크에서는 그림자가 잘못된 각도에 나타나거나 다른 객체와 일치하지 않을 수 있습니다. 그림자의 크기, 방향 및 기대되는 그림자의 존재 또는 부재에 대한 이상은 전체적인 아이디어를 제공합니다.

6. 감정 조작을 확인하세요

딥페이크는 믿을 수 있는 거짓말을 생성하는 것 이상으로, 사람들은 종종 감정을 조작하고 반응을 유발하도록 설계합니다. 이러한 콘텐츠를 식별하는 핵심 측면은 이것이 이성적 판단을 흐릴 수 있는 감정적 반응을 유발하도록 설계되었는지 평가하는 것입니다.

예를 들어, 펜타곤에서 폭탄이 있는 AI 생성 이미지로 트위터 X에서 유행한 사건을 생각해 보세요. 완전히 조작된 이미지였음에도 불구하고, 그 이미지의 경각성으로 인해 광범위한 공황이 발생하여 5000억 달러의 손실이 발생했습니다.

딥페이크 비디오도 같은 수준의 공황을 일으킬 수 있습니다. 특히 AI가 관련된 경우에 그렇습니다. 이러한 비디오를 평가할 때, 다음 질문을 자신에게 하세요:

  • 콘텐츠는 강한 감정적 반응, 예를 들어 공포, 분노 또는 충격을 불러일으키려고 하는가? 진정한 뉴스 출처는 정보를 제공하려는 것이지, 격발시키려는 것이 아닙니다.
  • 콘텐츠는 현재 사건이나 알려진 사실과 일치하는가? 감정 조작은 종종 이성적 분석에서 청중을 분리하는 데 의존합니다.
  • 신뢰할 수 있는 출처가 같은 이야기를 보고하는가? 감정적으로 충격적인 콘텐츠의 조작은 신뢰할 수 있는 뉴스 출처의 부재로 나타날 수 있습니다.

7. 딥페이크 탐지 도구를 활용하세요

딥페이크가 더 정교해짐에 따라, 인간의 관찰만으로 이를 식별하는 것은 어려울 수 있습니다.幸い, 딥페이크를 실제와 가짜로 구분하는 고급 기술을 사용하는 딥페이크 탐지 도구가 있습니다.

이러한 도구는 인간의 눈으로는 보이지 않는 불일치와 이상을 분석할 수 있습니다. 음성 워터마킹을 사용하여 AI와 기계 학습을 활용합니다. 이러한 기술은 워터마크의 배치를 인식하도록 훈련되어 오디오가 조작되었는지 여부를 결정합니다.

마이크로소프트는 비디오 인증기라는 도구를 개발했으며, 딥페이크의 가능성을 나타내는 신뢰도 점수를 제공합니다. 마찬가지로, 스타트업과 학술 기관은不断으로 딥페이크의 발전과 함께 기술을 개발하고 개선하고 있습니다.

딥페이크를 성공적으로 식별하는 방법

기술에는 밝고 어두운 면이 있으며, 끊임없이 발전하고 있습니다. 따라서 온라인에서 본 것을 의심하는 것이 중요합니다. 의심스러운 딥페이크를 마주쳤을 때, 감각과 사용 가능한 도구를 사용하세요. 또한 항상 출처를 확인하세요. 딥페이크 최신 뉴스를 따라가면, 가짜 미디어 시대에 진리를 보존하는 데 핵심이 될 것입니다.

Zac Amos는 인공 지능에 중점을 둔 기술 작가입니다. 그는 또한 ReHack의 피처 에디터로, 그의 다른 작품을 읽을 수 있습니다.