Connect with us

2024๋…„, ๋”ฅํŽ˜์ดํฌ๊ฐ€ ์ฃผ๋ฅ˜๋กœ ์ „ํ™˜๋˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ๊ธฐ์—…์€ ์–ด๋–ป๊ฒŒ ์ž์‹ ๋“ค์„ ๋ณดํ˜ธํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?

์‚ฌ์ƒ ๋ฆฌ๋”

2024๋…„, ๋”ฅํŽ˜์ดํฌ๊ฐ€ ์ฃผ๋ฅ˜๋กœ ์ „ํ™˜๋˜๊ณ  ์žˆ์Šต๋‹ˆ๋‹ค. ๊ธฐ์—…์€ ์–ด๋–ป๊ฒŒ ์ž์‹ ๋“ค์„ ๋ณดํ˜ธํ•  ์ˆ˜ ์žˆ์„๊นŒ์š”?

mm

至少 2016년 선거 이후, 가짜 정보에 대한 우려가 대중의 의식에 불거지면서 전문가들은 딥페이크에 대한 경고를 발했습니다. 이 기술의 의미는 지금도 恐ろしい 것입니다. 超현실적인 합성 미디어의 제한되지 않은 확산은 政治家에서 일상인에 이르기까지 모든 사람에게 위협을 가합니다. 이미广泛한 불신으로 특징지어지는 환경에서, 딥페이크는 불을 더욱 부추길 것입니다.

그런데 우리의 두려움은 преждевременный 것이었습니다. 딥페이크를 실제로 만들기 위한 기술적 노하우와 함께, 종종質의 낮은 품질로 인해, 지난 두 번의 대통령 선거에서 딥페이크는 최소한의 우려로 남아있었습니다.

하지만 모든 것이 바뀌고 있습니다. 지난 2년 동안, 생성적 인공지능 기술이 주류로 들어서면서, 평균 소비자가 딥페이크를 만들기 위한 과정을 급격히 단순화했습니다. 이러한 혁신은 딥페이크의 품질을 크게提高시켰습니다. 그래서, 눈가리기 테스트에서 대부분의 사람들은 가짜 비디오와 실제 것을 구별할 수 없습니다.

이번 년도, 특히, 우리는 이 기술이 사회에 미칠 영향에 대한 징조를 보기 시작했습니다. 예를 들어, 지난해에 AI로 생성된 프란치스코 교황의 사진이 비정상적으로 스타일리ッシュ한 코트를 입고 있는 사진이 바이러스적으로 퍼졌고, 많은 사람들이 그것을 진실이라고 생각했습니다. 이것은 한 레벨에서 무해한 재미로 보일 수 있지만, 딥페이크의 위험한 효력을 보여주고, 가짜 정보가 퍼지기 시작하면 어떻게 막을 수 있을지 알 수 없습니다. 앞으로 몇 개월, 몇 년 동안 우리는 훨씬 menos 재미있고, 훨씬 더 위험한 가짜 정보의 바이러스적인 확산을 기대할 수 있습니다.

이러한 이유로, 모든 종류의 조직 – 미디어, 금융, 정부, 소셜 미디어 플랫폼 – 은 딥페이크 탐지와 콘텐츠 진위성 검증에 대해 적극적인 태도를 취해야 합니다. 지금, 진실을 보장하는 문화를 구축해야 합니다. 그렇지 않으면, 딥페이크의 파도는 우리의 공유된 현실 이해를 쓸어버릴 것입니다.

딥페이크 위협 이해

조직이 딥페이크의 급증에 대처하기 위해 무엇을 할 수 있는지에 대해 논의하기 전에, 왜 보호 도구가 필요한지에 대해 자세히 설명할 필요가 있습니다. 일반적으로 딥페이크에 대해 우려하는 사람들은 정치와 사회적 신뢰에 대한 잠재적인 영향을 언급합니다. 이러한 잠재적인 결과는 매우 중요하고, 딥페이크에 대한任何 대화에서 무시되어서는 안 됩니다. 하지만, 이 기술의 부상은 미국 경제의 여러 부문에 심각한 영향을 미칠 수 있습니다.

예를 들어, 보험을 생각해 보십시오. 현재 미국의 연간 보험 사기는 3086억 달러에 달합니다. 이는 전체 산업의 약 4분의 1에 해당하는 금액입니다.同时, 대부분의 보험 회사의 백엔드 운영은 점점 더 자동화되고 있습니다. 2025년까지 70%의 표준 청구가 무인으로 처리될 것으로 예상됩니다. 이는 결정이 최소한의 인간 개입으로 이루어짐을 의미합니다. 프론트엔드에서 셀프 서비스와 백엔드에서 AI 지원 자동화가 있습니다.

과거, 자동화를 가능하게 한 기술, 즉 기계 학습과 인공지능은 악의적인 행위자에 의해 악용될 가능성이 있습니다. 이제 평균 사용자가 청구를 조작하기 위해 생성적 AI 프로그램을 사용하여, 예를 들어, 차를 더 손상된 것으로 만들 수 있습니다. 이미 이러한 목적으로 Dude Your Car!과 같은 앱이 존재합니다. 이 앱을 사용하면 사용자가 차량 사진에 인공적으로凹凸을 만들 수 있습니다.

공식 문서도 쉽게 조작할 수 있습니다. 즉, 청구서, 보험 평가서,甚至 서명이 조작되거나 전체적으로 발명될 수 있습니다. 이는 보험사뿐만 아니라 경제 전반에 걸쳐 문제입니다. 금융 기관은 다양한 문서의 진위를 확인해야 하기 때문입니다. 소매업체도 제품이 불량으로 도착했다는 불만을 받을 수 있으며, 조작된 이미지가 딸려올 수 있습니다.

기업은 이러한 불확실성으로 운영할 수 없습니다. 어느 정도의 사기는 항상 불가피할 수 있지만, 딥페이크의 경우, 우리는 사기의 가장자리에 대해 논의하는 것이 아닙니다. 우리는 진실과 허구를 구별할 수 있는明確한 수단이 없는 기업이 있기 때문에, 혼란으로 인해 수십억 달러를 잃을 수 있는 잠재적인認識論的 재앙에 대해 논의하고 있습니다.

화재를 화재로 대응하기: AI가 어떻게 도와줄 수 있는지

那么, 무엇을 할 수 있을까요? 아마도驚くこと 없이, 答案은 딥페이크를 가능하게 하는 기술 자체에 있습니다. 이 재앙을 더 많은 모멘텀을 얻기 전에 막고 싶다면, 우리는 화재를 화재로 대응해야 합니다. AI는 딥페이크를 생성하는 데 도움이 될 수 있지만,幸い, 자동으로 대규모로 식별하는 데에도 도움이 될 수 있습니다.

올바른 AI 도구를 사용하면, 기업은 자동으로 특정 사진, 비디오 또는 문서가 조작되었는지 여부를 결정할 수 있습니다. 수십 개의 서로 다른 모델을 가짜 식별 작업에 적용하여, AI는 자동으로 기업에 특정 사진 또는 비디오가 의심스럽다고 알릴 수 있습니다. 이미 기업이 일상적인 작업을 자동화하기 위해 배포하는 도구와 마찬가지로, 이러한 도구는 과부하된 직원을 괴롭히거나 중요한 프로젝트에서 시간을 뺏지 않고 백그라운드에서 실행할 수 있습니다.

사진이 잠재적으로 변경된 것으로 식별되면, 인간 직원이 경고를 받고, 직접 문제를 평가할 수 있으며, AI가 제공한 정보를 통해 평가할 수 있습니다. 딥스캔 분석을 사용하여, 기업은 왜 사진이 조작된 것으로 간주되는지 알 수 있습니다. 예를 들어, 수동으로 변경된 메타데이터, 웹에 걸쳐 동일한 이미지의 존재, 다양한 사진 불规칙성 등에 대해 지적할 수 있습니다.

이는 지난 몇 년 동안 보았던 생성적 인공지능 기술의驚くべき 발전을軽視하는 것이 아닙니다. 이 기술은 실제로 유용하고 생산적인 응용 프로그램을 산업 전반에 걸쳐 가지고 있습니다. 하지만, 이 출현하는 기술의 효력과 간단함은 악의적인 행위자에 의한 악용을 거의 보장합니다. 개인적 이익을 얻거나 사회적 혼란을 조성하기 위해 조직을 조작하려는 사람들에 의해 말이죠.

企業は両方의 세계를 가질 수 있습니다. AI의 생산성 혜택과 딥페이크의 악영향 없이. 하지만, 이를 위해서는 새로운 수준의 경계심이 필요합니다. 특히, 생성적 인공지능의 출력은 더 설득력 있고, 자세하고, 현실적으로 될 것입니다. 기업이 이 문제에 주목할수록, 자동화된 세계의 모든 혜택을 누릴 수 있을 것입니다.

Nicos Vekiarides๋Š” Attestiv