Connect with us

AI 브라우저 도구는 Deepfakes 및 기타 가짜 미디어를 인식하는 것을 목표로 한다

인공지능

AI 브라우저 도구는 Deepfakes 및 기타 가짜 미디어를 인식하는 것을 목표로 한다

mm

최근 기술 회사들은 DeepFakes와 같은 고급 가짜 콘텐츠 생성 기술이 더 쉽게 사용되고 정교해짐에 따라 잘못된 정보와 가짜 콘텐츠를 해결하기 위한 노력을 강화하고 있다. Deepfakes를检测하고 싸우는 데 도움이 되는 하나의 시도는 AI Foundation에서 제작한 RealityDefender이다. AI Foundation은 윤리적인 AI 에이전트와 사용자가 다양한 작업을 수행하도록 훈련할 수 있는 어시스턴트를 개발하기 위해 노력하고 있다.

AI Foundation의 가장 주목할만한 프로젝트는 사람들이 자신과 비슷하게 보이는 디지털 인물을 만들고 가상 만남 공간에서 그들을 대표할 수 있는 플랫폼이다. AI Foundation은 Global AI Council의 감독을 받고 있으며, 그들의 임무는 AI 플랫폼의 가능한 부정적인 영향을 예상하고 이러한 문제를 미리 해결하기 위해 노력하는 것이다. VentureBeat에 따르면, AI Foundation이 가짜를检测하는 데 도움이 되는 도구 중 하나는 Reality Defender라고 불리는 도구이다. Reality Defender는 사용자가 웹 브라우저에서 사용할 수 있는 도구로, 비디오, 이미지 및 기타 유형의 미디어를 분석하여 미디어가 조작되었거나 변경된 징조를 감지한다. 이 도구는 인터넷상의 Deepfakes의 증가하는 흐름을 반대하는 데 도움이 될 것으로 기대된다. 일부 추정에 따르면, 이는 지난 6개월 동안 약 두 배로 증가했다.

Reality Defender는 가짜 이미지 또는 비디오를 암시하는 단서를 감지할 수 있는 다양한 AI 기반 알고리즘을 사용하여 작동한다. AI 모델은 속임수와 조작의 미묘한 징조를 감지하고, 모델이 감지하는 거짓 양성은 도구의 사용자에 의해 잘못된 것으로 표시된다. 그런 다음 데이터는 모델을 다시 훈련시키기 위해 사용된다. 비사기적인 Deepfakes를 생성하는 AI 회사들은 콘텐츠에 “정직한 AI” 태그 또는 워터마크를 달아 사람들이 쉽게 AI 생성 가짜를 식별할 수 있도록 한다.

Reality Defender는 AI Foundation이 생성하려고 하는 도구 모음과 전체 AI 책임 플랫폼 중 하나에 불과하다. AI Foundation은 개인이 자신을 위해 일하고 악의적인 행위자에 의해 착취되는 것을 방지하는 데 도움이 되는 개인 AI 에이전트에 접근할 수 있어야 한다는 개념에 기반한 책임 플랫폼인 Guardian AI를 생성하려고 한다. 본질적으로, AI Foundation은 사회에서 AI의 범위를 확장하여 더 많은 사람에게 이를 제공하면서도 AI의 위험을 방지하려고 한다.

Reality Defender는 잘못된 정보를 줄이기 위해 새로운 AI 기반 제품을 목표로 하는 제품 중 하나가 아니다. UC Berkeley의 두 명의 학부생인 Rohan Phadte와 Ash Bhat이 생성한 유사한 제품은 SurfSafe이다. The Verge에 따르면, SurfSafe는 사용자가 궁금한 미디어를 클릭할 수 있게 허용하고, 프로그램은 역방향 이미지 검색을 수행하여 다양한 신뢰할 수 있는 소스에서 유사한 콘텐츠를 찾고, 조작된 것으로 알려진 이미지를 플래그한다.

이러한 솔루션이 장기적으로 얼마나 효과적인지 불분명하다. Dartmouth College 교수이자 포렌식 전문가인 Hany Farid는 The Verge에 인용되어 Reality Defender와 같은 시스템이 의미 있는 용량으로 작동할 것에 대해 “극도로 회의적”이라고 말했다. Farid는 가짜 콘텐츠를 감지하는 데 있어 주요 도전은 미디어가 순수하게 가짜 또는 실제가 아니라는 것이다. Farid는 “계속; 매우 복잡한 문제 범위와 함께 대처해야 한다. 일부 변경 사항은 무의미하며, 일부는 기본적으로 이미지의 특성을 변경한다. AI를 사용하여 차이를 감지할 수 있다고 주장하는 것은 매우 순진하다. 그리고 그것을 크라우드소싱한다고 주장하는 것은 더욱 그렇다.”

또한, 태깅한 거짓 양성과 같은 크라우드소싱 요소를 포함하는 것이 어렵다. 왜냐하면 인간은 일반적으로 가짜 이미지를 식별하는 데 매우 나쁘기 때문이다. 인간은 종종 실수를犯하고 이미지가 가짜임을 나타내는 미묘한 세부 사항을 놓치기 때문이다. 또한 악의적인 행위자가 콘텐츠를 플래그할 때 트롤링하는 방법을 다루는 것도 불분명하다.

가짜 감지 도구가 최대 효과를 발휘하려면, 온라인에서 상호작용하는 콘텐츠에 대해 어떻게 추론할 것인지 가르치는 디지털 리터러시 노력과 결합되어야 할 것으로 보인다.

블로거이자 프로그래머로 Machine Learning Deep Learning 주제에 전문가입니다. 다니엘은 다른 사람들이 AI의 힘을 사회적善으로 사용하는 것을 돕기를 희망합니다.