Connect with us

Dr Mathilde Pavis, Head of Legal, OpenOrigins – 인터뷰 시리즈

인터뷰

Dr Mathilde Pavis, Head of Legal, OpenOrigins – 인터뷰 시리즈

mm

Dr Mathilde Pavis, OpenOrigins의 법務팀장이며, AI 규제 및 디지털 미디어 거버넌스 분야의 선도적인 전문가로서, 딥페이크, 합성 미디어, 콘텐츠 기원에 대한 전문 지식을 가지고 있습니다. 그녀는 기업, 정부, 노동조합에 대한 생성적 AI의 규제, 라이선스, 리스크에 대한 자문을 제공하며, Microsoft 및 ElevenLabs와 함께 AI 정책 및 전략에 대해 협력했습니다. 또한 유네스코에 대한 AI 및 지적 재산권에 대한 자문을 제공했으며, 영국 정책 입안자에게 전문 증거를 제공합니다.

OpenOrigins는 디지털 콘텐츠의 기원을 확인하여 가짜 뉴스와 딥페이크를 방지하는 기술을 개발합니다. 이 플랫폼은 콘텐츠가 생성, 편집, 배포된 시점을 명확하게 확인하여 미디어, 크리에이터, 플랫폼이 콘텐츠의 진위를 증명할 수 있도록 합니다. 이는 합성 미디어가 더욱 발전하고 감지하기 어려워짐에 따라 중요한 기능입니다.

정부, 유네스코, Microsoft, ElevenLabs와 같은 글로벌 기관 및 기업에 대한 AI 규제에 대한 자문을 제공했습니다. 딥페이크, 디지털 복제, 합성 미디어에 집중하게 된 이유는 무엇이며, 그것이 Replique를 설립하기로 결정한 데 어떻게 영향을 주었나요?

딥페이크에 대한私の 연구는 기술에서 시작되지 않았습니다. 그것은 훨씬 더 오래된 법적謎에서 시작되었습니다. 2013年に私は 지적 재산권에 대한 박사 학위 연구를 시작했을 때, 저자, 작곡가, 영화 制作자와 비교하여 공연자의 권리가 얼마나 적게 보호되는지에 놀랐습니다. 실제로 이는 귀하의 말이나 음악이 귀하의 목소리, 얼굴, 몸보다 법적으로 더 잘 보호된다는 것을 의미합니다. 이러한 불균형은 이상하게 느껴졌고, 더 깊은 질문을 던지게 했습니다. 우리는 문화적으로 그리고 법적으로 화면上的 공연자의 공헌을 어떻게 평가합니까?

그 질문은 나를 공연자 권리와 데이터로 이끌었습니다. 당시에는 이는 商業적으로 관련이 없는 狹い 분야로 간주되었으며, 특허 또는 전통적인 저작권과 같은 더 “수익성 있는” 분야로 이동하도록 권장 받았습니다. 산업 규범이나 “할리우드의 신사 협정”을 통해 이러한 문제가 대부분 비공식적으로 관리되고 있다고 가정했지만,私は 그 결핍이 연구를 위한 종착점이 아닌 간격이라고 생각했습니다.

변화된 것은 오늘날几乎 모든 사람이 공연자라는 것입니다. 우리의 삶은 카메라를 통해 중계됩니다.電話, 랩톱, 비디오 회의, 소셜 플랫폼에서 작업하거나 개인적으로 사용하는 사람들은 끊임없이 자신들의 버전을 녹화하고 공유합니다. 이전에 주로 배우나 음악가에게 적용되던 법적 질문은 이제 스마트폰을 가진 누구에게나 적용됩니다.

딥페이크는 이러한 문제를 창조하지 않았습니다. 그것은 노출하고 가속화했습니다. 2013년부터私は 진행한 연구는突然 급박해졌습니다. 2017년과 2018년, MIT와 UC 버클리와 같은 곳에서 나온 신경망의 발전은 사람의 얼굴, 목소리, 몸이 디지털로 어떻게 Convincingly 조작될 수 있는지 보여주었습니다. 1년 내에, 이러한 기능은 널리 알려진 “딥페이크”가 되었습니다. 처음에는 특히 여성과 어린이들을 대상으로 한 비동의 성적 콘텐츠를 통해 유해한 방식으로 널리 알려졌습니다.

稍後에 商業적影響이 나타났습니다. 창의 산업이 합성 미디어를 채택하기 시작했을 때,私は 작업한 계약 및 경제적 질문이 전면에 나왔습니다. 거의 즉시, 법의 理論的 또는 教義的 분야는 매우 실제적이고 商業的に 중요한 분야가 되었습니다.

법적 도전은 변하지 않았습니다. 사람들은 자신을 공유하고 싶지만, 여전히 의미 있는 제어를 유지하고 싶습니다. 기존의 프레임워크는 그ニュアンス에 어려움을 겪습니다. 그들은 개인을 완전히 비공개 또는 완전히 공개로 취급하는 경향이 있습니다. 그러나 대부분의 사람들은 그 사이 어딘가에 있습니다. 이러한 긴장은 전문 공연자뿐만 아니라 디지털 생활에 참여하는 모든 사람에게 핵심이 되었습니다.

나는이 분야에서 연구하고 작업한 사람으로 알려졌습니다. 그것은 나를 딥페이크에 대한 정부와의 작업, 안전하게 사용할 수 있는 디지털 클로닝 제품을 만들고 싶은 회사와의 협력을 가져왔습니다. Replique에서私は 모든 것을 적용하여 디지털 클로닝 또는 디지털 복제 기술을 책임감 있게, 안전하게 사용하고 싶은 사람들과 회사에 전문 법률 자문을 제공합니다.私は私の ‘블루 스카이’ 연구를 전문 법률 자문 비즈니스로 전환하여 창의 산업에 전문 법률 자문을 제공합니다.

OpenOrigins의 법務팀장으로서, 콘텐츠 기원을 확인하여 딥페이크를 방지하는 회사에서, 귀하는 기존의 딥페이크 탐지 접근 방식과 비교하여 기원 기반 시스템이 어떻게 경쟁하거나 대체할 수 있는지 생각하시나요?

딥페이크 탐지 도구를 비교하는 것은 곧 사과와 오レン지를 비교하는 일이 될 수 있습니다. 그들의 효과는 상황과 목적에 따라 달라집니다. 정책 관점에서, 우리는 보완적인 도구의 범위가 필요합니다. 하나의 “최선”의 해결책은 없으며, OpenOrigins는 더广い 생태계의 일부입니다. OpenOrigins의 기술이 딥페이크 탐지 솔루션으로서 두드러지는 점은 콘텐츠 제작자 또는 정보 기관이 파트너, 청중 또는 공중과 공유하는 콘텐츠의 진위를 증명해야 하는 상황입니다.

콘텐츠가 생성될 때 검증 가능한 기원을 제공함으로써, 그것은 강력한 형태의 예방으로 작용하여 콘텐츠가 딥페이크가 아님을 보여줍니다. 그러나 이러한 접근 방식은 인터넷에서 콘텐츠를 만나는 일반 사용자에게는 적합하지 않습니다. 그 경우, 탐지는 더 확률론적이고 콘텐츠 분석 방법에 의존합니다. 우리는 서로 다른 요구 사항을 위해 서로 다른 도구가 필요하며, 딥페이크에 대한銀弹은 없다는 것을 받아들여야 합니다.

법적 관점에서, 현재 권한 및 소유권을 처리하는 방식에서 가장 큰 격차는 무엇이며, 어떻게 해결해야 합니까?

오, 얼마나 오래 기다려야 합니까? 대답은 AI 생성 또는 복제 콘텐츠의 의미에 따라 다릅니다. 문제는 이미지 또는 동물과 같은 가상 콘텐츠인지, 사람의 얼굴 또는 목소리의 디지털 재현인지에 따라 다릅니다. 딥페이크 및 디지털 복제의 주제에서 답변하겠습니다.

동의에 대한 핵심 문제는 대부분의 계약 – 고용 계약 또는 플랫폼 약관 -이 광범위하고 모호한 조항을 포함한다는 것입니다. 이러한 조항은 사용자 콘텐츠에 대한 광범위한 권리를 부여하며, 이는 사용자 콘텐츠를 클로닝하는 것에 대한 일종의 “뒷문 동의”로 해석될 수 있습니다. 이것은 법적 해석과 사용자 기대 사이에 상당한 격차를 생성하며, 이는 현재 기업에 유리하지만 규제는 뒤처져 있습니다.

소유권에 관해서는 디지털 클론의 소유자가 누구인지에 대한 명확한 법적答案은 없습니다. 기존의 프레임워크 – 데이터 보호, 저작권, 인격권 -는 이러한 기술에 대해 설계되지 않았습니다. 오늘날, 대부분의 사람들이 작업이나 클라이언트의 요청 및 자금으로 스캔되고 클로닝됩니다. 그리고 이러한 엔티티는通常이 자산에 대한 높은 수준의 제어를 기대하며, 이는 이해할 수 있지만 souvent 문제가 됩니다. 왜냐하면 그 자산은 귀하의 얼굴 또는 목소리의 디지털 모방이며, 귀하가 말하지 않은 것을 말하거나, 하지 않은 것을 할 수 있기 때문입니다.

귀하의 클론을誰が 소유하는지에 대한 질문은 매우 중요하지만, 현재 법에서 아직回答되지 않고 있습니다.

귀하는 음성 클로닝 기술에密接하게 작업했습니다. 음성 합성에 관한 가장 오해되는 법적 리스크는 무엇이며, 회사와 개인에게 어떤 영향을 미치나요?

법적 준수에서 가장 오해되는 문제는 기업의 디지털 클론을 자금 지원하고 사용하는 상업적 관심과 개인의 개인 정보 및 디지털 존중권 사이의 균형입니다. 이는 지적 재산권, 데이터 보호, 개인 정보 보호와 같은 여러 법적 체제에 걸쳐 있으며, 이러한 기술을 해석하는 데에는 근본적으로 다른 방식이 있습니다. 따라서 이를 비즈니스 친화적인 관행으로 번역하는 것은 복잡하며 souvent 불분명합니다. 따라서 기업은 주요 리스크를 무시하거나 이를 적절하게 처리하기 위해 상당한 비용을 지불합니다. 이것은 부정적인 결과를 생성하며, 책임 있는 준수가 더 어려운 경로가 되며, 기본 경로가 아닙니다.

기업은 AI 시스템의 동의 아키텍처에 대해 어떻게 생각해야 합니까? 특히 유사성, 身分, 훈련 데이터와 관련하여?

기업은 세 가지 핵심 능력을 설계해야 합니다. 첫째, 온보딩에서 정보를 제공하고, 상황에 맞춘 동의를 확보해야 합니다. 둘째, 사용자가 그 동의를 철회하고 일부 또는 모든 데이터를 삭제할 수 있게 해야 하며, 이는 기술적으로allenging하며 souvent 생략되지만, UK 및 EU GDPR와 같은 법률을 준수하기 위해 필수적입니다. 동의를 유지하는 것은 비즈니스 모델과 일치하는 운영적으로 매끄러운 철회를 구축하는 것을 의미합니다.

동의는 세분화되어야 합니다. 셋째, 사용자는 개별 파일 수준에서 권한을 관리하고, 그들의 유사성 데이터를 업데이트하고, 어떻게 사용되는지 이해할 수 있어야 합니다. 이는 투명성과 제어가 필요합니다. 이러한 수준의 유연성은 아직 드물지만, 이는 경쟁 우위를 점하는 곳에 있습니다.

스타트업과 정부에 대한 귀하의 자문 경험에서, AI가 구축되는 방식과 규제되는 방식 사이에서 가장 큰 격차는 무엇입니까?

AI가 구축되는 방식과 규제되는 방식 사이의 격차는 본질적으로 다른 임무에서 비롯됩니다. 정부는 공공의 이익을 위해 규제하지만, AI 기업 – 종종 벤처 자본 지원 -은 성장, 수익, 이익에 의해 주도됩니다. 이러한 우선순위는 항상 충돌하지는 않지만, 종종 다른 방향으로 끌립니다. 규제는 제약으로 보이기보다는 지원으로 보입니다.

이것은 구조적인 긴장을 생성합니다. 규제자와 혁신가는 다른 인센티브, 가치, 심지어 언어로 작동합니다. 이는 실제로 정렬하기 어렵게 만듭니다. 우리는 기술 기업이 공공 이익 목표와 더密接하게 일치하는 새로운 물결을 보기 시작하고 있습니다. 그러나 그들은まだ 예외이며, 특히 성공적으로 확장하는 경우에는 규칙이 아닙니다.

OpenOrigins는 생성 시점에 암호화 기원을 사용하여 콘텐츠를 검증합니다. 이 기원-첫 접근 방식은 배포 후 보안과 비교하여 얼마나 중요합니까?

이것은 위의 답변으로 돌아갑니다. 콘텐츠를 생성 시점에 인증하는 것은 ‘상류’에서보다 ‘하류’에서 인증하려고 하는 것보다 훨씬 더 효과적입니다. 콘텐츠를 생성 시점에 인증하는 것은 음식을 농장에서 재배한 순간부터 추적하는 것과 같습니다. 음식이 어떻게 처리되고, 공급망을 통해 어떻게 이동했는지 알면, 무엇을 먹고 있는지 신뢰할 수 있습니다. 음식이 준비된 후에 그것을 단지 음식의 완성된 모습만으로 추론하려고 하는 것보다, 음식이 준비되기 전에 그것을 추적하는 것이 더 신뢰할 수 있습니다. 온라인에서 인간이 생성한 콘텐츠와 AI 생성 콘텐츠를 구분하는 것도 마찬가지입니다. 출처에서 검증 가능한 보증을 제공합니다. 하류 탐지는 본질적으로 더 불확실하고 반응적입니다.

C2PA와 같은 표준은 미디어의 미래에서 어떤 역할을 할 것으로 보시나요? 또한 온라인에서 신뢰를 회복하는 데 충분한가요?

C2PA는 환영할 수 있는 이니셔티브이며, OpenOrigins와 마찬가지로 콘텐츠의 진위를 위한 운동을 지원합니다. 콘텐츠 안전 및 콘텐츠 진위의 생태계의 중요한 부분입니다. C2PA는 모든 사이버 보안 도구와 마찬가지로銀弹은 아닙니다.

영화, 음악, 게임과 같은 산업의 크리에이터와 탤런트를 위해, 오늘날 무단 디지털 복제로부터 자신을 보호하기 위한 실질적인 단계는 무엇입니까?

아티스트들은 오늘날 두 가지 다른 리스크에 직면합니다. 하나는 그들의 작품 – 음악, 이미지, 글 -의 복제이고, 다른 하나는 그들의 유사성 – 얼굴, 목소리, 몸 -의 복제입니다. AI 시스템은 거의 입력 없이 이러한 것을 높은 수준의 신뢰성으로 재현할 수 있습니다. 실질적으로, 보호는 온라인에서 무엇을 공유하는지에 대해 의도적으로 인식하는 것으로 시작됩니다. 온라인에 게시된 콘텐츠는 souvent 스크래핑되고, 훈련 데이터 세트에 사용될 수 있으며, 이는 명확한 동의 또는 가시성 없이 진행될 수 있습니다.

그 リスク는 현재 온라인에서 운영하는 基本的な 리스크입니다. 그러나 더 즉각적이고 제어 가능한 리스크는 souvent 계약에 있습니다. 아티스트가 그들의 협력자, 배급사 또는 플랫폼과 맺은 계약은 AI 사용, 재사용 또는 재판매를 위한 콘텐츠에 대한 조항을 포함할 수 있으며, 이는 souvent 의미 있는 참여 없이 다운스트림 수익을 생성할 수 있습니다.

아티스트를 위해, 이것은 계약 검토를 중요하게 만듭니다. 그들의 작품과 유사성이 어떻게 사용되고, 라이선스되고, 재사용될 수 있는지 이해하는 것이 중요합니다. 이것은 창의적 과정 자체와同じ 중요합니다. 현재의 논의 – 노동조합, 산업 단체, 플랫폼을 통해 -는 이 불균형을 수정하고 크리에이터가 제어와 공정한 보상을 유지하는 것을 중심으로 합니다.

따라서 두 가지 중요한 조언이 있습니다. 온라인에서 무엇을 공유하는지에 주의하십시오. 그리고 AI 조항을 찾기 전에 계약을 읽으십시오.

3~5년 후, 모든 디지털 콘텐츠에 검증 가능한 기원이 있어야 하는 지점에 도달할 것으로 보십니까? 또는 신뢰는 플랫폼과 관할 지역에 걸쳐 분산될 것으로 보십니까?

はい,라고 말하고 싶지만, 현실적으로는 아니오 – 5년 내에는 그렇지 않을 것입니다. 기술의 세계에서 5년은 오래 보입니다. 사용자 행동과 관행을 변경하는 데에는 매우 짧은 시간입니다. 대부분의 소비자는 콘텐츠가 검증된 기원을 가지고 있는지 여부에 따라 결정하지 않을 것입니다. 플랫폼은 사용자 수요를 따르며, 참여도보다 기원을 최적화합니다.

규제가 개입하면 이것이 변경될 수 있습니다. 우리는 이미 캘리포니아와 같은 곳에서 레이블링 및 모더레이션 요구 사항이 나타나고 있습니다. 그러나 이를 글로벌하게 확대하는 것은 시간이 걸릴 것입니다 – 5년보다는 10년 가까이 걸릴 것입니다.

변화의 또 다른 영역은 산업별입니다. 저널리즘, 금융, 보험, 의료와 같은 산업은 그들의 운영에 기본적인 신뢰를 필요로 하기 때문에, 기원을 확인하고 인증하는 것을 요구하기 시작할 수 있습니다.

마지막으로, 소비자는 짧은 기간 내에 기원 정보에 대해 관심을 가지지 않을 수 있지만, 콘텐츠의 품질과 정보의 품질에 관심을 가질 것입니다. AI 생성 콘텐츠가 너무 동질적이거나 “무미”해지면, 관객은 인간이 생성한 콘텐츠를 더 명시적으로 평가할 수 있습니다. 이것은 시장의 세분화를 驅動할 수 있습니다. 일부 플랫폼은 규모와 AI 생성 콘텐츠를 우선시할 수 있으며, 다른 플랫폼은 진위를 위해 큐레이션할 수 있습니다. 그러나 이러한 변화는 아직 未知입니다.

감사합니다. 더 많은 정보를 원하는 독자는 OpenOrigins를 방문할 수 있습니다.

앙투안은 Unite.AI의 비전있는 리더이자 공동 창립자로서, AI와 로봇공학의 미래를 형성하고 촉진하는 데 대한 불변의 열정에 의해 추동됩니다. 연쇄적인 기업가로서, 그는 AI가 사회에 대한 전기와 같은 파괴력을 가질 것이라고 믿으며, 종종 파괴적인 기술과 AGI의 잠재력에 대해 열광합니다.

作为 futurist, 그는 이러한 혁신이 우리의 세계를 어떻게 형성할지 탐구하는 데 전념하고 있습니다. 또한, 그는 Securities.io의 창립자로서, 미래를 재정의하고 전체 부문을 재형성하는 최첨단 기술에 투자하는 플랫폼입니다.