Connect with us

Dr Mathilde Pavis, Head of Legal, OpenOrigins – Loạt Phỏng Vấn

Phỏng vấn

Dr Mathilde Pavis, Head of Legal, OpenOrigins – Loạt Phỏng Vấn

mm

Dr Mathilde Pavis, Head of Legal tại OpenOrigins, là một chuyên gia hàng đầu về quy định AI và quản lý truyền thông kỹ thuật số, chuyên về deepfakes, truyền thông tổng hợp và nguồn gốc nội dung. Cô tư vấn cho các công ty, chính phủ và công đoàn về tuân thủ, cấp phép và rủi ro trong AI tạo sinh, và đã làm việc với Microsoft và ElevenLabs về chính sách và chiến lược AI. Cô cũng đã tư vấn cho UNESCO về AI và quyền sở hữu trí tuệ, và thường xuyên cung cấp bằng chứng chuyên môn cho các nhà hoạch định chính sách của Vương quốc Anh.

OpenOrigins phát triển công nghệ để chống lại thông tin sai lệch và deepfakes bằng cách tạo ra hồ sơ số có thể xác minh, không thể giả mạo về nội dung số. Nền tảng của công ty tập trung vào việc thiết lập nguồn gốc rõ ràng, cho phép truyền thông, nhà sáng tạo và nền tảng chứng minh khi và cách nội dung được tạo, chỉnh sửa và phân phối – một khả năng ngày càng quan trọng khi truyền thông tổng hợp trở nên tiên tiến và khó phát hiện hơn.

Bạn đã tư vấn cho các chính phủ, tổ chức toàn cầu như UNESCO và các công ty như Microsoft và ElevenLabs về quy định AI. Điều gì đã dẫn bạn đến tập trung cụ thể vào deepfakes, bản sao kỹ thuật số và truyền thông tổng hợp, và làm thế nào hành trình đó đã định hình quyết định của bạn để thành lập Replique?

Công việc của tôi về deepfakes không bắt đầu với công nghệ – nó bắt đầu với một câu đố pháp lý cũ hơn. Khi tôi bắt đầu nghiên cứu quyền sở hữu trí tuệ cho luận án tiến sĩ của mình vào năm 2013, tôi đã bị thu hút bởi việc các diễn viên nhận được ít bảo vệ hơn so với các tác giả, nhà soạn nhạc hoặc nhà làm phim. Trong thực tế, điều đó có nghĩa là lời nói hoặc âm nhạc của bạn sẽ được bảo vệ tốt hơn trong luật so với giọng nói, khuôn mặt và cơ thể của bạn. Sự mất cân bằng đó cảm thấy kỳ lạ, và nó đã thúc đẩy tôi đặt một câu hỏi sâu hơn: làm thế nào chúng ta đánh giá văn hóa và pháp lý về công việc của một người mà đóng góp của họ là khuôn mặt, giọng nói và cơ thể của họ trên màn hình?

Câu hỏi đó đã dẫn tôi đến quyền của diễn viên và dữ liệu. Tại thời điểm đó, nó được coi là một lĩnh vực hẹp với ít liên quan đến thương mại. Tôi đã được khuyên nên chuyển sang các lĩnh vực “hữu ích” hơn như bằng sáng chế hoặc bản quyền truyền thống. Giả định là các vấn đề liên quan đến hình ảnh hoặc giọng nói của một người chủ yếu được quản lý thông qua các chuẩn mực ngành hoặc “thỏa thuận giữa các quý ông ở Hollywood”. Nhưng đối với tôi, sự thiếu bảo vệ chính thức đó cho thấy một khoảng trống, không phải là một điểm kết thúc cho nghiên cứu của tôi, vì vậy tôi đã tiếp tục với nó.

Điều gì đã thay đổi là rằng ngày nay, gần như mọi người đều là một diễn viên. Cuộc sống của chúng ta được trung gian thông qua máy ảnh – trên điện thoại, máy tính xách tay, cuộc gọi video và nền tảng xã hội. Cho dù là để làm việc hay sử dụng cá nhân, mọi người đều liên tục ghi lại và chia sẻ các phiên bản của chính mình. Các câu hỏi pháp lý mà trước đây chỉ áp dụng cho các diễn viên hoặc nhạc sĩ hiện nay áp dụng cho bất kỳ ai có điện thoại thông minh.

Deepfakes không tạo ra những vấn đề này – chúng đã暴露 và tăng tốc chúng. Nghiên cứu mà tôi đã thực hiện từ năm 2013 trở đi đột nhiên trở nên cấp thiết. Vào khoảng năm 2017 và 2018, các phát triển trong mạng nơ-ron – đặc biệt là từ các nơi như MIT và UC Berkeley – đã bắt đầu chứng minh làm thế nào một người có thể thao túng khuôn mặt, giọng nói và cơ thể của họ một cách kỹ thuật số. Trong vòng một năm, khả năng đó đã trở nên rộng rãi được biết đến với tên gọi “deepfakes” và nó lần đầu tiên được sử dụng trong các cách gây hại sâu sắc, đặc biệt là thông qua nội dung tình dục không đồng ý nhắm vào phụ nữ và trẻ em.

Chỉ sau đó, các ý nghĩa thương mại mới xuất hiện, khi các ngành công nghiệp sáng tạo bắt đầu áp dụng truyền thông tổng hợp. Đó là khi các câu hỏi về hợp đồng và kinh tế mà tôi đã làm việc trở nên nổi bật. Gần như trong một đêm, những gì đã được coi là một lĩnh vực pháp lý chủ yếu là lý thuyết hoặc học thuật đã trở thành một lĩnh vực thực tế, có ý nghĩa thương mại và cấp bách về mặt xã hội.

Tại cốt lõi, thách thức pháp lý không thay đổi: mọi người muốn chia sẻ các khía cạnh của bản thân, nhưng vẫn muốn giữ quyền kiểm soát có ý nghĩa. Các khuôn khổ hiện có gặp khó khăn với sự tinh tế đó. Chúng thường coi các cá nhân là hoàn toàn riêng tư hoặc hoàn toàn công khai – hoặc được bảo vệ hoặc công bằng. Nhưng hầu hết mọi người tồn tại ở đâu đó giữa hai thái cực đó. Sự căng thẳng đó hiện nay là trung tâm không chỉ cho các diễn viên chuyên nghiệp mà còn cho bất kỳ ai tham gia vào cuộc sống kỹ thuật số.

Tôi đã trở thành người được biết đến là người nghiên cứu và làm việc trong không gian này, điều đó đã dẫn tôi đến làm việc với các chính phủ quan tâm đến việc bảo vệ mọi người khỏi deepfakes và các công ty muốn tạo ra các sản phẩm sao chép kỹ thuật số an toàn để sử dụng, như ElevenLabs. Tại Replique, tôi mang tất cả những gì tôi đã học được đến những người và công ty muốn sử dụng công nghệ sao chép kỹ thuật số hoặc công nghệ bản sao kỹ thuật số một cách có trách nhiệm và an toàn. Tôi đã cơ bản biến nghiên cứu “trên bầu trời” của mình thành một doanh nghiệp tư vấn mang lại lời khuyên pháp lý chuyên môn cho các ngành công nghiệp sáng tạo.

Là Head of Legal tại OpenOrigins, một công ty tập trung vào việc thiết lập một hồ sơ không thể thay đổi về nguồn gốc nội dung để chống lại deepfakes, bạn nhìn thấy hệ thống dựa trên nguồn gốc cạnh tranh hoặc thay thế các phương pháp phát hiện deepfakes truyền thống như thế nào?

So sánh các công cụ phát hiện deepfakes có thể nhanh chóng trở thành một bài tập so sánh táo và cam, vì hiệu quả của chúng phụ thuộc vào ngữ cảnh và mục đích. Từ góc độ chính sách, những gì chúng ta cần là một loạt các công cụ bổ sung – không có giải pháp “tốt nhất” duy nhất, và Open Origins là một phần của hệ sinh thái rộng lớn hơn đó. Ở nơi công nghệ của OpenOrigins nổi bật như một giải pháp phát hiện deepfakes là trong các tình huống mà một nhà sáng tạo nội dung hoặc tổ chức thông tin cần chứng minh tính xác thực của nội dung họ chia sẻ với các đối tác, khán giả hoặc công chúng.

Bằng cách cung cấp nguồn gốc có thể xác minh và “hóa đơn” tại thời điểm tạo, nó cung cấp một hình thức phòng ngừa mạnh mẽ bằng cách chứng minh rằng nội dung không phải là deepfakes. Tuy nhiên, cách tiếp cận này ít hữu ích hơn cho người dùng internet hàng ngày muốn đánh giá nhanh nội dung họ gặp trực tuyến. Trong những trường hợp đó, phát hiện dựa nhiều hơn vào các phương pháp phân tích nội dung và xác suất chứ không phải xác minh dựa trên nguồn gốc. Chúng ta cần các công cụ khác nhau cho các nhu cầu khác nhau, và chúng ta cần chấp nhận rằng không có viên đạn bạc chống lại deepfakes.

Từ góc độ pháp lý, hiện tại khoảng trống lớn nhất trong cách các khu vực pháp lý đang xử lý sự đồng ý và sở hữu trong nội dung được tạo hoặc sao chép bởi AI là gì?

Ồ, bạn có bao nhiêu thời gian? Câu trả lời phụ thuộc vào việc chúng ta đang nói về nội dung được tạo hoặc sao chép bởi AI. Các vấn đề khác nhau tùy thuộc vào việc bạn đang xem xét một hình ảnh được tạo bởi AI của một ngôi nhà hoặc một con mèo. Hoặc sự tái tạo kỹ thuật số của khuôn mặt hoặc giọng nói của một người. Hãy tập trung vào chủ đề deepfakes và bản sao kỹ thuật số, và trả lời câu hỏi của bạn trong ngữ cảnh của ‘sao chép kỹ thuật số’.

Về sự đồng ý, vấn đề cốt lõi là hầu hết các hợp đồng – cho dù đó là thỏa thuận việc làm hoặc điều khoản nền tảng – chứa các điều khoản rộng rãi, mơ hồ cho phép quyền rộng rãi đối với nội dung người dùng. Những điều khoản này có thể được giải thích là một hình thức “đồng ý phía sau” nơi việc đồng ý với các điều khoản có thể được coi là đồng ý với việc sử dụng như sao chép, ngay cả khi hầu hết mọi người sẽ mạnh mẽ tranh cãi việc giải thích đó. Điều này tạo ra một khoảng trống đáng kể giữa việc giải thích pháp lý và kỳ vọng của người dùng, một khoảng trống hiện nay có lợi cho các công ty trong khi quy định bị tụt lại phía sau.

Về quyền sở hữu, không có câu trả lời pháp lý rõ ràng về việc ai sở hữu một bản sao kỹ thuật số, vì các khuôn khổ hiện có như bảo vệ dữ liệu, bản quyền và quyền nhân cách không được thiết kế cho công nghệ này. Ngày nay, hầu hết mọi người đều được quét và sao chép tại nơi làm việc, theo yêu cầu và với sự tài trợ của một người sử dụng lao động hoặc khách hàng. Và những thực thể đó thường mong đợi quyền kiểm soát cao đối với tài sản đó, điều này là hợp lý nhưng thường gây vấn đề vì tài sản đó là một bản sao kỹ thuật số của khuôn mặt hoặc giọng nói của bạn, và có thể khiến bạn nói những điều bạn chưa bao giờ nói, hoặc làm những điều bạn chưa bao giờ làm.

Câu hỏi về ‘ai sở hữu bản sao của bạn?’ rất quan trọng, nhưng chưa được trả lời trong pháp luật ngày nay.

Bạn đã làm việc chặt chẽ với các công nghệ sao chép giọng nói. Những rủi ro pháp lý bị hiểu lầm nhất khi nói đến giọng nói tổng hợp, cả cho các công ty và cá nhân, là gì?

Vấn đề pháp lý bị hiểu lầm nhất là sự cân bằng giữa lợi ích thương mại của một công ty trong việc tài trợ và khai thác bản sao kỹ thuật số, và quyền riêng tư và phẩm giá kỹ thuật số của một cá nhân. Sự căng thẳng này nằm trên nhiều chế độ pháp lý (chủ yếu là quyền sở hữu trí tuệ, bảo vệ dữ liệu và quyền riêng tư) mà không được thiết kế để hoạt động cùng nhau và giải thích sao chép theo những cách cơ bản khác nhau. Kết quả là, việc chuyển đổi điều này thành các thực hành kinh doanh có thể hoạt động và có thể tuân thủ là phức tạp và thường không rõ ràng. Các công ty do đó thường bỏ qua các rủi ro chính hoặc phải chịu chi phí đáng kể để điều hướng chúng một cách đúng đắn. Điều đó tạo ra một kết quả ngược chiều, nơi tuân thủ có trách nhiệm trở thành con đường khó khăn và tốn kém hơn, chứ không phải là mặc định.

Như thế nào các doanh nghiệp nên suy nghĩ về kiến trúc đồng ý trong hệ thống AI, đặc biệt là khi xử lý hình ảnh, danh tính và dữ liệu đào tạo?

Các công ty nên thiết kế hệ thống của mình xung quanh ba khả năng cốt lõi. Đầu tiên, họ cần đảm bảo sự đồng ý được thông báo, theo ngữ cảnh tại thời điểm bắt đầu. Thứ hai, họ phải làm cho nó dễ dàng cho người dùng rút lại sự đồng ý đó và xóa một số hoặc tất cả dữ liệu của họ, điều này là thách thức về mặt kỹ thuật và thường bị bỏ qua, nhưng thiết yếu cho việc tuân thủ các luật như GDPR của Vương quốc Anh và EU và các chế độ tương tự ở Mỹ. Việc duy trì sự đồng ý theo thời gian có nghĩa là xây dựng các hệ thống mà việc rút lui là trơn tru về mặt hoạt động và phù hợp với mô hình kinh doanh.

Sự đồng ý phải được phân chia nhỏ. Và thứ ba, người dùng nên có thể quản lý các quyền tại cấp độ tệp riêng lẻ, cập nhật dữ liệu hình ảnh của họ và hiểu cách nó được sử dụng. Điều đó đòi hỏi sự minh bạch và kiểm soát – các công cụ cho phép người dùng theo dõi, xem xét và điều chỉnh cách bản sao kỹ thuật số của họ được triển khai. Mức độ linh hoạt này vẫn còn hiếm, nhưng đó là nơi lợi thế cạnh tranh ngày càng nằm.

Trong kinh nghiệm tư vấn của bạn cho cả các công ty khởi nghiệp và chính phủ, khoảng cách lớn nhất giữa việc xây dựng AI và việc quy định AI là gì?

Khoảng cách giữa việc xây dựng AI và việc quy định AI là do các nhiệm vụ cơ bản khác nhau. Các chính phủ quy định vì lợi ích công cộng, trong khi các công ty AI (thường được hỗ trợ bởi vốn đầu tư mạo hiểm) chủ yếu được thúc đẩy bởi tăng trưởng, doanh thu và lợi nhuận. Những ưu tiên đó không luôn mâu thuẫn, nhưng chúng thường kéo theo các hướng khác nhau, với quy định được coi là một hạn chế chứ không phải là hỗ trợ.

Điều này tạo ra một sự căng thẳng cấu trúc: các nhà quy định và các nhà đổi mới đang hoạt động với các ưu tiên, giá trị và thậm chí ngôn ngữ khác nhau. Điều đó làm cho sự phù hợp trong thực tế trở nên khó khăn, ngay cả khi nó không phải là không thể. Chúng ta đang bắt đầu thấy một làn sóng mới của các công ty công nghệ phù hợp hơn với các mục tiêu lợi ích công cộng, nhưng chúng vẫn là ngoại lệ chứ không phải là quy tắc – đặc biệt là trong số những công ty đã thành công trong việc mở rộng quy mô.

OpenOrigins tập trung vào việc xác minh nội dung tại thời điểm tạo sử dụng nguồn gốc mã hóa. Phương pháp tiếp cận “nguồn gốc trước” này quan trọng như thế nào so với các biện pháp an toàn sau phân phối?

Điều này quay lại câu trả lời của tôi ở trên. Xác thực nội dung tại thời điểm tạo, ‘nguồn gốc’ là hiệu quả hơn nhiều so với việc cố gắng xác thực nó tại thời điểm phân phối hoặc thậm chí tiêu thụ, tức là ‘hậu phân phối’. Xác thực nội dung tại thời điểm tạo giống như theo dõi thực phẩm từ thời điểm nó được trồng trên nông trại, chứ không phải cố gắng tìm hiểu từ những gì trên đĩa của bạn. Nếu bạn biết gà được nuôi ở đâu, cách nó được xử lý và cách nó di chuyển qua chuỗi cung ứng, bạn có thể tin tưởng vào những gì bạn đang ăn. Nếu bạn thay vào đó cố gắng suy luận tất cả những điều đó chỉ bằng cách nhìn vào món ăn hoàn chỉnh, bạn đang dựa vào việc đoán già.

Điều tương tự áp dụng cho việc phân biệt giữa nội dung được tạo bởi con người và nội dung được tạo bởi AI trực tuyến: nguồn gốc tại nguồn cung cấp cho bạn sự đảm bảo có thể xác minh, trong khi việc phát hiện hậu phân phối vốn không chắc chắn và phản ứng hơn.

Vai trò bạn nhìn thấy các tiêu chuẩn như C2PA sẽ đóng trong tương lai của truyền thông, và liệu chúng có đủ để khôi phục niềm tin trực tuyến hay không?

C2PA là một sáng kiến chào đón, và theo nhiều cách, hỗ trợ cùng một phong trào về tính xác thực nội dung như OpenOrigins. Họ là một phần quan trọng của hệ sinh thái an toàn nội dung và tính xác thực nội dung. Như với mọi công cụ an ninh mạng, không có viên đạn bạc.

Đối với các nhà sáng tạo và tài năng trong các ngành như điện ảnh, âm nhạc và trò chơi, những bước thực tế nào họ nên thực hiện ngày hôm nay để bảo vệ mình khỏi việc sao chép kỹ thuật số không được ủy quyền?

Các nghệ sĩ ngày nay phải đối mặt với hai rủi ro riêng biệt: sự sao chép công việc của họ (chẳng hạn như âm nhạc, hình ảnh hoặc viết) và sự sao chép hình ảnh của họ, bao gồm khuôn mặt, giọng nói và cơ thể của họ. Với đầu vào tối thiểu, các hệ thống AI hiện có thể sao chép cả hai với độ trung thực cao. Về mặt thực tế, việc bảo vệ bắt đầu với việc có chủ đích về những gì bạn chia sẻ trực tuyến, nhận ra rằng bất kỳ nội dung nào được đăng có thể bị thu thập và sử dụng trong các tập dữ liệu đào tạo, thường không có sự đồng ý rõ ràng hoặc khả năng hiển thị.

Rủi ro đó hiện là một thực tế cơ bản của hoạt động trực tuyến. Nhưng rủi ro gần gũi hơn thường nằm trong các hợp đồng. Các thỏa thuận mà các nghệ sĩ thực hiện với các cộng tác viên, nhà phân phối hoặc nền tảng của họ có thể bao gồm các điều khoản cho phép sử dụng, tái sử dụng hoặc bán lại nội dung cho mục đích đào tạo – thường không có sự tham gia có ý nghĩa vào doanh thu hạ nguồn.

Đối với các nghệ sĩ, điều này làm cho việc kiểm tra hợp đồng trở nên quan trọng. Việc hiểu cách công việc và hình ảnh của họ có thể được sử dụng, cấp phép hoặc tái sử dụng là điều quan trọng không kém so với quá trình sáng tạo bản thân. Phần lớn cuộc tranh luận hiện tại (trên các công đoàn, cơ quan ngành và nền tảng) tập trung vào việc sửa chữa sự mất cân bằng này và đảm bảo rằng các nhà sáng tạo giữ cả quyền kiểm soát và bồi thường công bằng.

Vì vậy, hai lời khuyên chính: hãy cẩn thận với những gì bạn chia sẻ trực tuyến, và đọc kỹ hợp đồng của bạn và tìm kiếm các điều khoản AI trước khi ký.

Nhìn về tương lai ba đến năm năm, bạn có tin rằng chúng ta sẽ đạt đến một điểm mà mọi nội dung kỹ thuật số phải mang theo nguồn gốc có thể xác minh, hoặc niềm tin sẽ vẫn bị phân mảnh trên các nền tảng và khu vực pháp lý?

Tôi muốn nói có, nhưng thực tế, không – không trong vòng năm năm. Trong công nghệ, năm năm cảm giác như một khoảng thời gian dài; về việc thay đổi hành vi và thói quen của người dùng, nó rất ngắn. Hầu hết người tiêu dùng không có khả năng đưa ra quyết định dựa trên việc nội dung có đi kèm với nguồn gốc được xác thực hay không. Các nền tảng có xu hướng theo sát nhu cầu của người dùng, tối ưu hóa cho sự tương tác hơn là nguồn gốc.

Điều đó có thể thay đổi nếu quy định can thiệp. Chúng ta đang thấy những động thái đầu tiên ở những nơi như California, nơi các yêu cầu về ghi nhãn và điều tiết đang xuất hiện, nhưng việc mở rộng quy mô toàn cầu sẽ mất thời gian – có khả năng là một thập kỷ hơn là năm năm.

Một lĩnh vực thay đổi khác là lĩnh vực cụ thể: các ngành như báo chí, tài chính, bảo hiểm và chăm sóc sức khỏe có thể bắt đầu yêu cầu nguồn gốc và xác thực vì niềm tin là cơ bản cho hoạt động của họ.

Cuối cùng nhưng không kém, người tiêu dùng có thể không quan tâm đến thông tin về nguồn gốc trong ngắn hạn, nhưng họ có thể quan tâm đến chất lượng nội dung và chất lượng thông tin. Nếu nội dung được tạo bởi AI trở nên quá đồng nhất hoặc “nhàm chán”, khán giả có thể bắt đầu đánh giá cao nội dung được tạo bởi con người một cách rõ ràng hơn. Điều đó có thể thúc đẩy sự phân khúc thị trường, với một số nền tảng ưu tiên quy mô và nội dung được tạo bởi AI, và những nền tảng khác sẽ chăm sóc tính xác thực, nguồn gốc và vật liệu do con người lãnh đạo có độ tin cậy cao – nhưng sự thay đổi đó vẫn còn là một điều không chắc chắn.

Cảm ơn bạn vì những câu trả lời tuyệt vời, những người đọc muốn tìm hiểu thêm nên truy cập OpenOrigins.

Antoine là một nhà lãnh đạo có tầm nhìn và là đối tác sáng lập của Unite.AI, được thúc đẩy bởi một niềm đam mê không ngừng nghỉ để định hình và thúc đẩy tương lai của AI và robot. Là một doanh nhân liên tục, ông tin rằng AI sẽ gây ra sự gián đoạn cho xã hội giống như điện, và thường bị bắt gặp nói về tiềm năng của các công nghệ gây gián đoạn và AGI.
Như một futurist, ông dành để khám phá cách những đổi mới này sẽ định hình thế giới của chúng ta. Ngoài ra, ông là người sáng lập của Securities.io, một nền tảng tập trung vào đầu tư vào các công nghệ tiên tiến đang định nghĩa lại tương lai và thay đổi toàn bộ lĩnh vực.