Connect with us

Trí tuệ nhân tạo

Công cụ trình duyệt AI nhằm nhận dạng Deepfakes và các phương tiện truyền thông giả mạo khác

mm

Những nỗ lực của các công ty công nghệ để đối phó với thông tin sai lệch và nội dung giả mạo đang tăng tốc trong thời gian gần đây khi các công nghệ tạo nội dung giả mạo tinh vi như DeepFakes trở nên dễ sử dụng và tinh tế hơn. Một nỗ lực sắp tới để giúp mọi người phát hiện và chống lại deepfakes là RealityDefender, được sản xuất bởi Quỹ AI, đã cam kết phát triển các tác nhân và trợ lý AI đạo đức mà người dùng có thể đào tạo để hoàn thành các nhiệm vụ khác nhau.

Dự án đáng chú ý nhất của Quỹ AI là một nền tảng cho phép mọi người tạo các nhân vật kỹ thuật số giống như họ và đại diện cho họ trong không gian gặp gỡ ảo. Quỹ AI được giám sát bởi Hội đồng AI Toàn cầu và như một phần của nhiệm vụ của họ, họ phải dự đoán các tác động tiêu cực có thể của các nền tảng AI, sau đó cố gắng vượt qua những vấn đề này. Theo VentureBeat, Một trong những công cụ mà Quỹ AI đã tạo ra để hỗ trợ việc phát hiện deepfakes được gọi là Reality Defender. Reality Defender là một công cụ mà một người có thể sử dụng trong trình duyệt web (kiểm tra trên đó), sẽ phân tích video, hình ảnh và các loại phương tiện truyền thông khác để phát hiện các dấu hiệu cho thấy phương tiện truyền thông đã được làm giả hoặc thay đổi theo một cách nào đó. Hy vọng rằng công cụ này sẽ giúp chống lại luồng deepfakes ngày càng tăng trên internet, theo một số ước tính, đã tăng gấp đôi trong khoảng sáu tháng qua.

Reality defender hoạt động bằng cách sử dụng nhiều thuật toán dựa trên AI có thể phát hiện các manh mối cho thấy một hình ảnh hoặc video có thể đã bị làm giả. Các mô hình AI phát hiện các dấu hiệu tinh vi của thủ thuật và thao túng, và các kết quả dương tính giả mà mô hình phát hiện được dán nhãn là không chính xác bởi người dùng công cụ. Dữ liệu sau đó được sử dụng để đào tạo lại mô hình. Các công ty AI tạo ra deepfakes không lừa đảo có nội dung của họ được gắn thẻ với thẻ “honest AI” hoặc watermark cho phép mọi người dễ dàng xác định các giả mạo được tạo bởi AI.

Reality Defender chỉ là một trong số nhiều công cụ và toàn bộ nền tảng trách nhiệm AI mà Quỹ AI đang cố gắng tạo ra. Quỹ AI đang theo đuổi việc tạo ra Guardian AI, một nền tảng trách nhiệm được xây dựng trên nguyên tắc rằng các cá nhân nên có quyền truy cập vào các tác nhân AI cá nhân làm việc cho họ và có thể giúp bảo vệ họ khỏi việc bị bóc lột bởi các tác nhân xấu. Về cơ bản, Quỹ AI đang nhằm mục đích mở rộng phạm vi của AI trong xã hội, mang nó đến nhiều người hơn, đồng thời cũng bảo vệ chống lại các rủi ro của AI.

Reality Defender không phải là sản phẩm mới duy nhất được thúc đẩy bởi AI nhằm giảm thiểu thông tin sai lệch tại Hoa Kỳ. Một sản phẩm tương tự được gọi là SurfSafe, được tạo ra bởi hai sinh viên năm cuối từ UC Berkeley, Rohan Phadte và Ash Bhat. Theo The Verge, SurfSafe hoạt động bằng cách cho phép người dùng của nó nhấp vào một mảnh phương tiện truyền thông mà họ tò mò và chương trình sẽ thực hiện tìm kiếm hình ảnh ngược và cố gắng tìm nội dung tương tự từ các nguồn đáng tin cậy khác trên internet, đánh dấu các hình ảnh được biết là đã bị chỉnh sửa.

Không rõ những giải pháp này sẽ hiệu quả như thế nào trong dài hạn. Giáo sư Dartmouth College và chuyên gia pháp y Hany Farid được trích dẫn bởi The Verge cho biết ông “hoàn toàn hoài nghi” rằng các kế hoạch như Reality Defender sẽ hoạt động có ý nghĩa. Farid giải thích rằng một trong những thách thức chính khi phát hiện nội dung giả mạo là phương tiện truyền thông không hoàn toàn giả hoặc thực. Farid giải thích:

“Có một sự liên tục; một loạt các vấn đề phức tạp để đối phó. Một số thay đổi là vô nghĩa, và một số thay đổi cơ bản thay đổi bản chất của một hình ảnh. Giả vờ chúng ta có thể đào tạo một AI để phát hiện sự khác biệt là cực kỳ ngây thơ. Và giả vờ chúng ta có thể phân cấp nó là thậm chí còn nhiều hơn.”

Hơn nữa, rất khó để bao gồm các yếu tố phân cấp, chẳng hạn như gắn thẻ các kết quả dương tính giả, bởi vì con người thường rất kém trong việc xác định hình ảnh giả. Con người thường mắc lỗi và bỏ lỡ các chi tiết tinh vi đánh dấu một hình ảnh là giả. Điều này cũng không rõ ràng về cách đối phó với các tác nhân xấu có ý định khi họ đánh dấu nội dung.

Có vẻ như, để đạt được hiệu quả tối đa, các công cụ phát hiện giả mạo sẽ phải được kết hợp với các nỗ lực về năng lực số để dạy mọi người cách suy luận về nội dung họ tương tác trực tuyến.

Blogger và lập trình viên với chuyên môn về Machine Learning Deep Learning topics. Daniel hy vọng giúp đỡ người khác sử dụng sức mạnh của AI cho lợi ích xã hội.