Connect with us

Alex Fink, Tech Executive, Founder & CEO của Otherweb – Loạt phỏng vấn

Phỏng vấn

Alex Fink, Tech Executive, Founder & CEO của Otherweb – Loạt phỏng vấn

mm

Alex Fink là một nhà điều hành công nghệ và là Người sáng lập và CEO của Otherweb, một Công ty Lợi ích Công cộng sử dụng Trí tuệ nhân tạo để giúp mọi người đọc tin tức và bình luận, nghe podcast và tìm kiếm web mà không có tường lửa, clickbait, quảng cáo, video tự động phát, liên kết liên kết hoặc bất kỳ nội dung “rác” nào khác. Otherweb có sẵn dưới dạng ứng dụng (iOS và Android), trang web, bản tin hoặc tiện ích mở rộng trình duyệt độc lập. Trước khi thành lập Otherweb, Alex là Người sáng lập và CEO của Panopteo và là Đồng sáng lập và Chủ tịch của Swarmer.

Bạn có thể cung cấp cái nhìn tổng quan về Otherweb và sứ mệnh tạo ra không gian tin tức không có rác?

Otherweb là một công ty lợi ích công cộng, được tạo ra để giúp cải thiện chất lượng thông tin mà mọi người tiêu thụ.

Sản phẩm chính của chúng tôi là ứng dụng tin tức sử dụng Trí tuệ nhân tạo để lọc ra rác và cho phép người dùng tùy chỉnh không giới hạn – kiểm soát mọi ngưỡng chất lượng và mọi cơ chế sắp xếp mà ứng dụng sử dụng.

Nói cách khác, trong khi phần còn lại của thế giới tạo ra các thuật toán hộp đen để tối đa hóa sự tương tác của người dùng, chúng tôi muốn mang lại cho người dùng càng nhiều giá trị càng tốt trong thời gian ngắn nhất có thể, và chúng tôi làm cho mọi thứ có thể tùy chỉnh. Chúng tôi thậm chí đã làm cho các mô hình Trí tuệ nhân tạo và tập dữ liệu của chúng tôi trở nên nguồn mở để mọi người có thể thấy chính xác những gì chúng tôi đang làm và cách chúng tôi đánh giá nội dung.

Điều gì đã truyền cảm hứng cho bạn để tập trung vào việc chống lại thông tin sai lệch và tin giả bằng cách sử dụng Trí tuệ nhân tạo?

Tôi sinh ra ở Liên Xô và đã thấy điều gì xảy ra với một xã hội khi mọi người tiêu thụ tuyên truyền, và không ai có ý tưởng về những gì đang xảy ra trên thế giới. Tôi có những ký ức sống động về việc bố mẹ tôi thức dậy vào lúc 4 giờ sáng, khóa mình trong tủ quần áo và bật radio để nghe Voice of America. Tất nhiên, điều đó là bất hợp pháp, đó là lý do tại sao họ làm điều đó vào ban đêm và đảm bảo rằng hàng xóm không thể nghe thấy – nhưng nó đã mang lại cho chúng tôi quyền truy cập vào thông tin thực sự.

Tôi thực sự nhớ lại việc nhìn thấy ảnh xe tăng trên đường phố tôi lớn lên và nghĩ “đây là giá trị của thông tin thực sự”.

Tôi muốn nhiều người hơn có thể tiếp cận thông tin chất lượng cao và thực sự.

Threat của deepfake, đặc biệt là trong bối cảnh ảnh hưởng đến bầu cử, có ý nghĩa như thế nào? Bạn có thể chia sẻ các ví dụ cụ thể về cách deepfake đã được sử dụng để lan truyền thông tin sai lệch và tác động của chúng?

Trong ngắn hạn, đó là một mối đe dọa rất nghiêm trọng.

Cử tri không nhận ra rằng video và âm thanh ghi lại không còn đáng tin cậy. Họ nghĩ video là bằng chứng rằng một điều gì đó đã xảy ra, và 2 năm trước đây điều này vẫn còn đúng, nhưng bây giờ rõ ràng không còn đúng nữa.

Năm nay, ở Pakistan, cử tri của Imran Khan nhận được cuộc gọi từ chính Imran Khan, yêu cầu họ tẩy chay cuộc bầu cử. Tất nhiên, đó là giả, nhưng nhiều người đã tin vào nó.

Cử tri ở Ý đã thấy một trong những nữ chính trị gia của họ xuất hiện trong một video khiêu dâm. Tất nhiên, đó là giả, nhưng vào thời điểm sự giả mạo được phát hiện – thiệt hại đã được thực hiện.

Thậm chí ở Arizona, chúng tôi đã thấy một bản tin quảng cáo bản thân bằng cách hiển thị một video giới thiệu của Kari Lake. Cô ấy không bao giờ giới thiệu nó, nhưng bản tin vẫn nhận được hàng nghìn người đăng ký.

Vì vậy, đến tháng 11, tôi nghĩ rằng gần như không thể tránh khỏi rằng chúng tôi sẽ thấy ít nhất một quả bom giả. Và rất có khả năng nó sẽ rơi ngay trước cuộc bầu cử và được tiết lộ là giả ngay sau cuộc bầu cử – khi thiệt hại đã được thực hiện.

Làm thế nào để các công cụ Trí tuệ nhân tạo hiện tại có hiệu quả trong việc xác định deepfake, và những cải tiến nào bạn dự đoán trong tương lai?

Trong quá khứ, cách tốt nhất để xác định hình ảnh giả là phóng to và tìm kiếm những sai sót đặc trưng (aka “tác phẩm phụ”) mà các nhà tạo nội dung thường mắc phải. Ánh sáng không chính xác, bóng thiếu, cạnh không đều trên các đối tượng nhất định, nén quá mức xung quanh các đối tượng, v.v.

Vấn đề với việc chỉnh sửa dựa trên GAN (aka “deepfake”) là không có bất kỳ tác phẩm phụ nào trong số này hiện diện.

Quá trình này hoạt động theo cách mà một mô hình Trí tuệ nhân tạo chỉnh sửa hình ảnh, và một mô hình Trí tuệ nhân tạo khác tìm kiếm các tác phẩm phụ và chỉ ra chúng – và chu kỳ này được lặp lại nhiều lần cho đến khi không còn tác phẩm phụ nào còn lại.

Kết quả là, nói chung, không có cách nào để xác định một deepfake video được thực hiện tốt bằng cách nhìn vào nội dung chính nó.

Chúng tôi phải thay đổi tâm trạng của mình, và bắt đầu giả định rằng nội dung chỉ thực sự nếu chúng tôi có thể theo dõi chuỗi quyền sở hữu của nó trở lại nguồn gốc. Hãy nghĩ về nó như dấu vân tay. Việc nhìn thấy dấu vân tay trên vũ khí giết người không đủ. Bạn cần biết ai đã tìm thấy vũ khí, ai đã mang nó trở lại phòng lưu trữ, v.v. – bạn cần có thể theo dõi mọi lần nó thay đổi tay và đảm bảo rằng nó không bị can thiệp.

Các biện pháp nào mà chính phủ và các công ty công nghệ có thể thực hiện để ngăn chặn sự lan truyền của thông tin sai lệch trong các thời điểm quan trọng như bầu cử?

Biện pháp tốt nhất để chống lại thông tin sai lệch là thời gian. Nếu bạn thấy một điều gì đó thay đổi mọi thứ, đừng vội đăng tải – hãy dành một hoặc hai ngày để xác minh rằng nó thực sự đúng.

Thật không may, cách tiếp cận này va chạm với mô hình kinh doanh của truyền thông, mô hình này thưởng cho các lần nhấp chuột ngay cả khi nội dung cuối cùng bị tiết lộ là sai.

Làm thế nào Otherweb tận dụng Trí tuệ nhân tạo để đảm bảo tính xác thực và chính xác của tin tức mà nó tổng hợp?

Chúng tôi đã phát hiện ra rằng có mối tương quan mạnh mẽ giữa sự chính xác và hình thức. Những người muốn nói sự thật có xu hướng sử dụng một loại ngôn ngữ nhất định nhấn mạnh sự kiềm chế và khiêm tốn, trong khi những người không coi trọng sự thật cố gắng thu hút sự chú ý.

Otherweb tập trung lớn nhất không phải là kiểm tra thực tế. Đó là kiểm tra hình thức. Chúng tôi chọn các bài viết tránh ngôn ngữ thu hút sự chú ý, cung cấp tài liệu tham khảo bên ngoài cho mọi tuyên bố, tuyên bố mọi thứ như chúng là, và không sử dụng các kỹ thuật thuyết phục.

Phương pháp này không hoàn hảo, tất nhiên, và về lý thuyết, một tác nhân xấu có thể viết một lời nói dối theo chính xác phong cách mà các mô hình của chúng tôi thưởng. Nhưng trên thực tế, điều này không xảy ra. Những người muốn nói dối cũng muốn thu hút sự chú ý – đây là điều mà chúng tôi đã dạy cho các mô hình của mình để phát hiện và lọc ra.

Với việc ngày càng khó phân biệt hình ảnh thực và giả, làm thế nào các nền tảng như Otherweb có thể giúp khôi phục niềm tin của người dùng vào nội dung kỹ thuật số?

Cách tốt nhất để giúp mọi người tiêu thụ nội dung tốt hơn là lấy mẫu từ tất cả các phía, chọn ra những gì tốt nhất của mỗi bên, và thực hiện rất nhiều sự kiềm chế. Hầu hết các phương tiện truyền thông đang vội vàng đăng tải thông tin không được xác minh những ngày này. Khả năng của chúng tôi trong việc tham chiếu chéo thông tin từ hàng trăm nguồn và tập trung vào các mục tốt nhất cho phép chúng tôi bảo vệ người dùng của mình khỏi hầu hết các hình thức thông tin sai lệch.

Vai trò của siêu dữ liệu, như tiêu chuẩn C2PA, trong việc xác minh tính xác thực của hình ảnh và video là gì?

Đó là giải pháp khả thi duy nhất. C2PA có thể hoặc không phải là tiêu chuẩn đúng, nhưng rõ ràng rằng cách duy nhất để xác thực liệu video bạn đang xem phản ánh một điều gì đó thực sự xảy ra trong thực tế là để a) đảm bảo rằng máy ảnh được sử dụng để chụp video chỉ đang chụp và không chỉnh sửa, và b) đảm bảo rằng không ai chỉnh sửa video sau khi nó rời khỏi máy ảnh. Cách tốt nhất để làm điều đó là tập trung vào siêu dữ liệu.

Các phát triển tương lai nào bạn dự đoán trong cuộc chiến chống lại thông tin sai lệch và deepfake?

Tôi nghĩ rằng, trong vòng 2-3 năm, mọi người sẽ thích nghi với thực tế mới và thay đổi tâm trạng của mình. Trước thế kỷ 19, bằng chứng tốt nhất là lời chứng của nhân chứng. Deepfake có thể khiến chúng tôi quay lại những tiêu chuẩn đã được thử nghiệm và đúng.

Với thông tin sai lệch nói chung, tôi tin rằng cần phải có một cái nhìn tinh tế hơn và tách biệt thông tin sai lệch (tức là thông tin sai được tạo ra một cách cố ý để đánh lừa) khỏi rác (tức là thông tin được tạo ra để được kiếm tiền, bất kể tính đúng đắn của nó).

Biện pháp khắc phục rác là một cơ chế lọc làm cho rác ít có khả năng lan truyền. Nó sẽ thay đổi cấu trúc khuyến khích khiến rác lan như lửa. Thông tin sai lệch vẫn sẽ tồn tại, giống như nó đã luôn tồn tại. Chúng tôi đã có thể đối phó với nó trong suốt thế kỷ 20, và chúng tôi sẽ có thể đối phó với nó trong thế kỷ 21.

Điều chúng tôi phải lo lắng là lũ lụt của rác mà chúng tôi không có khả năng xử lý ngay bây giờ. Đó là vấn đề chính mà nhân loại cần giải quyết.

Khi chúng tôi thay đổi các khuyến khích, tỷ lệ tín hiệu trên tiếng ồn của internet sẽ cải thiện cho mọi người.

Cảm ơn vì cuộc phỏng vấn tuyệt vời, những người đọc muốn tìm hiểu thêm nên truy cập trang web Otherweb, hoặc theo dõi họ trên X hoặc LinkedIn.

Antoine là một nhà lãnh đạo có tầm nhìn và là đối tác sáng lập của Unite.AI, được thúc đẩy bởi một niềm đam mê không ngừng nghỉ để định hình và thúc đẩy tương lai của AI và robot. Là một doanh nhân liên tục, ông tin rằng AI sẽ gây ra sự gián đoạn cho xã hội giống như điện, và thường bị bắt gặp nói về tiềm năng của các công nghệ gây gián đoạn và AGI.
Như một futurist, ông dành để khám phá cách những đổi mới này sẽ định hình thế giới của chúng ta. Ngoài ra, ông là người sáng lập của Securities.io, một nền tảng tập trung vào đầu tư vào các công nghệ tiên tiến đang định nghĩa lại tương lai và thay đổi toàn bộ lĩnh vực.