Connect with us

Lãnh đạo tư tưởng

Cách Facebook Sử Dụng Trí Tuệ Nhân Tạo Lan Truyền Thông Tin Sai và Đe Dọa Dân Chủ

mm

Dan Tunkelang, người từng giám sát nghiên cứu trí tuệ nhân tạo tại LinkedIn, đã tuyên bố: “Khi các khuyến nghị có sức mạnh ảnh hưởng đến quyết định, chúng trở thành mục tiêu cho những kẻ gửi thư rác, lừa đảo và những người có động cơ không cao thượng.”

Đây là tình huống mà các công ty truyền thông xã hội như Facebook đang gặp phải. Facebook sử dụng phản hồi ngầm để theo dõi các lần nhấp, xem và các hành vi người dùng có thể đo lường khác. Điều này được sử dụng để thiết kế những gì được xác định là “động cơ khuyến nghị”, một hệ thống trí tuệ nhân tạo có sức mạnh tối thượng trong việc quyết định ai nhìn thấy nội dung nào và khi nào.

Facebook đã tối ưu hóa động cơ khuyến nghị của mình để tối đa hóa sự tương tác của người dùng, được đo lường bằng thời gian mà người dùng dành trên nền tảng Facebook. Tối đa hóa thời gian có ưu tiên hơn bất kỳ biến số nào khác, bao gồm chất lượng hoặc độ chính xác của nội dung được khuyến nghị.

Hệ thống được thiết kế để thưởng cho các tiêu đề nhạy cảm, thu hút người dùng bằng cách khai thác thiên vị nhận thức, ngay cả khi những tiêu đề đó được viết bởi những kẻ troll Nga với ý định chia rẽ xã hội hoặc ảnh hưởng đến bầu cử chính trị.

Cách Facebook Sử Dụng Trí Tuệ Nhân Tạo

Có sự thiếu nhận thức về cách Facebook sử dụng trí tuệ nhân tạo để quyết định nội dung mà người dùng nhìn thấy và tương tác. Một người phải hiểu trước về thiên vị xác nhận. Psychology Today mô tả điều này như:

Thiên vị xác nhận là xu hướng tìm kiếm, giải thích, ưa thích và nhớ thông tin theo cách xác nhận hoặc hỗ trợ niềm tin hoặc giá trị trước đó của một người.

Facebook hiểu rằng người dùng có nhiều khả năng nhấp vào tin tức mà phù hợp với xu hướng của con người trong việc tìm kiếm thiên vị xác nhận. Điều này tạo ra một tiền lệ nguy hiểm cho cả việc lan truyền các thuyết âm mưu và tạo ra các phòng vang nơi người dùng được cho ăn độc quyền những gì họ muốn nhìn thấy, bất kể độ chính xác hoặc tác động xã hội của nội dung được nhìn thấy.

Một nghiên cứu của MIT đã chứng minh rằng tin giả trên Twitter lan truyền nhanh gấp 6 lần so với tin thật.

Điều này có nghĩa là cả Twitter và Facebook có thể bị vũ khí hóa. Trong khi Twitter cho phép bất kỳ ai theo dõi các nguồn cấp dữ liệu có quan điểm hẹp hoặc thiên vị, Facebook đã đi xa hơn. Một người dùng trên Facebook hiện không có cách nào để kiểm soát hoặc đo lường nội dung được nhìn thấy, điều này được kiểm soát hoàn toàn bởi động cơ khuyến nghị của Facebook, cách nó đo lường sự tương tác của người dùng và cách nó tối ưu hóa sự tương tác của người dùng.

Facebook cố gắng định hình và dự đoán mong muốn của người dùng. Facebook ước tính mức độ mà người dùng sẽ thích hoặc không thích một mục tin chưa được người dùng trải nghiệm. Để tránh mất sự tương tác của người dùng, Facebook sau đó chọn bỏ qua các mục tin có thể giảm mức độ tương tác và chọn thay vào đó để tương tác với người dùng bằng cách cho ăn các mục tin mà nuôi dưỡng thiên vị xác nhận, đảm bảo nhiều nhấp chuột, bình luận, thích và chia sẻ hơn.

Facebook cũng sử dụng lọc cộng tác tự động của các hành động và ý kiến lịch sử của người dùng để tự động匹配 các tham gia (bạn bè) có quan điểm tương tự. Facebook sử dụng một hàm tiện ích tự động và toán học dự đoán và xếp hạng sở thích của người dùng cho các mục mà người dùng muốn nhìn thấy.

Điều này khiến người dùng rơi vào một cái hố thỏ, họ bị mắc kẹt trong tin giả, được cho ăn nội dung mà củng cố thiên vị của họ. Nội dung được trình bày vốn được thiết kế với mục tiêu ảnh hưởng đến những gì người dùng nhấp vào. Nếu người dùng tin vào thuyết âm mưu rằng Bill Gates đang cố gắng vi mạch hóa dân số bằng cách sử dụng vắc xin, tại sao Facebook lại trình bày cho người dùng bằng chứng trái ngược có thể khiến người dùng mất hứng thú với nền tảng?

Nếu người dùng ủng hộ một ứng cử viên chính trị nhất định, tại sao Facebook lại cung cấp tin tức trái ngược với quan điểm tích cực của người dùng về ứng cử viên đó?

Như nếu điều này không đủ, Facebook cũng tham gia vào cái được gọi là “bằng chứng xã hội”. Bằng chứng xã hội là khái niệm rằng người dân sẽ theo dõi hành động của đám đông. Ý tưởng là vì nhiều người khác hành động theo một cách nhất định, nó phải là hành vi đúng.

Facebook cung cấp bằng chứng xã hội trong bối cảnh thích, bình luận hoặc chia sẻ. Vì chỉ có một số bạn bè có thể nhìn thấy mục tin (trừ khi họ tìm kiếm cụ thể dòng thời gian của người dùng), bằng chứng xã hội đơn giản chỉ củng cố thiên vị xác nhận.

Facebook cũng sử dụng bong bóng lọc để hạn chế tiếp xúc với các quan điểm mâu thuẫn, trái ngược và thách thức.

Quảng Cáo Facebook

Những người dùng Facebook không nghi ngờ có thể nhấp vào quảng cáo mà không biết rằng họ đang được trình bày với quảng cáo. Lý do rất đơn giản, nếu có một quảng cáo chỉ người dùng đầu tiên được trình bày với quảng cáo sẽ nhìn thấy tuyên bố từ chối trách nhiệm của quảng cáo. Nếu người dùng đó chia sẻ quảng cáo, mọi người trong danh sách bạn bè của họ chỉ nhìn thấy “chia sẻ” như một mục tin dòng thời gian vì Facebook cố ý bỏ qua tuyên bố từ chối trách nhiệm của quảng cáo. Ngay lập tức, người dùng bỏ cảnh giác, họ không thể phân biệt giữa quảng cáo và nội dung có thể xuất hiện tự nhiên trên dòng thời gian của họ.

Chia Sẻ Facebook

Thật không may, mọi thứ trở nên tồi tệ hơn. Nếu một người dùng có 1000 bạn bè đồng thời chia sẻ nội dung, động cơ khuyến nghị sẽ ưu tiên nội dung từ thiểu số có cùng quan điểm, ngay cả khi những quan điểm này thường bao gồm các thuyết âm mưu chưa được chứng minh. Người dùng sau đó sẽ bị lừa nghĩ rằng những mục tin dòng thời gian này được nhìn thấy bởi mọi người. Bằng cách tương tác với dòng thời gian này, những người dùng này đang tối ưu hóa bằng chứng xã hội của nhau.

Nếu người dùng cố gắng làm sáng tỏ cho người dùng khác về một mục tin sai lệch hoặc giả, hành động bình luận hoặc tương tác với dòng thời gian đơn giản chỉ tăng thời gian tương tác của người dùng ban đầu. Vòng phản hồi này khiến Facebook củng cố việc tương tác với người dùng bằng cách cho ăn thêm tin giả.

Điều này gây ra một phòng vang, một bong bóng lọc nơi người dùng được huấn luyện để chỉ tin vào những gì họ nhìn thấy. Sự thật đơn giản chỉ là một ảo tưởng.

Tính Nghiêm Trọng Của Vấn Đề

Hơn 10 triệu người tương tác với một dòng thời gian tuyên bố rằng Giáo hoàng Francis đã ủng hộ việc bầu cử Trump vào năm 2016. Không có bằng chứng nào về điều này, nó chỉ là một câu chuyện giả được tạo ra từ Nga, nhưng đây là câu chuyện được chia sẻ nhiều nhất trên Facebook trong ba tháng trước cuộc bầu cử năm 2016.

Mục tin này được tạo ra bởi một trang trại troll Nga tự xưng là “Cơ quan Nghiên cứu Internet”. Tổ chức này cũng chịu trách nhiệm quảng bá và chia sẻ trên Twitter và Facebook các bài viết gây chia rẽ chủng tộc, chống lại phong trào Black Lives Matter, và vũ khí hóa các mục tin giả lan truyền các tuyên bố sai về các chính trị gia Mỹ.

Uỷ ban Tình báo Thượng viện đã phát hành một báo cáo 85 trang chi tiết về các Chiến dịch và Can thiệp Biện pháp Hoạt động Nga, phần lớn trong số đó liên quan đến việc lan truyền tin giả chia rẽ và tuyên truyền có ý định ảnh hưởng đến cuộc bầu cử năm 2016 ở Mỹ.

Tăng tốc đến cuộc bầu cử năm 2020 và vấn đề đã trở nên tồi tệ hơn. Vào tháng 9 năm 2020, sau khi nhận được lời khuyên từ FBI, Facebook và Twitter ngừng hoạt động các tài khoản truyền thông xã hội cho một tổ chức truyền thông có tên là PeaceData, được liên kết với nỗ lực tuyên truyền nhà nước của Nga.

Thật không may, việc ngừng hoạt động tài khoản chỉ là một giải pháp tạm thời và không hiệu quả. Các tài khoản Nga thường có hình thức là yêu cầu kết bạn, thường bị thu hút bởi phụ nữ có hồ sơ hấp dẫn nhắm vào nam giới, hoặc hồ sơ người dùng bị hack với lịch sử đăng bài thường xuyên. Những tài khoản bị hack này dần dần chuyển sang các bài đăng chính trị, cho đến khi chúng bị chi phối bởi tuyên truyền hoặc các thuyết âm mưu.

Một người dùng không nghi ngờ có thể không biết rằng tài khoản của bạn bè đã bị xâm phạm. Nếu người dùng đó dễ bị ảnh hưởng bởi các thuyết âm mưu, họ có thể tương tác với mục tin dòng thời gian giả, troll Nga thường là một bot, sau đó cung cấp thêm bằng chứng xã hội dưới hình thức thích hoặc bình luận.

Những người dùng dễ bị tổn thương thường là những người ít hiểu biết về công nghệ và trí tuệ nhân tạo. Dân số trên 65 tuổi, những người có khả năng bỏ phiếu cao nhất, cũng là những người dễ lan truyền tin giả nhất, như báo cáo của New York Times.

Theo nghiên cứu, người dùng Facebook từ 65 tuổi trở lên đã đăng bài từ các trang web tin giả nhiều hơn 7 lần so với người dùng từ 29 tuổi trở xuống. Sự thiếu hiểu biết về phương tiện truyền thông kỹ thuật số đã khiến nhóm tuổi này không chuẩn bị cho một dòng thời gian không dựa trên sự thật hoặc độ chính xác, mà chỉ dựa trên sự tương tác của người dùng.

Những kẻ xấu đang lợi dụng động cơ khuyến nghị của Facebook, khai thác thiên vị nhận thức của chúng ta chống lại chúng ta. Những tổ chức này đã tối ưu hóa việc lạm dụng trí tuệ nhân tạo của Facebook để lan truyền các thuyết âm mưu và tuyên truyền. Các thuyết âm mưu có thể看似 vô hại ban đầu, thường được sử dụng như phễu vào chủ nghĩa siêu quyền, chủ nghĩa dân tộc cánh hữu hoặc QAnon một thuyết âm mưu kỳ lạ liên quan đến Trump cố gắng cứu thế giới khỏi những kẻ bạo lực tự do, một thuyết âm mưu không có cơ sở thực tế.

Tóm Tắt

Facebook rõ ràng biết rằng có một vấn đề và họ đã công khai đông bố một chiến lược tập trung vào việc loại bỏ nội dung vi phạm Tiêu chuẩn Cộng đồng của Facebook. Vấn đề là xóa tài khoản chỉ là một biện pháp tạm thời và không hiệu quả khi tài khoản được tạo ra hàng loạt bởi bot hoặc việc hack hàng loạt tài khoản người dùng. Nó cũng không giải quyết vấn đề rằng hầu hết việc chia sẻ là bởi người dùng thường không biết rằng họ đang lan truyền thông tin sai.

Việc thêm nhãn cảnh báo chỉ phục vụ để củng cố các thuyết âm mưu rằng các gã khổng lồ truyền thông xã hội bị thiên vị chống lại những người bảo thủ, những người dễ bị ảnh hưởng bởi tin giả nhất nhiều nhất.

Giải pháp cần phải là một động cơ khuyến nghị mới, đo lường không chỉ sự tương tác của người dùng, mà còn được tối ưu hóa cho hạnh phúc của người dùng bằng cách cung cấp sự thật và thúc đẩy nhận thức tự nâng cao.

Trong khi chờ đợi, Facebook nên theo đuổi con đường mà Twitter đã thực hiện để cấm quảng cáo chính trị.

Cuối cùng, một câu hỏi quan trọng cần được đặt ra. Nếu người dùng không còn có sự lựa chọn về tin tức họ nhìn thấy, khi nào nó ngừng trở thành một khuyến nghị và khi nào nó trở thành kiểm soát tâm trí?

Đọc Thêm:

Các Chiến Dịch và Can Thiệp Biện pháp Hoạt động Nga – Báo cáo của Uỷ ban Tình báo Thượng viện Hoa Kỳ.

Bản Báo Cáo Sốc Dự Đoán Kết Thúc Dân Chủ – Của Rick Shenkman, người sáng lập Mạng Lưới Tin tức Lịch sử của Đại học George Washington.

Người Già Chia Sẻ Tin Giả Trên Facebook Nhiều Hơn – Của New York Times

Antoine là một nhà lãnh đạo có tầm nhìn và là đối tác sáng lập của Unite.AI, được thúc đẩy bởi một niềm đam mê không ngừng nghỉ để định hình và thúc đẩy tương lai của AI và robot. Là một doanh nhân liên tục, ông tin rằng AI sẽ gây ra sự gián đoạn cho xã hội giống như điện, và thường bị bắt gặp nói về tiềm năng của các công nghệ gây gián đoạn và AGI.
Như một futurist, ông dành để khám phá cách những đổi mới này sẽ định hình thế giới của chúng ta. Ngoài ra, ông là người sáng lập của Securities.io, một nền tảng tập trung vào đầu tư vào các công nghệ tiên tiến đang định nghĩa lại tương lai và thay đổi toàn bộ lĩnh vực.