Phân chia tổng hợp
Tuyên truyền tính toán: Những thế lực ẩn giấu đang định hình lại cách chúng ta suy nghĩ, bỏ phiếu và sống

Hình dung điều này: bạn thức dậy, kiểm tra nguồn cấp dữ liệu xã hội của mình và thấy cùng một tiêu đề gây tranh cãi được lặp lại bởi hàng trăm tài khoản—mỗi bài đăng được tạo ra để gây ra sự phẫn nộ hoặc báo động. Đến lúc bạn pha cà phê buổi sáng, câu chuyện đã lan truyền, làm lu mờ tin tức chính thống và gây ra những cuộc tranh luận sôi nổi trên internet. Cảnh này không phải là một tương lai giả định—mà là thực tế của tuyên truyền tính toán.
Tác động của những chiến dịch này không còn giới hạn ở một vài diễn đàn Reddit nhỏ lẻ nữa. Trong cuộc bầu cử Tổng thống Hoa Kỳ năm 2016, Các trang trại troll liên quan đến Nga tràn ngập Facebook và Twitter với nội dung được thiết kế để khơi dậy những rạn nứt trong xã hội, được cho là đã đạt tới trên 126 triệu người Mỹ. Cùng năm đó, cuộc trưng cầu dân ý về Brexit ở Anh đã bị lu mờ bởi các tài khoản—nhiều tài khoản tự động—đưa ra những câu chuyện gây chia rẽ để tác động đến dư luận. Năm 2017, cuộc đua giành chức tổng thống Pháp đã bị rung chuyển bởi một công bố tài liệu bị hack vào phút chót, được khuếch đại bởi hoạt động truyền thông xã hội được phối hợp một cách đáng ngờ. Và khi COVID-19 bùng phát trên toàn cầu, thông tin sai lệch trực tuyến về phương pháp điều trị và phòng ngừa lan truyền như cháy rừng, đôi khi lấn át cả hướng dẫn cứu sống.
Điều gì thúc đẩy các hoạt động thao túng này? Trong khi các tập lệnh spam và trang trại troll cũ đã mở đường, các cuộc tấn công hiện đại hiện đang khai thác AI tiên tiến. Từ Mô hình máy biến áp (hãy nghĩ đến các hệ thống giống GPT tạo ra các bài đăng nghe có vẻ giống con người một cách kỳ lạ) cho đến khả năng thích ứng theo thời gian thực liên tục tinh chỉnh các chiến thuật của mình dựa trên phản ứng của người dùng, thế giới tuyên truyền đã trở nên vô cùng tinh vi. Khi cuộc sống của chúng ta ngày càng chuyển sang trực tuyến, việc hiểu các thế lực ẩn giấu này—và cách chúng khai thác mạng xã hội của chúng ta—chưa bao giờ quan trọng đến thế.
Dưới đây, chúng ta sẽ khám phá gốc rễ lịch sử của tuyên truyền tính toán và tiếp tục khám phá các công nghệ thúc đẩy các chiến dịch thông tin sai lệch ngày nay. Bằng cách nhận ra cách các nỗ lực phối hợp tận dụng công nghệ để định hình lại suy nghĩ của chúng ta, chúng ta có thể thực hiện những bước đầu tiên hướng tới việc chống lại sự thao túng và giành lại diễn ngôn công khai đích thực.
Định nghĩa Tuyên truyền tính toán
Tuyên truyền tính toán đề cập đến việc sử dụng các hệ thống tự động, Phân tích dữ liệu, và AI để thao túng dư luận hoặc tác động đến các cuộc thảo luận trực tuyến ở quy mô lớn. Điều này thường liên quan đến các nỗ lực phối hợp—chẳng hạn như mạng bot, tài khoản mạng xã hội giả mạo và các thông điệp được điều chỉnh theo thuật toán—để truyền bá các câu chuyện cụ thể, gieo rắc thông tin sai lệch hoặc làm im lặng các quan điểm bất đồng. Bằng cách tận dụng việc tạo nội dung do AI thúc đẩy, quảng cáo siêu nhắm mục tiêu và vòng phản hồi theo thời gian thực, những người đứng sau tuyên truyền tính toán có thể khuếch đại các ý tưởng bên lề, tác động đến tình cảm chính trị và làm xói mòn lòng tin vào diễn ngôn công khai thực sự.
Bối cảnh lịch sử: Từ mạng lưới Bot đầu tiên đến trang trại Troll hiện đại
Vào cuối những năm 1990 và đầu những năm 2000, internet đã chứng kiến làn sóng đầu tiên của các tập lệnh tự động-"Bot"—được sử dụng chủ yếu để spam email, tăng số lượt xem hoặc tự động trả lời trong phòng chat. Theo thời gian, các tập lệnh tương đối đơn giản này đã phát triển thành nhiều hơn công cụ chính trị có mục đích khi các nhóm phát hiện ra rằng họ có thể định hình các cuộc trò chuyện công khai trên các diễn đàn, phần bình luận và các nền tảng truyền thông xã hội ban đầu.
- Giữa những năm 2000: Các bot chính trị xuất hiện
- Ví dụ: In 2007, báo cáo xuất hiện về các đàn bot được phối hợp trên các nền tảng xã hội ban đầu Lượt thích MySpace và Facebook, được sử dụng để quảng bá cho các ứng cử viên cụ thể hoặc hạ thấp đối thủ.
- “của Trung QuốcĐội quân 50 Cent" là một minh họa ban đầu khác: xung quanh 2004-2005, những người bình luận có liên hệ với chính phủ được cho là đã được trả 50 xu cho mỗi bài đăng để định hướng các cuộc tranh luận trực tuyến theo hướng được nhà nước ủng hộ.
- Cuối những năm 2000 đến đầu những năm 2010: Sự xuất hiện của các trang trại Troll
- 2009 tầm 2010: Các nhóm liên kết với chính phủ trên toàn thế giới bắt đầu hình thành trang trại troll, thuê người tạo và quản lý vô số tài khoản mạng xã hội giả mạo. Công việc của họ: làm tràn ngập các chủ đề trực tuyến bằng các bài đăng gây chia rẽ hoặc gây hiểu lầm.
- Trang trại Troll của Nga: By 2013-2014, Các Cơ quan nghiên cứu Internet (IRA) ở Saint Petersburg đã trở nên khét tiếng vì tạo ra các chiến dịch thông tin sai lệch nhắm vào cả đối tượng trong nước và quốc tế.
- 2016: Một bước ngoặt với sự can thiệp bầu cử toàn cầu
- Trong Bầu cử Tổng thống Hoa Kỳ năm 2016, các trang trại troll và mạng lưới bot đã trở thành tâm điểm chú ý. Các cuộc điều tra sau đó đã tiết lộ rằng hàng trăm trang Facebook và tài khoản Twitter giả mạo, nhiều người trong số họ có liên quan đến IRA, đã đưa ra những câu chuyện cực kỳ thiên vị.
- Những chiến thuật này cũng xuất hiện trong Brexit vào năm 2016, khi các tài khoản tự động khuếch đại nội dung phân cực xung quanh các chiến dịch “Rời đi” và “Ở lại”.
- 2017–2018: Những vụ vạch trần và cáo trạng nổi bật
- In 2017, Các Bầu cử tổng thống Pháp đã được nhắm mục tiêu bởi mạng lưới bot phát tán tài liệu sai lệch và vu khống ứng cử viên.
- In 2018, Bộ Tư pháp Hoa Kỳ truy tố 13 người Nga có liên quan đến IRA vì cáo buộc can thiệp vào cuộc bầu cử năm 2016, đánh dấu một trong những hành động pháp lý được công khai nhiều nhất chống lại một trang trại troll.
- Năm 2019 và hơn thế nữa: Các cuộc đàn áp toàn cầu và sự tăng trưởng liên tục
- Twitter và Facebook bắt đầu xóa hàng ngàn tài khoản giả mạo có liên quan đến các chiến dịch gây ảnh hưởng được phối hợp từ các quốc gia như Iran, Nga và Venezuela.
- Mặc dù có sự giám sát chặt chẽ hơn, các nhà điều hành tinh vi vẫn tiếp tục xuất hiện—bây giờ thường được hỗ trợ bởi AI tiên tiến có khả năng tạo ra nội dung thuyết phục hơn.
Những cột mốc này đặt nền tảng cho phong cảnh ngày nay, nơi máy học có thể tự động hóa toàn bộ vòng đời thông tin sai lệch. Các thí nghiệm ban đầu trong các bot spam đơn giản đã phát triển thành các mạng lưới rộng lớn kết hợp chiến lược chính trị với AI tiên tiến, cho phép các tác nhân độc hại tác động đến dư luận trên quy mô toàn cầu với tốc độ và sự tinh vi chưa từng có.
Công cụ AI hiện đại thúc đẩy tuyên truyền tính toán
Với những tiến bộ trong học máy và xử lý ngôn ngữ tự nhiên, các chiến dịch thông tin sai lệch đã phát triển vượt xa các bot thư rác đơn giản. Các mô hình AI tạo sinh—có khả năng tạo ra văn bản giống con người một cách thuyết phục—đã trao quyền cho những người điều phối khuếch đại các câu chuyện gây hiểu lầm ở quy mô lớn. Dưới đây, chúng tôi xem xét ba phương pháp tiếp cận chính do AI thúc đẩy định hình nên tuyên truyền tính toán ngày nay, cùng với đặc điểm cốt lõi khiến cho những chiến thuật này trở nên mạnh mẽ. Những chiến thuật này được khuếch đại hơn nữa do phạm vi tiếp cận của công cụ đề xuất có xu hướng lan truyền tin tức sai lệch trên sự thật.
1. Tạo ngôn ngữ tự nhiên (NLG)
Các mô hình ngôn ngữ hiện đại như GPT đã cách mạng hóa việc tạo nội dung tự động. Được đào tạo trên các tập dữ liệu văn bản lớn, chúng có thể:
- Tạo khối lượng lớn văn bản:Từ những bài viết dài đến những bài đăng ngắn trên mạng xã hội, các mô hình này có thể tạo ra nội dung suốt ngày đêm với sự giám sát tối thiểu của con người.
- Mô phỏng phong cách viết của con người:Bằng cách tinh chỉnh dữ liệu theo từng lĩnh vực cụ thể (ví dụ: bài phát biểu chính trị, thuật ngữ cộng đồng chuyên ngành), AI có thể tạo ra văn bản phù hợp với bối cảnh văn hóa hoặc chính trị của đối tượng mục tiêu.
- Lặp lại tin nhắn nhanh chóng:Những kẻ lan truyền thông tin sai lệch có thể thúc đẩy AI tạo ra hàng chục, thậm chí hàng trăm, biến thể khác nhau về cùng một chủ đề, thử nghiệm xem cách diễn đạt hoặc cách đóng khung nào sẽ lan truyền nhanh nhất.
Một trong những lợi thế nguy hiểm của AI tạo ra nằm ở khả năng điều chỉnh giọng điệu và ngôn ngữ cho phù hợp với đối tượng cụ thể bao gồm cả việc bắt chước loại nhân vật cụ thể, kết quả của việc này có thể bao gồm:
- Vòng xoáy chính trị:AI có thể dễ dàng chèn các khẩu hiệu hoặc câu cửa miệng mang tính đảng phái, khiến thông tin sai lệch có vẻ như được các phong trào cơ sở ủng hộ.
- Giọng nói thông thường hoặc thông tục:Công cụ tương tự có thể chuyển thành nhân vật “người hàng xóm thân thiện”, âm thầm đưa tin đồn hoặc thuyết âm mưu vào các diễn đàn cộng đồng.
- Cơ quan chuyên gia:Bằng cách sử dụng giọng điệu học thuật, trang trọng, các tài khoản do AI điều khiển có thể đóng vai trò là chuyên gia—bác sĩ, học giả, nhà phân tích—để tạo độ tin cậy giả cho các tuyên bố sai lệch.
Cùng nhau, các Mô hình Biến đổi và Mô phỏng Phong cách cho phép những người điều phối sản xuất hàng loạt nội dung có vẻ đa dạng và chân thực, làm mờ ranh giới giữa tiếng nói chân thực và tuyên truyền bịa đặt.
2. Đăng bài tự động và lên lịch
Trong khi các bot cơ bản có thể đăng cùng một thông điệp nhiều lần, học tăng cường thêm một lớp thông minh:
- Thích ứng thuật toán:Các bot liên tục thử nghiệm các thời điểm đăng bài, hashtag và độ dài nội dung khác nhau để xem chiến lược nào mang lại mức độ tương tác cao nhất.
- Chiến thuật lén lút:Bằng cách theo dõi các hướng dẫn của nền tảng và phản ứng của người dùng, các bot này học cách tránh các dấu hiệu cảnh báo rõ ràng—như lặp lại quá mức hoặc liên kết spam—giúp chúng không bị kiểm duyệt.
- Sự khuếch đại có mục tiêu:Khi một câu chuyện thu hút được sự chú ý trong một nhóm nhỏ, các bot sẽ sao chép nó trên nhiều cộng đồng, có khả năng thổi phồng những ý tưởng kỳ quặc thành các chủ đề thịnh hành.
Song song với việc học tăng cường, những người điều phối lên lịch các bài đăng để duy trì sự hiện diện liên tục:
- Chu kỳ nội dung 24/7:Các tập lệnh tự động đảm bảo thông tin sai lệch vẫn hiển thị trong giờ cao điểm ở các múi giờ khác nhau.
- Nhắn tin phòng ngừa:Các bot có thể tràn ngập một nền tảng với một quan điểm cụ thể trước khi có tin tức nóng hổi, định hình phản ứng ban đầu của công chúng trước khi những sự thật đã được xác minh xuất hiện.
Thông qua Đăng bài tự động & Lên lịch, những kẻ điều hành độc hại tối đa hóa phạm vi tiếp cận nội dung, thời điểm và khả năng thích ứng—những đòn bẩy quan trọng để biến những câu chuyện bên lề hoặc sai sự thật thành những câu chuyện phiếm được chú ý.
3. Thích ứng thời gian thực
Trí tuệ nhân tạo (AI) và hệ thống bot tự động dựa vào dữ liệu liên tục để tinh chỉnh chiến thuật của mình:
- Phân tích phản ứng tức thời: Dữ liệu về lượt thích, chia sẻ, bình luận và cảm xúc được truyền ngược về mô hình AI, hướng dẫn chúng xác định góc độ nào tạo được sự đồng cảm nhất.
- Sửa đổi tức thời:Nội dung kém hiệu quả sẽ được điều chỉnh nhanh chóng—thông điệp, giọng điệu hoặc hình ảnh—cho đến khi đạt được sức hút mong muốn.
- Những câu chuyện thích ứng:Nếu một cốt truyện bắt đầu mất đi sự liên quan hoặc gặp phải sự phản đối mạnh mẽ, AI sẽ chuyển sang các chủ đề thảo luận mới, duy trì sự chú ý đồng thời tránh bị phát hiện.
T vòng lặp thông tin phản hồi giữa việc tạo nội dung tự động và dữ liệu tương tác thời gian thực tạo ra một hệ thống tuyên truyền mạnh mẽ, tự cải thiện và tự duy trì:
- AI tạo ra nội dung: Soạn thảo một loạt bài đăng gây hiểu lầm ban đầu bằng cách sử dụng các mẫu đã học.
- Nền tảng và người dùng phản hồi: Các số liệu về mức độ tương tác (lượt thích, chia sẻ, bình luận) sẽ được truyền ngược về người điều phối.
- AI tinh chỉnh chiến lược:Những thông điệp thành công nhất sẽ được lặp lại hoặc mở rộng, trong khi những nỗ lực yếu hơn sẽ bị loại bỏ hoặc điều chỉnh lại.
Theo thời gian, hệ thống trở nên hiệu quả cao thu hút các phân khúc đối tượng cụ thể, đưa những câu chuyện bịa đặt đến nhiều người hơn, nhanh hơn.
Những đặc điểm cốt lõi thúc đẩy ảnh hưởng tiềm ẩn này
Ngay cả khi có AI tinh vi, một số đặc điểm cơ bản nhất định vẫn đóng vai trò trung tâm cho sự thành công của tuyên truyền điện toán:
- Hoạt động 24/7
Các tài khoản do AI điều khiển hoạt động không biết mệt mỏi, đảm bảo khả năng hiển thị liên tục cho các câu chuyện cụ thể. Nhịp đăng bài liên tục của họ luôn giữ thông tin sai lệch trước mặt người dùng. - Tầm với to lớn
Trí tuệ nhân tạo tạo ra có thể tạo ra nội dung vô tận trên hàng chục hoặc thậm chí hàng trăm tài khoản. Sự bão hòa này có thể tạo ra sự đồng thuận sai lầm, gây áp lực buộc người dùng thực sự phải tuân theo hoặc chấp nhận quan điểm sai lệch. - Kích hoạt cảm xúc và đóng khung thông minh
Các mô hình máy biến áp có thể phân tích các vấn đề nóng hổi của cộng đồng và tạo ra những câu chuyện hấp dẫn đầy cảm xúc—phẫn nộ, sợ hãi hoặc phấn khích. Những yếu tố kích hoạt này thúc đẩy chia sẻ nhanh chóng, cho phép những lời tường thuật sai lệch vượt trội hơn những thông tin có căn cứ hoặc thực tế hơn.
Tại sao nó quan trọng
Bằng cách khai thác công nghệ tạo ngôn ngữ tự nhiên tiên tiến, học tăng cường và phân tích thời gian thực, những kẻ điều phối ngày nay có thể tạo ra các chiến dịch thông tin sai lệch quy mô lớn mà chỉ vài năm trước đây là điều không thể tưởng tượng được. Hiểu được vai trò cụ thể Vai trò của AI tạo sinh trong việc khuếch đại thông tin sai lệch là một bước quan trọng hướng tới việc nhận diện các hoạt động ẩn này và phòng thủ chống lại chúng.
Ngoài Màn Hình
Tác động của những nỗ lực phối hợp này không dừng lại ở các nền tảng trực tuyến. Theo thời gian, những thao túng này ảnh hưởng đến các giá trị cốt lõi và quyết định. Ví dụ, trong những thời điểm quan trọng về sức khỏe cộng đồng, tin đồn và sự thật nửa vời có thể làm lu mờ các hướng dẫn đã được xác minh, khuyến khích hành vi rủi ro. Trong bối cảnh chính trị, những câu chuyện bị bóp méo về các ứng cử viên hoặc chính sách lấn át các cuộc tranh luận cân bằng, thúc đẩy toàn bộ dân số hướng tới những kết quả phục vụ cho lợi ích ẩn giấu thay vì lợi ích chung.
Các nhóm hàng xóm tin rằng họ chia sẻ mục tiêu chung có thể thấy rằng sự hiểu biết của họ về các vấn đề địa phương bị ảnh hưởng bởi những huyền thoại được dựng lên một cách cẩn thận. Bởi vì những người tham gia coi những không gian này là thân thiện và quen thuộc, họ hiếm khi nghi ngờ có sự xâm nhập. Đến lúc bất kỳ ai đặt câu hỏi về các mô hình bất thường, thì niềm tin có thể đã trở nên cứng nhắc xung quanh những ấn tượng sai lệch.
Trường hợp sử dụng thành công rõ ràng nhất của điều này là tác động đến các cuộc bầu cử chính trị.
Dấu hiệu cảnh báo của sự thao túng phối hợp
- Đột biến đột ngột trong tin nhắn đồng nhất
- Bài đăng giống hệt hoặc gần giống hệt:Một loạt bài đăng lặp lại cùng một cụm từ hoặc hashtag cho thấy đây là các tập lệnh tự động hoặc các nhóm phối hợp đang thúc đẩy một câu chuyện duy nhất.
- Bùng nổ hoạt động: Các đợt tăng đột biến theo thời gian đáng ngờ—thường vào giờ thấp điểm—có thể chỉ ra rằng bot đang quản lý nhiều tài khoản cùng lúc.
- Những tuyên bố lặp lại thiếu nguồn đáng tin cậy
- Không có trích dẫn hoặc liên kết:Khi nhiều người dùng chia sẻ một tuyên bố mà không tham khảo bất kỳ nguồn tin đáng tin cậy nào, đây có thể là một chiến thuật để phát tán thông tin sai lệch mà không được kiểm soát.
- Nguồn có vấn đề: Khi tham chiếu tin tức hoặc bài viết liên kết đến các nguồn đáng ngờ thường có tên nghe giống với các nguồn tin tức hợp pháp. Điều này lợi dụng đối tượng khán giả có thể không quen thuộc với các thương hiệu tin tức hợp pháp, ví dụ như một trang web có tên là “abcnews.com” một khi được coi là xu hướng chính ABC News, sử dụng các logo và bố cục tương tự để có vẻ đáng tin cậy, nhưng đã không có kết nối cho đài truyền hình hợp pháp.
- Tham chiếu vòng tròn: Một số bài đăng chỉ liên kết đến các trang web đáng ngờ khác trong cùng một mạng, tạo ra một “buồng vang” của sự dối trá.
- Những câu nói cảm xúc mạnh mẽ và ngôn ngữ gây hoang mang
- Nội dung giá trị gây sốc:Sự phẫn nộ, cảnh báo nghiêm trọng hoặc hình ảnh giật gân được sử dụng để bỏ qua tư duy phản biện và gây ra phản ứng tức thời.
- Chúng ta so với họ:Các bài đăng có nội dung công kích một số nhóm nhất định là kẻ thù hoặc mối đe dọa thường nhằm mục đích phân cực và cực đoan hóa cộng đồng thay vì khuyến khích tranh luận sâu sắc.
Bằng cách phát hiện ra những tín hiệu này—các thông điệp đồng nhất, những tuyên bố không có căn cứ được lặp đi lặp lại và nội dung chứa đầy cảm xúc được thiết kế để kích động—các cá nhân có thể phân biệt tốt hơn các cuộc thảo luận chân thành với tuyên truyền có dàn dựng.
Tại sao sự dối trá lại lan truyền dễ dàng đến vậy
Bản chất con người hướng đến những câu chuyện hấp dẫn. Khi được đưa ra lời giải thích sâu sắc, cân bằng hoặc một câu chuyện giật gân, nhiều người sẽ chọn cái sau. Bản năng này, mặc dù dễ hiểu, nhưng lại tạo ra cơ hội cho sự thao túng. Bằng cách cung cấp nội dung kịch tính, những người dàn dựng đảm bảo sự lưu hành nhanh chóng và sự phơi bày lặp đi lặp lại. Cuối cùng, sự quen thuộc thay thế cho sự xác minh, khiến ngay cả những câu chuyện mỏng manh nhất cũng có vẻ đúng.
Khi những câu chuyện này thống trị các nguồn cấp dữ liệu, lòng tin vào các nguồn đáng tin cậy bị xói mòn. Thay vì các cuộc trò chuyện được thúc đẩy bởi bằng chứng và logic, các cuộc trao đổi sụp đổ thành các cuộc đấu khẩu phân cực. Sự phân mảnh như vậy làm suy yếu khả năng lý luận tập thể, tìm ra tiếng nói chung hoặc giải quyết các vấn đề chung của cộng đồng.
Cổ phần cao: Mối nguy hiểm lớn nhất của tuyên truyền tính toán
Tuyên truyền tính toán không chỉ là một phiền toái trực tuyến khác—mà là một mối đe dọa có hệ thống có khả năng định hình lại toàn bộ xã hội và các quá trình ra quyết định. Sau đây là những rủi ro quan trọng nhất do những thao túng ẩn này gây ra:
- Bầu cử gây ảnh hưởng và làm suy yếu nền dân chủ
Khi các đội quân bot và nhân vật do AI tạo ra tràn ngập phương tiện truyền thông xã hội, chúng bóp méo nhận thức của công chúng và thúc đẩy sự cực đoan đảng phái. Bằng cách khuếch đại các vấn đề gây chia rẽ và lấn át các cuộc thảo luận hợp pháp, chúng có thể làm thay đổi cán cân bầu cử hoặc ngăn cản hoàn toàn tỷ lệ cử tri đi bỏ phiếu. Trong những trường hợp cực đoan, công dân bắt đầu nghi ngờ tính hợp pháp của kết quả bầu cử, làm xói mòn niềm tin vào các thể chế dân chủ ngay từ nền tảng của nó. - Làm mất ổn định sự gắn kết xã hội
Nội dung phân cực được tạo ra bởi các mô hình AI tiên tiến khai thác các ranh giới cảm xúc và văn hóa. Khi hàng xóm và bạn bè chỉ nhìn thấy những thông điệp gây chia rẽ được thiết kế để kích động họ, cộng đồng sẽ bị chia rẽ theo những ranh giới được tạo ra. Điều này "phân chia và chinh phục" chiến thuật này làm mất năng lượng của cuộc đối thoại có ý nghĩa, khiến việc đạt được sự đồng thuận về các vấn đề chung trở nên khó khăn. - Làm xói mòn lòng tin vào các nguồn đáng tin cậy
Khi những giọng nói tổng hợp trá hình thành người thật, ranh giới giữa báo cáo đáng tin cậy và tuyên truyền trở nên mờ nhạt. Mọi người trở nên hoài nghi về mọi thông tin, điều này làm suy yếu ảnh hưởng của các chuyên gia hợp pháp, người kiểm tra thực tế và các tổ chức công cộng dựa vào lòng tin để hoạt động. - Thao túng chính sách và nhận thức của công chúng
Ngoài các cuộc bầu cử, tuyên truyền tính toán có thể thúc đẩy hoặc chôn vùi các chính sách cụ thể, định hình tâm lý kinh tế và thậm chí gây ra nỗi sợ hãi của công chúng xung quanh các biện pháp y tế. Chương trình nghị sự chính trị trở nên hỗn loạn do thông tin sai lệch được dàn dựng, và cuộc tranh luận chính sách thực sự nhường chỗ cho cuộc giằng co giữa những người có ảnh hưởng ẩn danh. - Làm trầm trọng thêm các cuộc khủng hoảng toàn cầu
Trong thời kỳ biến động—có thể là đại dịch, xung đột địa chính trị hoặc suy thoái tài chính—các chiến dịch do AI thúc đẩy được triển khai nhanh chóng có thể tận dụng nỗi sợ hãi. Bằng cách lan truyền thuyết âm mưu hoặc giải pháp sai lầm, chúng làm chệch hướng các phản ứng phối hợp và làm tăng chi phí về con người và kinh tế trong các cuộc khủng hoảng. Chúng thường dẫn đến việc các ứng cử viên chính trị được bầu bằng cách lợi dụng công chúng thiếu thông tin.
Kêu gọi hành động
Những nguy hiểm của tuyên truyền tính toán cuộc gọi cho một cam kết đổi mới nhận thức truyền thông, tư duy phản biện và hiểu rõ hơn về cách AI ảnh hưởng dư luận công chúng. Chỉ bằng cách đảm bảo công chúng được thông tin đầy đủ và neo vào sự thật những quyết định quan trọng nhất của chúng ta—như việc lựa chọn các nhà lãnh đạo—có thực sự vẫn còn riêng của chúng tôi.