Lãnh đạo tư tưởng
Làm thế nào AI-Powered Deepfakes Đe dọa Tính toàn vẹn của Bầu cử — Và Làm thế nào để Đối phó với Nó
Quảng cáo vận động bầu cử đã có thể trở nên khá lộn xộn và gây tranh cãi.
Hãy tưởng tượng bạn đang được nhắm mục tiêu với một quảng cáo vận động bầu cử trong đó một ứng cử viên thể hiện quan điểm mạnh mẽ có thể ảnh hưởng đến lá phiếu của bạn — và quảng cáo đó không thậm chí là thật. Đó là một deepfake.
Điều này không phải là một giả thuyết tương lai; deepfakes là một vấn đề thực sự, phổ biến. Chúng ta đã thấy các “sự ủng hộ” được tạo ra bởi AI làm hàng đầu tin, và những gì chúng ta đã nghe chỉ là bề mặt của vấn đề.
Khi chúng ta tiến gần đến cuộc bầu cử tổng thống Mỹ năm 2024, chúng ta đang bước vào lãnh thổ chưa được khám phá trong lĩnh vực an ninh mạng và tính toàn vẹn của thông tin. Tôi đã làm việc tại giao điểm của an ninh mạng và AI từ khi cả hai khái niệm này còn mới mẻ, và tôi chưa bao giờ thấy điều gì xảy ra như hiện tại.
Sự tiến hóa nhanh chóng của trí tuệ nhân tạo — đặc biệt là generative AI và,当然, sự dễ dàng tạo ra deepfakes thực tế — đã biến đổi cảnh quan của các mối đe dọa bầu cử. Hiện thực mới này đòi hỏi một sự thay đổi trong các giả định cơ bản về an ninh bầu cử và giáo dục cử tri.
Weaponized AI
Bạn không cần phải lấy kinh nghiệm cá nhân của tôi làm bằng chứng; có rất nhiều bằng chứng cho thấy các thách thức an ninh mạng chúng ta đang đối mặt ngày nay đang phát triển với tốc độ chưa từng có. Trong khoảng thời gian chỉ vài năm, chúng ta đã chứng kiến một sự biến đổi đáng kể trong khả năng và phương pháp của các tác nhân đe dọa tiềm năng. Sự tiến hóa này phản ánh sự phát triển nhanh chóng mà chúng ta đã thấy trong các công nghệ AI, nhưng với một sự xoay chuyển đáng lo ngại.
Ví dụ:
- Rapid weaponization of vulnerabilities. Ngày nay, các kẻ tấn công có thể nhanh chóng khai thác các lỗ hổng mới được phát hiện, thường nhanh hơn so với việc vá và triển khai các bản vá. Các công cụ AI còn tăng tốc quá trình này, làm giảm thời gian giữa việc phát hiện lỗ hổng và khai thác.
- Expanded attack surface. Sự采用 rộng rãi công nghệ đám mây đã mở rộng đáng kể bề mặt tấn công tiềm năng. Cơ sở hạ tầng phân tán và mô hình trách nhiệm chung giữa nhà cung cấp đám mây và người dùng tạo ra các vector mới cho khai thác nếu không được quản lý đúng cách.
- Outdated traditional security measures. Các công cụ an ninh truyền thống như tường lửa và phần mềm chống vi-rút đang gặp khó khăn trong việc theo kịp các mối đe dọa đang phát triển, đặc biệt là khi nói đến việc phát hiện và giảm thiểu nội dung được tạo ra bởi AI.
Look Who’s Talking
Trong cảnh quan đe dọa mới này, deepfakes đại diện cho một thách thức đặc biệt tinh vi đối với tính toàn vẹn của bầu cử. Nghiên cứu gần đây từ Ivanti đã đưa ra một số con số về mối đe dọa: hơn một nửa số nhân viên văn phòng (54%) không biết rằng AI tiên tiến có thể giả mạo giọng nói của bất kỳ ai. Sự thiếu nhận thức này trong số cử tri tiềm năng là rất đáng lo ngại khi chúng ta tiến gần đến một chu kỳ bầu cử quan trọng.
Có rất nhiều điều đang bị đe dọa.
Sự tinh vi của công nghệ deepfake hiện đại cho phép các tác nhân đe dọa, cả trong và ngoài nước, tạo ra nội dung giả mạo audio, video và văn bản với nỗ lực tối thiểu. Một lệnh văn bản đơn giản có thể tạo ra một deepfake ngày càng khó phân biệt với nội dung thực sự. Khả năng này có ý nghĩa nghiêm trọng đối với việc lan truyền thông tin sai lệch và thao túng dư luận.
Challenges in Attribution and Mitigation
Sự quy kết là một trong những thách thức lớn nhất chúng ta đang đối mặt với sự can thiệp bầu cử được tạo ra bởi AI. Trong khi chúng ta đã từng liên kết sự can thiệp bầu cử với các tác nhân quốc gia, sự dân chủ hóa của các công cụ AI có nghĩa là các nhóm trong nước, được thúc đẩy bởi các động cơ ý thức hệ khác nhau, có thể tận dụng những công nghệ này để ảnh hưởng đến bầu cử.
Sự phân tán của các tác nhân đe dọa tiềm năng này làm phức tạp khả năng của chúng ta trong việc xác định và giảm thiểu nguồn thông tin sai lệch. Điều này cũng nhấn mạnh nhu cầu về một cách tiếp cận đa diện đối với an ninh bầu cử vượt ra ngoài các biện pháp an ninh mạng truyền thống.
A Coordinated Effort to Uphold Election Integrity
Đáp ứng thách thức của deepfakes được hỗ trợ bởi AI trong bầu cử sẽ đòi hỏi một nỗ lực phối hợp trên nhiều lĩnh vực. Dưới đây là các lĩnh vực chính mà chúng ta cần tập trung nỗ lực:
- Shift-left security for AI systems. Chúng ta cần áp dụng các nguyên tắc của “shift-left” an ninh cho sự phát triển của chính các hệ thống AI. Điều này có nghĩa là tích hợp các xem xét an ninh từ giai đoạn đầu tiên của phát triển mô hình AI, bao gồm cả các xem xét về việc lạm dụng tiềm năng trong can thiệp bầu cử.
- Enforcing secure configurations. Các hệ thống AI và nền tảng có thể được sử dụng để tạo ra deepfakes nên có cấu hình an ninh mạnh mẽ theo mặc định. Điều này bao gồm các biện pháp xác thực mạnh mẽ và hạn chế về loại nội dung có thể được tạo ra.
- Securing the AI supply chain. Giống như chúng ta tập trung vào việc bảo mật chuỗi cung ứng phần mềm, chúng ta cần mở rộng sự cảnh giác này đến chuỗi cung ứng AI. Điều này bao gồm việc kiểm tra kỹ lưỡng các tập dữ liệu được sử dụng để đào tạo mô hình AI và các thuật toán được sử dụng trong hệ thống AI tạo ra.
- Enhanced detection capabilities. Chúng ta cần đầu tư và phát triển các công cụ phát hiện tiên tiến có thể xác định nội dung được tạo ra bởi AI, đặc biệt là trong bối cảnh thông tin liên quan đến bầu cử. Điều này có thể liên quan đến việc tận dụng AI chính nó để chống lại thông tin sai lệch được tạo ra bởi AI.
- Voter education and awareness. Một thành phần quan trọng của phòng thủ của chúng ta chống lại deepfakes là một cử tri được thông tin. Chúng ta cần các chương trình giáo dục toàn diện để giúp cử tri hiểu về sự tồn tại và tác động tiềm năng của nội dung được tạo ra bởi AI, và cung cấp cho họ các công cụ để đánh giá nghiêm túc thông tin họ gặp phải.
- Cross-sector collaboration. Ngành công nghệ, đặc biệt là các công ty IT và an ninh mạng, phải làm việc chặt chẽ với các cơ quan chính phủ, quan chức bầu cử và tổ chức truyền thông để tạo ra một mặt trận thống nhất chống lại sự can thiệp bầu cử được thúc đẩy bởi AI.
What’s Now, and What’s Next
Khi chúng ta triển khai các chiến lược này, điều quan trọng là chúng ta liên tục đo lường hiệu quả của chúng. Điều này sẽ đòi hỏi các chỉ số mới và công cụ theo dõi được thiết kế đặc biệt để theo dõi tác động của nội dung được tạo ra bởi AI đối với diễn ngôn bầu cử và hành vi của cử tri.
Chúng ta cũng nên sẵn sàng thích nghi chiến lược của mình một cách nhanh chóng. Lĩnh vực AI đang phát triển với tốc độ chóng mặt, và các biện pháp phòng thủ của chúng ta phải phát triển nhanh chóng như vậy. Điều này có thể liên quan đến việc tận dụng AI chính nó để tạo ra các biện pháp an ninh mạnh mẽ và linh hoạt hơn.
Thách thức của deepfakes được hỗ trợ bởi AI trong bầu cử đại diện cho một chương mới trong an ninh mạng và tính toàn vẹn của thông tin. Để giải quyết thách thức này, chúng ta phải suy nghĩ vượt ra ngoài các khuôn khổ an ninh truyền thống và thúc đẩy sự hợp tác giữa các lĩnh vực và kỷ luật. Mục tiêu: tận dụng sức mạnh của AI cho lợi ích của các quá trình dân chủ trong khi giảm thiểu tiềm năng gây hại của nó. Đây không chỉ là một thách thức kỹ thuật, mà còn là một thách thức xã hội đòi hỏi sự cảnh giác, thích nghi và hợp tác liên tục.
Tính toàn vẹn của các cuộc bầu cử của chúng ta — và theo đó, sức khỏe của nền dân chủ — phụ thuộc vào khả năng của chúng ta trong việc đối mặt với thách thức này. Đây là một trách nhiệm thuộc về tất cả chúng ta: những người làm công nghệ, những nhà hoạch định chính sách và công dân.












