An ninh mạng
Liệu các doanh nghiệp đã sẵn sàng cho làn sóng tấn công mạng dựa trên trí tuệ nhân tạo tiếp theo?
Phân tích các xu hướng hiện tại cho phép các chuyên gia dự đoán cách tội phạm mạng sẽ tận dụng trí tuệ nhân tạo trong tương lai. Với thông tin này, họ có thể xác định các mối đe dọa lớn nhất đang nổi lên và đánh giá xem các doanh nghiệp đã chuẩn bị sẵn sàng hay chưa. Thậm chí, họ có thể tìm ra giải pháp.
Tình hình các mối đe dọa từ trí tuệ nhân tạo trong những năm gần đây
Mặc dù công nghệ trí tuệ nhân tạo (AI) còn khá mới, nhưng nó đã trở thành một công cụ nổi bật của tin tặc. Những xu hướng này cho thấy các cuộc tấn công mạng bằng AI đang gia tăng.
1. Sự can thiệp vào mô hình
Bằng cách nhắm mục tiêu trực tiếp vào các mô hình ngôn ngữ lớn (LLM), các tác nhân đe dọa có thể thao túng hành vi của mô hình, giảm độ chính xác đầu ra hoặc làm lộ dữ liệu huấn luyện có thể nhận dạng cá nhân. Việc làm nhiễm độc dữ liệu và kỹ thuật thao túng lời nhắc là những kỹ thuật tấn công phổ biến.
Một số cuộc tấn công do các tác nhân đe dọa thực hiện nhằm gây hỗn loạn hoặc đánh cắp thông tin nhạy cảm. Những cuộc tấn công khác do các nghệ sĩ bất mãn tiến hành, muốn bảo vệ tác phẩm nghệ thuật của họ khỏi bị trí tuệ nhân tạo sao chép. Dù bằng cách nào, công ty và người dùng cuối đều bị ảnh hưởng tiêu cực.
2. Các cuộc tấn công mạo danh
Vào năm 2024, một giám đốc điều hành của Ferrari đã nhận được một số tin nhắn WhatsApp từ CEO Benedetto Vigna. Vigna đã đề cập đến một vụ mua lại sắp xảy ra. và thúc giục nhân viên của mình ký thỏa thuận bảo mật thông tin. Ông ta thậm chí còn gọi điện để thảo luận về vấn đề tài trợ. Nhưng có một vấn đề — đó không phải là ông ta.
Bản deepfake gần như hoàn hảo, bắt chước giọng nói miền Nam nước Ý của Vigna một cách xuất sắc. Tuy nhiên, những điểm không nhất quán nhỏ trong giọng nói đã khiến vị giám đốc điều hành nghi ngờ. Nhân viên này hỏi về tên một cuốn sách mà Vigna đã giới thiệu vài ngày trước đó, một câu hỏi mà chỉ có CEO thật mới biết câu trả lời. Kẻ lừa đảo lập tức cúp máy.
Trí tuệ nhân tạo (AI) có thể sao chép giọng nói, hành vi duyệt web, phong cách viết và ngoại hình của một người. Khi công nghệ này phát triển, việc nhận diện deepfake ngày càng trở nên khó khăn. Những kẻ lừa đảo thường đặt nạn nhân vào tình huống khẩn cấp để ngăn họ đặt câu hỏi về những điểm khác biệt nhỏ.
3. Lừa đảo qua mạng bằng AI
Trước đây, người ta có thể nhận biết email lừa đảo bằng cách tìm kiếm lỗi ngữ pháp, các liên kết đáng ngờ, lời chào chung chung và các yêu cầu không phù hợp. Giờ đây, với công nghệ xử lý ngôn ngữ tự nhiên, tin tặc có thể tạo ra những tin nhắn trông rất đáng tin với ngữ pháp hoàn hảo.
Các nhà nghiên cứu phát hiện ra rằng email lừa đảo có chủ đích được hỗ trợ bởi trí tuệ nhân tạo hoàn toàn tự động có... tỷ lệ nhấp 54%Điều này tương đương với các email lừa đảo do con người viết. Vì những trò lừa đảo này thuyết phục hơn nên chúng ngày càng trở nên phổ biến. Các nghiên cứu đã chỉ ra rằng hơn 80% email lừa đảo có dấu hiệu cho thấy sự tham gia của trí tuệ nhân tạo (AI).
4. Kỹ thuật xã hội
Tấn công phi kỹ thuật (social engineering) liên quan đến việc thao túng ai đó để họ hành động hoặc tiết lộ thông tin. Trí tuệ nhân tạo (AI) cho phép tin tặc phản hồi nhanh hơn và tạo ra những thông điệp thuyết phục hơn. Bất kỳ mô hình xử lý ngôn ngữ tự nhiên nào cũng có thể thực hiện phân tích ngữ nghĩa để xác định trạng thái cảm xúc của người nhận, khiến họ dễ dàng nhượng bộ hơn.
Ngoài việc tăng cường các kỹ thuật tấn công phi kỹ thuật (social engineering), công nghệ học máy còn làm giảm các rào cản gia nhập truyền thống, cho phép người mới bắt đầu thực hiện các chiến dịch tinh vi. Nếu bất cứ ai cũng có thể trở thành tội phạm mạng, thì bất cứ ai cũng có thể trở thành mục tiêu.
Làn sóng tấn công AI dựa trên dữ liệu tiếp theo
Đầu năm 2026, các cuộc tấn công bằng trí tuệ nhân tạo (AI) dự kiến vẫn ở mức độ phát triển thấp. Tuy nhiên, chúng sẽ phát triển theo cấp số nhân trong suốt năm, cho phép tội phạm mạng bước vào giai đoạn tối ưu hóa, triển khai và mở rộng quy mô. Chúng sẽ sớm có thể thực hiện các chiến dịch hoàn toàn tự động. Các trường hợp tấn công mạng bằng AI đã được xác nhận sẽ không còn hiếm gặp trong thời gian dài.
Phần mềm độc hại đa hình là một loại virus được hỗ trợ bởi trí tuệ nhân tạo (AI) có khả năng thay đổi mã mỗi khi tự nhân bản để tránh bị phát hiện. Kẻ tấn công có thể phân phối phần mềm độc hại thông qua các hệ sinh thái AI, gọi các LLM (Learning Learning Module) trong quá trình chạy để tạo ra các lệnh hoặc trực tiếp nhúng virus vào LLM. Nhóm Tình báo Mối đe dọa của Google đã phát hiện ra rằng các đối thủ đã triển khai phần mềm độc hại này lần đầu tiên vào năm 2025.
Các họ phần mềm độc hại là PROMPTFLUX và PROMPTSTEAL. Trong quá trình thực thi, chúng sử dụng LLM để yêu cầu mã hóa VBScript và các kỹ thuật né tránh. né tránh phát hiện dựa trên chữ ký bằng cách làm xáo trộn mã nguồn của chính họ theo yêu cầu.
Bằng chứng cho thấy những mối đe dọa này vẫn đang trong giai đoạn thử nghiệm — một số tính năng chưa hoàn thiện đã bị vô hiệu hóa và các lệnh gọi lập trình ứng dụng bị hạn chế. Các họ phần mềm độc hại AI non trẻ này có thể vẫn đang trong quá trình phát triển, nhưng sự tồn tại của chúng đã thể hiện một bước tiến lớn hướng tới các kỹ thuật tấn công tự động và thích ứng.
Nghiên cứu của NYU Tandon cho thấy các mô-đun sinh học phân tử (LLM) hiện đã có thể tự động thực hiện các cuộc tấn công mã độc tống tiền, được gọi là Ransomware 3.0. Chúng có thể tiến hành trinh sát, tạo ra các tải trọng và cá nhân hóa hành vi tống tiền mà không cần sự can thiệp của con người. chỉ cần lời nhắc bằng ngôn ngữ tự nhiên được nhúng trong mã nhị phân. Mô hình này tạo ra các biến thể đa hình thích ứng với môi trường thực thi bằng cách tự động tạo ra mã độc hại trong thời gian chạy.
Các doanh nghiệp đã chuẩn bị sẵn sàng cho các cuộc tấn công bằng trí tuệ nhân tạo chưa?
Mặc dù đã chi hàng tỷ đô la cho an ninh mạng, các doanh nghiệp tư nhân vẫn tiếp tục gặp khó khăn trong việc theo kịp bối cảnh mối đe dọa ngày càng phức tạp. Công nghệ học máy có thể khiến phần mềm phát hiện và phản hồi hiện có trở nên lỗi thời, làm phức tạp thêm vấn đề phòng thủ. Tình hình càng trở nên tồi tệ hơn khi nhiều phần mềm không đáp ứng được các tiêu chuẩn an ninh cơ bản.
Báo cáo Mức độ Trưởng thành An ninh mạng DIB năm 2024 đã khảo sát 400 chuyên gia công nghệ thông tin trong ngành công nghiệp quốc phòng (DIB) của Hoa Kỳ. Hơn một nửa số người trả lời Nhiều người cho biết họ còn nhiều năm nữa mới đạt được chứng nhận CMMC 2.0, mặc dù tiêu chuẩn NIST 800-171 tương đương đã được nêu trong các hợp đồng của Bộ Quốc phòng (DoD) từ năm 2016. Họ đánh giá tình trạng an ninh của mình tốt hơn nhiều so với thực tế.
Các yêu cầu CMMC mới có hiệu lực vào ngày 10 tháng 11.Năm 2025. Từ nay trở đi, tất cả các hợp đồng của Bộ Quốc phòng sẽ yêu cầu tuân thủ CMMC ở một mức độ nhất định như một điều kiện để được trao hợp đồng. Các quy định mới nhằm mục đích tăng cường an ninh mạng cho các cơ quan quốc phòng, nhưng liệu chúng có hiệu quả trong thời đại trí tuệ nhân tạo (AI) hay không?
Liệu trí tuệ nhân tạo phòng thủ có phải là câu trả lời?
Có lẽ dùng bạo lực để chống lại sự gia tăng không thể tránh khỏi của các cuộc tấn công AI là cách duy nhất. Với AI phòng thủ, các tổ chức có thể phản ứng linh hoạt với các mối đe dọa trong thời gian thực. Tuy nhiên, cách tiếp cận này cũng đi kèm với những lỗ hổng bảo mật riêng — việc bảo vệ mô hình khỏi bị can thiệp sẽ đòi hỏi sự giám sát và kiểm toán liên tục.
Theo Harvard Business Review, Các giải pháp truyền thống khiến doanh nghiệp dễ bị tổn thương. Đối mặt với các cuộc tấn công mạng từ trí tuệ nhân tạo (AI). Để đạt được khả năng chống chịu trước các mối đe dọa mạng, họ phải sử dụng công nghệ học máy để dự đoán và tự động phản ứng với các mối đe dọa.
Không có câu trả lời đơn giản nào cho câu hỏi liệu trí tuệ nhân tạo phòng thủ có phải là giải pháp cho vấn đề này hay không. Liệu các công ty nên đổ nguồn lực vào việc triển khai các công cụ học máy chưa được chứng minh hay mở rộng đội ngũ công nghệ thông tin của mình? Không thể dự đoán được khoản đầu tư nào sẽ mang lại lợi ích lâu dài.
Các doanh nghiệp lớn có thể thu được lợi nhuận đáng kể từ an ninh mạng tự động hóa, trong khi các doanh nghiệp nhỏ có thể gặp khó khăn trong việc biện minh cho chi phí. Công nghệ tự động hóa truyền thống có thể thu hẹp khoảng cách với giá thành thấp hơn nhiều, nhưng nó sẽ không thể đáp ứng được các mối đe dọa năng động.
Steve Durbin, Giám đốc điều hành của Diễn đàn An ninh Thông tin, cho rằng việc áp dụng AI mang lại những lợi ích đáng kể, nhưng cũng có những nhược điểm lớn. Ví dụ, các doanh nghiệp thường gặp phải… gia tăng các cảnh báo dương tính giảĐiều này làm lãng phí thời gian của các nhóm bảo mật. Hơn nữa, việc quá phụ thuộc vào AI có thể khiến các nhóm trở nên quá tự tin, dẫn đến những sơ hở về bảo mật.
Định hướng trong bối cảnh mối đe dọa từ AI
Không thể xác định chính xác mức độ hiện diện của AI trong bối cảnh đe dọa, vì tin tặc có thể sử dụng nó để tạo mã độc hoặc soạn thảo email lừa đảo, chứ không phải sử dụng nó trong quá trình hoạt động thực tế. Các tội phạm mạng đơn lẻ và các nhóm tội phạm mạng được nhà nước tài trợ có thể đang sử dụng nó trên quy mô lớn.
Dựa trên thông tin hiện có, việc giả mạo mô hình, lừa đảo bằng AI và phần mềm độc hại đa hình sẽ là những mối đe dọa mạng lớn nhất năm 2026. Tội phạm mạng có thể sẽ tiếp tục sử dụng LLM để tạo ra, phân phối và điều chỉnh các phần mềm độc hại, nhắm mục tiêu vào các ngành công nghiệp có giá trị cao như tài chính cũng như người dân bình thường.












