Connect with us

Lãnh đạo tư tưởng

Điều Thật Sự Xảy Ra Trong Một Cuộc Tấn Công Được Vũ Trang Bởi Trí Tuệ Nhân Tạo?

mm
A modern cybersecurity SOC control room at night, showing analysts at glowing consoles overlooking a massive curved screen that visualizes a complex, adaptive red digital attack rapidly navigating a blue network grid.

Trong nhiều năm, ngành công nghiệp an ninh mạng đã nói về các cuộc tấn công trí tuệ nhân tạo trong tương lai. Chúng ta tưởng tượng về những siêu hacker thông minh có thể tháo gỡ tường lửa bằng logic ngoài Trái Đất. Thực tế, như chúng ta đang khám phá trong phòng thí nghiệm của Simbian, là ít ấn tượng hơn nhưng nguy hiểm hơn nhiều.

Nguy cơ không phải là trí tuệ nhân tạo siêu thông minh. Mà là trí tuệ nhân tạo làm cho sự kiên nhẫn của chuyên gia trở nên có thể mở rộng, tức thời và thay đổi vô hạn. Nó biến “cải tiến nhỏ” của một kịch bản thành một cơn lũ entropi mà không một đội SOC (Security Operations Center) nào của con người có thể xử lý.

Đây là điều thực sự xảy ra khi máy tính lấy bàn phím.

Phase 1: Trinh Sát – Thời Đại Context

Trong thế giới cũ, trinh sát là “phun và cầu nguyện”. Những kẻ tấn công mua danh sách email và gửi thư mẫu chung, hy vọng có tỷ lệ nhấp 0,1%.

Trong một cuộc tấn công được vũ trang bởi trí tuệ nhân tạo, trinh sát là “đâm và nhân bản”. Các tác nhân tạo ra có thể tiêu thụ dấu vết kỹ thuật số của mục tiêu – bài đăng LinkedIn, tweet gần đây, đề cập tin tức và thậm chí cả cam kết mã công khai – để xây dựng một hồ sơ tâm lý trong vài giây. Họ không chỉ viết email lừa đảo; họ viết context.

Một tác nhân trí tuệ nhân tạo không gửi một liên kết “Đặt lại Mật khẩu” chung chung. Nó thấy bạn vừa cam kết mã vào một kho lưu trữ GitHub cụ thể vào lúc 2:00 sáng. Nó gửi cho bạn một thông báo Slack từ một “Senior Dev” giả mạo than vãn về một xung đột hợp nhất trong kho lưu trữ đó, với một liên kết để “sửa nó”. Sự cấp bách được tạo ra, nhưng context là thực.

Research Insight: Trong các mô phỏng của chúng tôi, chúng tôi đã mô hình hóa sự thay đổi này bằng cách điều chỉnh các biến hành vi người dùng dựa trên chất lượng context. Khi chúng tôi chuyển từ lừa đảo chung chung sang mồi câu nhận thức context (tham khảo tên dự án nội bộ cụ thể), tỷ lệ nhấp mô phỏng tăng từ <2% lên hơn 20%. Trong một doanh nghiệp 5.000 người, đó là sự khác biệt giữa một sự phiền toái và một lũ lụt.

AI Cybersecurity Research Graph

Phase 2: Thực Thi – Cơn Ác Mộng Đa Hình

Đây là nơi mà sự phòng thủ thực sự bị phá vỡ. Truyền thống, nếu một kẻ tấn công viết một kịch bản độc hại (ví dụ, một biến thể của Mimikatz), các nhà cung cấp bảo mật sẽ tìm thấy nó, băm nó và chặn nó. “Chữ ký” là lá chắn.

Trí tuệ nhân tạo tạo ra phá vỡ khái niệm về một chữ ký tĩnh. Một kẻ tấn công được vũ trang bởi trí tuệ nhân tạo không sử dụng một công cụ tĩnh. Họ sử dụng một tác nhân viết công cụ tại mục tiêu. Nếu tác nhân phát hiện một cảm biến EDR (Endpoint Detection and Response), nó đơn giản là hỏi backend LLM của nó: “Viết lại logic.dump credential này để tránh các hook API cụ thể này. Đổi tên tất cả các biến. Thay đổi luồng điều khiển.”

Mục đích của mã vẫn giống nhau. Cú pháp thay đổi hoàn toàn. Đối với một hệ thống phòng thủ dựa trên quy tắc, nó trông như một chương trình hoàn toàn mới, chưa từng thấy.

Research Insight: Chúng tôi gọi những điều này là “Cuộc Tấn Công Đa Hình.” Trong nghiên cứu của chúng tôi, chúng tôi đã lấy một chuỗi tấn công.dump credential tiêu chuẩn và sử dụng một LLM để tạo ra 500 biến thể chức năng. Trong khi các công cụ phát hiện tiêu chuẩn bắt được 95% các kịch bản gốc, tỷ lệ phát hiện giảm xuống ~25% đối với các phiên bản biến thể. Máy không trở nên thông minh hơn; nó chỉ trở nên ồn ào hơn. Và trong bảo mật, tiếng ồn là trang phục ngụy trang tối thượng.

Phase 3: Di Chuyển Lateral – Tốc Độ Áp Dụng

Một khi bên trong, tốc độ phản ứng của con người trở nên không liên quan. Một kẻ xâm nhập con người di chuyển thận trọng, kiểm tra nhật ký, nhập lệnh và tạm dừng để suy nghĩ. Họ có thể di chuyển sang một máy chủ mới trong vài giờ.

Một tác nhân trí tuệ nhân tạo di chuyển trong vài mili giây.

Nhưng tốc độ không phải là yếu tố duy nhất; đó là Lý luận Áp dụng, hoặc suy luận đến giải thích tốt nhất. Trí tuệ nhân tạo khá tốt trong việc “đoán” cấu trúc của một mạng dựa trên các mảnh vỡ. Nếu nó thấy một máy chủ có tên US-WEST-SQL-01, nó suy luận sự tồn tại của US-EAST-SQL-01 và US-WEST-BAK-01. Nó kiểm tra các giả thuyết này ngay lập tức trên hàng nghìn địa chỉ IP nội bộ.

Nó không cần phải hoàn hảo. Nó chỉ cần nhanh. Trong khi phân tích SOC vẫn đang phân tích cảnh báo lừa đảo ban đầu, trí tuệ nhân tạo đã ánh xạ bộ điều khiển miền, xác định máy chủ sao lưu và trích xuất những viên ngọc quý của tổ chức.

Phase 4: Tác Động – Bom Entropi

Mục tiêu cuối cùng của một cuộc tấn công được vũ trang bởi trí tuệ nhân tạo không phải lúc nào cũng là lén lút. Đôi khi, đó là sự hỗn loạn. Chúng ta đang bước vào một kỷ nguyên của Các Cuộc Tấn Công Entropi Cao. Một tác nhân trí tuệ nhân tạo có thể tạo ra 10.000 cảnh báo giống như thật đồng thời – thất bại đăng nhập, quét cổng, thực thi malware giả mạo.

Đây là “Bom Entropi”. Nó lũ lụt SOC với quá nhiều tín hiệu mà các nhà phân tích phải chịu quá tải nhận thức. Họ đang chiến đấu với các mồi câu trong khi cuộc tấn công thực sự xảy ra im lặng ở hậu trường. Thách thức cho người phòng thủ thay đổi từ “tìm kim trong đống rơm” sang “tìm kim trong một đống kim”.

Đấu Lửa Với Lửa

Bài học từ nghiên cứu của chúng tôi là rõ ràng: Bạn không thể chống lại một máy với một hàng đợi vé.

Nếu kẻ tấn công có thể lặp lại mã của họ trong vài giây, và sự phòng thủ của bạn đòi hỏi một con người phải viết một quy tắc phát hiện trong vài giờ, bạn đã thua. Sự bất đối xứng là toán học. Cách duy nhất để sống sót sau một cuộc tấn công được vũ trang bởi trí tuệ nhân tạo là phải có một người phòng thủ trí tuệ nhân tạo hoạt động với tốc độ tương tự – suy luận, xác minh và chặn nhanh hơn kẻ tấn công có thể biến thể.

Kẻ tấn công đã tiến hóa. Sự phòng thủ phải làm như vậy.

32 5 ngày
Từ điểm yếu đến khai thác

12% 54%
Tỷ lệ nhấp cho email lừa đảo được hỗ trợ bởi trí tuệ nhân tạo

Ngày 1 giờ
Từ sự xâm phạm ban đầu đến trích xuất cho 20% hàng đầu

Ngày 48 phút
Thời gian breakout trung bình (di chuyển ngang)

Thực tế mới của các cuộc tấn công bảo mật được vũ trang bởi trí tuệ nhân tạo

Alankrit Chona là Giám đốc Công nghệ và đồng sáng lập của Simbian, giám sát kỹ thuật cho nền tảng Simbian. Ông đã đóng vai trò tiên phong trong việc xây dựng các hệ thống có khả năng mở rộng, mạnh mẽ tại các công ty giai đoạn đầu như Spotnana và Afterpay, cũng như trên quy mô lớn tại Twitter.