Lãnh đạo tư tưởng
Kiểm soát ảo giác: Lợi ích và Rủi ro khi Triển khai LLMs như một Phần của Quy trình Bảo mật
Large Language Models (LLMs) được đào tạo trên lượng dữ liệu khổng lồ có thể làm cho các đội vận hành bảo mật thông minh hơn. LLMs cung cấp gợi ý và hướng dẫn trực tuyến về phản hồi, kiểm toán, quản lý tư thế và nhiều hơn nữa. Hầu hết các đội bảo mật đang thử nghiệm hoặc sử dụng LLMs để giảm công việc thủ công trong các quy trình làm việc. Điều này có thể là cho cả nhiệm vụ tầm thường và phức tạp.
Ví dụ, một LLM có thể hỏi một nhân viên qua email nếu họ có ý định chia sẻ một tài liệu độc quyền và xử lý phản hồi với một khuyến nghị cho một chuyên gia bảo mật. Một LLM cũng có thể được giao nhiệm vụ dịch yêu cầu để tìm kiếm các cuộc tấn công chuỗi cung ứng trên các mô-đun mã nguồn mở và khởi chạy các tác nhân tập trung vào các điều kiện cụ thể — các đóng góp mới cho các thư viện được sử dụng rộng rãi, các mẫu mã không đúng — với mỗi tác nhân được thiết lập cho điều kiện cụ thể đó.
Tuy nhiên, những hệ thống AI mạnh mẽ này mang lại những rủi ro đáng kể khác với những rủi ro mà các đội bảo mật phải đối mặt. Các mô hình cung cấp năng lượng cho LLMs bảo mật có thể bị tổn thương thông qua việc tiêm prompt hoặc ngộ độc dữ liệu. Các vòng phản hồi liên tục và các thuật toán học máy không có hướng dẫn của con người đầy đủ có thể cho phép các tác nhân xấu kiểm tra các biện pháp kiểm soát và sau đó gây ra các phản hồi không được nhắm mục tiêu. LLMs dễ bị ảo giác, thậm chí trong các lĩnh vực hạn chế. Ngay cả những LLMs tốt nhất cũng tạo ra những điều khi họ không biết câu trả lời.
Các quy trình bảo mật và chính sách AI xung quanh việc sử dụng LLMs và quy trình làm việc sẽ trở nên quan trọng hơn khi những hệ thống này trở nên phổ biến hơn trên các hoạt động và nghiên cứu bảo mật mạng. Đảm bảo rằng những quy trình này được tuân thủ và được đo lường và tính toán trong các hệ thống quản trị sẽ chứng minh là rất quan trọng để đảm bảo rằng các CISO có thể cung cấp đủ phạm vi GRC (Quản trị, Rủi ro và Tuân thủ) để đáp ứng các yêu cầu mới như Khung bảo mật mạng 2.0.
Sự Hứa hẹn Lớn của LLMs trong An ninh Mạng
Các CISO và đội của họ liên tục phải vật lộn để theo kịp làn sóng mới của các cuộc tấn công mạng. Theo Qualys, số lượng CVE được báo cáo vào năm 2023 đã đạt một kỷ lục mới của 26,447. Đó là tăng hơn 5 lần so với năm 2013.
Thử thách này đã trở nên khó khăn hơn khi bề mặt tấn công của tổ chức trung bình trở nên lớn hơn với mỗi năm qua. Các đội bảo mật ứng dụng phải bảo mật và giám sát nhiều ứng dụng phần mềm hơn. Các công nghệ điện toán đám mây, API, đa đám mây và ảo hóa đã thêm sự phức tạp. Với công cụ và quy trình CI/CD hiện đại, các đội ứng dụng có thể vận chuyển nhiều mã hơn, nhanh hơn và thường xuyên hơn. Các dịch vụ vi mô đã chia nhỏ ứng dụng monolithic thành nhiều API và bề mặt tấn công và cũng tạo ra nhiều lỗ hổng hơn trong tường lửa toàn cầu để giao tiếp với các dịch vụ hoặc thiết bị khách hàng bên ngoài.
Các LLMs tiên tiến nắm giữ sự hứa hẹn to lớn để giảm tải công việc của các đội bảo mật mạng và cải thiện khả năng của họ. Các công cụ mã hóa AI đã thâm nhập rộng rãi vào phát triển phần mềm. Nghiên cứu của Github cho thấy 92% nhà phát triển đang sử dụng hoặc đã sử dụng các công cụ AI cho đề xuất và hoàn thiện mã. Hầu hết các công cụ “copilot” này có một số khả năng bảo mật. Trên thực tế, các kỷ luật lập trình với kết quả nhị phân tương đối (mã sẽ vượt qua hoặc không vượt qua các bài kiểm tra đơn vị) rất phù hợp với LLMs. Ngoài việc quét mã cho phát triển phần mềm và trong đường ống CI/CD, AI có thể có giá trị cho các đội bảo mật mạng theo nhiều cách khác:
- Phân tích Cải tiến: LLMs có thể xử lý lượng lớn dữ liệu bảo mật (nhật ký, cảnh báo, thông tin về mối đe dọa) để xác định các mẫu và mối tương quan không thể nhìn thấy được với con người. Chúng có thể làm điều này trên nhiều ngôn ngữ, suốt cả ngày và trên nhiều chiều cùng một lúc. Điều này mở ra những cơ hội mới cho các đội bảo mật. LLMs có thể giảm một chồng cảnh báo gần như thời gian thực, đánh dấu những cảnh báo có khả năng nghiêm trọng nhất. Thông qua học tăng cường, phân tích nên cải thiện theo thời gian.
- Tự động hóa: LLMs có thể tự động hóa các nhiệm vụ của đội bảo mật thường yêu cầu sự tương tác qua lại. Ví dụ, khi một đội bảo mật nhận được một IoC và cần hỏi chủ sở hữu của điểm cuối nếu họ đã đăng nhập vào thiết bị hoặc nếu họ đang ở ngoài khu vực làm việc bình thường, LLM có thể thực hiện các hoạt động đơn giản này và sau đó theo dõi với các câu hỏi như yêu cầu và liên kết hoặc hướng dẫn. Điều này trước đây là một tương tác mà một thành viên của đội IT hoặc bảo mật phải tự thực hiện. LLMs cũng có thể cung cấp chức năng tiên tiến hơn. Ví dụ, một Microsoft Copilot cho Bảo mật có thể tạo báo cáo phân tích sự cố và dịch mã độc phức tạp thành mô tả ngôn ngữ tự nhiên.
- Học liên tục và Điều chỉnh: Không giống như các hệ thống học máy trước đây cho các chính sách và hiểu biết bảo mật, LLMs có thể học trên máy bay bằng cách tiêu thụ xếp hạng của con người về phản hồi của nó và bằng cách điều chỉnh lại trên các nhóm dữ liệu mới có thể không được chứa trong các tệp nhật ký nội bộ. Trên thực tế, bằng cách sử dụng cùng một mô hình cơ bản, các LLMs bảo mật mạng có thể được điều chỉnh cho các đội và nhu cầu, quy trình làm việc hoặc nhiệm vụ cụ thể theo khu vực hoặc theo chiều dọc. Điều này cũng có nghĩa là toàn bộ hệ thống có thể ngay lập tức thông minh như mô hình, với các thay đổi được truyền nhanh chóng trên tất cả các giao diện.
Rủi ro của LLMs cho An ninh Mạng
Là một công nghệ mới với hồ sơ theo dõi ngắn, LLMs có những rủi ro nghiêm trọng. Worst, việc hiểu đầy đủ phạm vi của những rủi ro này là thách thức vì đầu ra của LLM không thể dự đoán được 100% hoặc theo chương trình. Ví dụ, LLMs có thể “ảo giác” và tạo ra câu trả lời hoặc trả lời câu hỏi không chính xác, dựa trên dữ liệu tưởng tượng. Trước khi áp dụng LLMs cho các trường hợp sử dụng bảo mật mạng, một người phải xem xét các rủi ro tiềm năng bao gồm:
- Tiêm Prompt: Các kẻ tấn công có thể tạo ra các prompt độc hại cụ thể để tạo ra đầu ra sai lệch hoặc có hại. Loại tấn công này có thể khai thác xu hướng của LLM tạo ra nội dung dựa trên các prompt nó nhận được. Trong các trường hợp sử dụng bảo mật mạng, tiêm prompt có thể rủi ro nhất dưới dạng tấn công từ bên trong hoặc tấn công bởi người dùng không được ủy quyền sử dụng các prompt để thay đổi vĩnh viễn đầu ra của hệ thống bằng cách làm sai lệch hành vi của mô hình. Điều này có thể tạo ra đầu ra không chính xác hoặc không hợp lệ cho người dùng khác của hệ thống.
- Ngộ độc Dữ liệu: Dữ liệu đào tạo mà LLMs dựa vào có thể bị cố ý làm hỏng, làm suy yếu khả năng ra quyết định của chúng. Trong các môi trường bảo mật mạng, nơi các tổ chức có khả năng sử dụng các mô hình được đào tạo bởi các nhà cung cấp công cụ, ngộ độc dữ liệu có thể xảy ra trong quá trình điều chỉnh mô hình cho khách hàng và trường hợp sử dụng cụ thể. Rủi ro ở đây có thể là một người dùng không được ủy quyền thêm dữ liệu xấu — ví dụ, tệp nhật ký bị hỏng — để làm suy yếu quá trình đào tạo. Một người dùng được ủy quyền cũng có thể làm điều này vô tình. Kết quả sẽ là đầu ra của LLM dựa trên dữ liệu xấu.
- Ảo giác: Như đã đề cập trước đó, LLMs có thể tạo ra phản hồi không chính xác về mặt事 thực, illogical hoặc thậm chí có hại do hiểu lầm các prompt hoặc khiếm khuyết dữ liệu cơ bản. Trong các trường hợp sử dụng bảo mật mạng, ảo giác có thể dẫn đến các lỗi quan trọng làm tê liệt thông tin về mối đe dọa, phân loại và khắc phục lỗ hổng và nhiều hơn nữa. Bởi vì bảo mật mạng là một hoạt động quan trọng, LLMs phải được giữ ở một tiêu chuẩn cao hơn về quản lý và ngăn chặn ảo giác trong những ngữ cảnh này.
Khi các hệ thống AI trở nên mạnh mẽ hơn, việc triển khai bảo mật thông tin của chúng đang mở rộng nhanh chóng. Để rõ ràng, nhiều công ty bảo mật đã sử dụng việc khớp mẫu và học máy cho bộ lọc động trong một thời gian dài. Điều mới mẻ trong kỷ nguyên AI tạo ra là các LLM tương tác cung cấp một lớp thông minh trên các quy trình làm việc và nhóm dữ liệu hiện có, lý tưởng là cải thiện hiệu quả và tăng cường khả năng của các đội bảo mật mạng. Nói cách khác, GenAI có thể giúp các kỹ sư bảo mật làm được nhiều hơn với ít nỗ lực hơn và cùng một nguồn lực, tạo ra hiệu suất tốt hơn và các quy trình được tăng tốc.












