Connect with us

Tại Sao Các Công Ty Còn Cẩn Thận Với Trí Tuệ Nhân Tạo — Và Làm Thế Nào Để Triển Khai Nó Một Cách An Toàn

Lãnh đạo tư tưởng

Tại Sao Các Công Ty Còn Cẩn Thận Với Trí Tuệ Nhân Tạo — Và Làm Thế Nào Để Triển Khai Nó Một Cách An Toàn

mm

Trí tuệ nhân tạo đã làm nên một cơn bão trên toàn thế giới. Trong khi một số tổ chức là những người áp dụng sớm, nhiều công ty đã采 một cách tiếp cận thận trọng hơn — lo lắng về quyền riêng tư, tuân thủ và các vấn đề hoạt động vẫn còn tồn tại cho đến ngày nay.

Tôi đã làm việc trên hàng trăm lần triển khai liên quan đến các công cụ bảo mật được hỗ trợ bởi trí tuệ nhân tạo và đã thấy một mô hình quen thuộc được triển khai. Những người ủng hộ mang lại sự hào hứng ban đầu. Các thử nghiệm cho thấy hứa hẹn. Sau đó đến các cuộc tranh luận nội bộ, xem xét pháp lý và cuối cùng là một sự tạm dừng khi các tổ chức chìm vào tình trạng phân tích bị tê liệt. Mặc dù tiềm năng khổng lồ của trí tuệ nhân tạo trong việc biến đổi các hoạt động bảo mật, nhiều công ty vẫn còn do dự để hoàn toàn chấp nhận nó.

Trong lĩnh vực an ninh mạng, sự thận trọng thường là bản năng đúng. Nhưng việc trì hoãn việc triển khai trí tuệ nhân tạo sẽ không ngăn chặn được các mối đe dọa được hỗ trợ bởi trí tuệ nhân tạo đang ngày càng tăng về quy mô và tần suất. Thách thức thực sự là làm thế nào để áp dụng trí tuệ nhân tạo một cách an toàn, có chủ ý và không ảnh hưởng đến niềm tin.

Đây là những gì tôi đã học được từ tiền tuyến — và những gì tôi khuyên cho các nhà lãnh đạo bảo mật những người sẵn sàng tiến bước với sự tự tin.

1. Vấn Đề Tin Cậy Dữ Liệu

Chướng ngại vật đầu tiên và lớn nhất là quản lý dữ liệu. Nhiều công ty sợ rằng dữ liệu nhạy cảm có thể bị rò rỉ, bị lạm dụng hoặc — tồi tệ nhất — được sử dụng để đào tạo một mô hình có lợi cho đối thủ cạnh tranh. Các vụ vi phạm bảo mật nổi tiếng và các đảm bảo mập mờ của nhà cung cấp chỉ làm tăng thêm những nỗi sợ hãi này.

Điều này không phải là hoang tưởng. Khi bạn đang xử lý thông tin cá nhân của khách hàng, tài sản trí tuệ hoặc dữ liệu được quy định, việc chuyển giao nó cho một bên thứ ba có thể cảm thấy như mất kiểm soát. Và cho đến khi các nhà cung cấp làm tốt hơn việc làm rõ các chính sách của họ xung quanh phân tách dữ liệu, lưu giữ, sự tham gia của bên thứ tư và đào tạo mô hình, việc áp dụng sẽ vẫn còn thận trọng.

Đây là nơi quản trị trở nên quan trọng. Các CISO nên đánh giá các nhà cung cấp bằng cách sử dụng các khuôn khổ mới nổi như NIST AI Risk Management Framework hoặc ISO/IEC 42001, cung cấp hướng dẫn thực tế về niềm tin, minh bạch và trách nhiệm giải trình trong các hệ thống trí tuệ nhân tạo.

2. Bạn Không Thể Cải Thiện Điều Bạn Không Đo Lường

Một chướng ngại vật khác là thiếu các chỉ số cơ bản. Nhiều công ty không thể lượng hóa hiệu suất hiện tại, điều này làm cho việc chứng minh ROI của các công cụ trí tuệ nhân tạo gần như không thể. Làm thế nào bạn có thể tuyên bố một lợi ích hiệu quả 40% nếu không ai theo dõi thời gian thực hiện nhiệm vụ trước khi tự động hóa?

Cho dù đó là thời gian trung bình để phát hiện (MTTD), tỷ lệ dương tính giả, hay giờ làm việc của nhà phân tích được tiết kiệm, các tổ chức cần bắt đầu bằng cách đo lường các quy trình làm việc hiện tại. Không có dữ liệu này, trường hợp cho trí tuệ nhân tạo vẫn còn là giai thoại — và các nhà tài trợ điều hành sẽ không ký kết vào các sáng kiến quy mô lớn mà không có số liệu thực tế và có thể bảo vệ.

3. Khi Các Công Cụ Hoạt Động Quá Tốt

Ironically, một trong những lý do việc áp dụng trí tuệ nhân tạo bị đình trệ là một số công cụ hoạt động quá tốt —暴露 nhiều rủi ro hơn tổ chức sẵn sàng xử lý.

Các nền tảng thông tin về mối đe dọa tiên tiến, các công cụ theo dõi web tối và các giải pháp hiển thị được hỗ trợ bởi LLM thường tiết lộ thông tin đăng nhập bị đánh cắp, tên miền giống hệt hoặc các lỗ hổng chưa được phát hiện trước đó. Thay vì tạo ra sự rõ ràng, tầm nhìn rõ ràng này có thể tạo ra một vấn đề mới: Chúng ta bắt đầu từ đâu?

4. Được Khóa Vào Các Hợp Đồng Legacy

Ngay cả khi các công cụ tốt hơn có sẵn, nhiều công ty bị khóa vào các thỏa thuận nhiều năm với các nhà cung cấp legacy. Một số hợp đồng này có các khoản phạt tài chính rất cao đến nỗi việc chuyển đổi giữa kỳ là không thể.

5. Sự Phát Triển Của Shadow AI

Việc áp dụng trí tuệ nhân tạo không chỉ xảy ra từ trên xuống — nó đang xảy ra mọi nơi, thường mà không có kiến thức của bảo mật. Nghiên cứu của chúng tôi cho thấy hơn 85% nhân viên đang sử dụng các công cụ trí tuệ nhân tạo như ChatGPT, Copilot và Bard.

6. Outsourcing Mang Lại Risks Riêng

Ít có công ty có cơ sở hạ tầng để xây dựng và lưu trữ các mô hình lớn trong nhà. Điều đó có nghĩa là việc outsourcing thường là con đường duy nhất — nhưng nó mang lại rủi ro của bên thứ ba và chuỗi cung ứng mà các CISO quá quen thuộc.

7. Mặt Phẳng Tấn Công Của Trí Tuệ Nhân Tạo Đang Mở Rộng

Khi các tổ chức chấp nhận trí tuệ nhân tạo, họ cũng phải chuẩn bị cho các vector tấn công cụ thể của trí tuệ nhân tạo. Các kẻ tấn công đã đang thử nghiệm với:

8. Con Người Và Quy Trình Có Thể Là Điểm Nghẽn Thực Sự

Một trong những thách thức bị bỏ qua nhiều nhất là sự sẵn sàng của tổ chức. Các công cụ trí tuệ nhân tạo thường yêu cầu thay đổi về quy trình làm việc, kỹ năng và tâm lý.

Vậy Chúng Ta Có Thể Làm Gì?

Mặc dù có những thách thức, tôi tin rằng lợi ích của trí tuệ nhân tạo trong bảo mật vượt xa rủi ro — nếu được thực hiện đúng. Đây là cách tôi tư vấn cho các tổ chức tiến bước:

  • Bắt Đầu Nhỏ Và Kiểm Tra Gắt Gắt
  • Chọn Một Trường Hợp Sử Dụng Có Tác Động Đo Lường Được

Đo Lường Mọi Thứ

Theo dõi các KPI trước và sau khi triển khai. Tạo các bảng điều khiển nói bằng cả ngôn ngữ bảo mật và kinh doanh. Các chỉ số quyết định việc tài trợ cho trí tuệ nhân tạo.

Chọn Các Đối Tác Có Bằng Chứng Thành Công Trong Các Dự Án Thực Tế

Nhìn vượt ra ngoài các bản demo. Yêu cầu tham chiếu. Hỏi về hỗ trợ sau bán hàng, sự phức tạp của việc triển khai và kết quả trong các môi trường như của bạn.

Cái Gì Tiếp Theo? Các Trường Hợp Sử Dụng Mới Xứng Đáng Chú Ý

Chúng ta vẫn còn trong giai đoạn đầu của hành trình trí tuệ nhân tạo trong bảo mật. Các CISO có tầm nhìn xa đang khám phá:

  • Các đồng pilot trí tuệ nhân tạo cho Quản Lý Tường Lửa, GRC và Tự Động Hóa Tuân Thủ
  • Sử Dụng Các Luồng Mối Đe Dọa Được Cải Thiện Bằng Trí Tuệ Nhân Tạo

Những trường hợp sử dụng này đang chuyển từ các phòng thí nghiệm sang sản xuất. Các tổ chức xây dựng cơ bắp bây giờ sẽ được chuẩn bị tốt hơn để tận dụng.

Suy Nghĩ Cuối Cùng: Trì Hoãn Không Phải Là Phòng Thủ

Trí tuệ nhân tạo đã có mặt và cũng như các mối đe dọa được hỗ trợ bởi trí tuệ nhân tạo. Càng trì hoãn, bạn sẽ mất càng nhiều lợi thế. Nhưng điều này không có nghĩa bạn nên vội vàng một cách mù quáng.

Với việc lập kế hoạch cẩn thận, quản trị minh bạch và các đối tác phù hợp, tổ chức của bạn có thể áp dụng trí tuệ nhân tạo một cách an toàn — tăng cường khả năng mà không hy sinh kiểm soát.

Tương lai của bảo mật là tăng cường. Câu hỏi duy nhất là liệu bạn sẽ dẫn đầu hay tụt lại phía sau.

Pete Nicoletti担任Check Point Software Technologies的美洲CISO,之前曾在Cybraics Defense、Hertz Global和Virtustream担任领导职务。