Phỏng vấn
Liat Hayun, SVP Product Management & Research tại Tenable – Interview Series

Liat Hayun là VP của Sản phẩm và Nghiên cứu tại Tenable Cloud Security. Trước khi gia nhập Tenable, Liat đồng sáng lập và từng là CEO của Eureka Security, một công ty bảo mật dữ liệu được Tenable mua lại. Trước khi đồng sáng lập Eureka Security, Liat đã dành hơn một thập kỷ lãnh đạo các nỗ lực an ninh mạng tại Israeli Cyber Command và tại Palo Alto Networks. Với tư cách là VP Quản lý Sản phẩm tại Palo Alto Networks, Liat đã lãnh đạo việc phát triển Cortex XDR và dịch vụ săn tìm mối đe dọa được quản lý của công ty.
Tenable là một công ty an ninh mạng của Mỹ tập trung vào việc giúp các tổ chức xác định, hiểu, ưu tiên và khắc phục các điểm yếu bảo mật trên toàn bộ bề mặt tấn công kỹ thuật số của họ. Nó được biết đến nhiều nhất với nền tảng quản lý điểm yếu và các công cụ như máy quét điểm yếu Nessus được sử dụng rộng rãi, cho phép các doanh nghiệp có cái nhìn sâu sắc vào các mối đe dọa trên cơ sở hạ tầng CNTT, đám mây, OT / IoT và hệ thống danh tính và thực hiện hành động quyết liệt để giảm thiểu rủi ro ảnh hưởng đến kinh doanh. Các giải pháp của Tenable cung cấp khám phá liên tục, ưu tiên và thông tin về mối đe dọa để hỗ trợ quản lý rủi ro mạng một cách chủ động cho hàng chục nghìn khách hàng trên toàn thế giới.
Điều gì cơ bản làm cho các tác nhân AI tự chủ nguy hiểm hơn so với các mô hình AI truyền thống chỉ phản hồi các lệnh của người dùng, chứ không phải hoạt động độc lập?
Các tác nhân AI tự chủ thay đổi bản chất của rủi ro vì chúng có thể khởi xướng các nhiệm vụ, truy cập hệ thống, đưa ra quyết định và tương tác với các dịch vụ khác mà không cần giám sát của con người.
Sự độc lập đó mở rộng cả tốc độ và quy mô của tác động tiềm năng, làm tăng khả năng phơi bày dữ liệu, gián đoạn hoạt động và tổn thất tài chính. Một tác nhân AI có thể truy vấn các cửa hàng dữ liệu, kích hoạt các quy trình làm việc, gọi API hoặc sửa đổi cơ sở hạ tầng theo thời gian thực. Nếu bị cấu hình sai hoặc bị xâm phạm, nó có thể di chuyển ngang qua các hệ thống bằng cách sử dụng các quyền đã được cấp, thường nhanh hơn so với con người có thể phát hiện hoặc can thiệp.
Theo Báo cáo Rủi ro An ninh Đám mây và AI 2026 của Tenable, 52% tổ chức hiện có danh tính phi con người với quyền truy cập quá mức, và gần một nửa trong số đó đang không hoạt động, tạo ra sự truy cập không được quản lý rộng rãi trên các môi trường sản xuất. Điều đó có nghĩa là nhiều quy trình được thúc đẩy bởi AI đã có quyền truy cập mà chúng không sử dụng tích cực nhưng kẻ tấn công có thể.
Các kẻ tấn công ngày càng khai thác những gì được gọi là vấn đề Phó bị nhầm lẫn. Họ không cần phải xâm phạm chính tác nhân. Thay vào đó, họ lừa một tác nhân được ủy quyền thực hiện các hành động thay mặt cho họ, thường thông qua việc tiêm lệnh gián tiếp hoặc đầu vào bị thao túng. Tác nhân thực hiện yêu cầu bằng cách sử dụng các quyền hợp pháp của nó, hiệu quả là làm việc cho kẻ tấn công. Khi các hệ thống tự chủ kế thừa các quyền quá mức hoặc giả định vai trò quá đặc quyền, thời gian giữa cấu hình sai và khai thác hiệu quả biến mất, tạo ra một khoảng trống phơi bày AI không có biên độ.
Nhiều doanh nghiệp đang thử nghiệm với các tác nhân AI một cách không chính thức. Những bước cụ thể đầu tiên mà các đội an ninh nên thực hiện để đánh giá xem liệu các tác nhân AI có đang hoạt động bên trong môi trường của họ hay không?
Việc đóng khoảng trống phơi bày AI bắt đầu bằng việc khám phá mở rộng ra ngoài các hàng tồn kho tài sản truyền thống. Giai đoạn thử nghiệm thường là giai đoạn nguy hiểm nhất vì các tổ chức không biết đầy đủ về AI đang được sử dụng, cách nó được cấu hình hoặc quyền truy cập nào đã được cấp cho nó.
Các tác nhân AI hiếm khi sống trong một hệ thống duy nhất, rõ ràng được dán nhãn. Nhiều tác nhân hoạt động bên ngoài quản lý chính thức. Chúng xuất hiện trong các công cụ của nhà phát triển, tích hợp SaaS, quy trình làm việc tự động, tiện ích mở rộng trình duyệt và dịch vụ đám mây, điều này tạo ra một triển khai phân tán tăng các điểm mù và hạn chế kiểm soát tập trung. Điều này đã trở nên phổ biến, vì hơn 70% tổ chức đã tích hợp ít nhất một gói AI hoặc mô hình liên quan của bên thứ ba, thường nhúng AI sâu vào ứng dụng và cơ sở hạ tầng với quản lý tập trung hạn chế.
Nghiên cứu gần đây về Clawdbot cho thấy rằng việc triển khai tác nhân thử nghiệm có thể tạo ra rủi ro nghiêm trọng khi các khả năng được triển khai trước khi các biện pháp an ninh hoặc tiêu chuẩn cấu hình được hiểu đầy đủ. Ngay cả sau khi thử nghiệm kết thúc và các tổ chức quyết định ứng dụng AI nào để áp dụng, họ vẫn cần quản lý mạnh mẽ về cách những hệ thống đó được sử dụng, quyền truy cập nào chúng nắm giữ và cách chúng tương tác với tài sản quan trọng.
Giai đoạn khám phá nên bắt đầu bằng việc thiết lập một danh mục tài sản thống nhất về nơi AI tồn tại trên các điểm cuối, cơ sở hạ tầng đám mây và bề mặt tấn công bên ngoài. Điều này bao gồm việc xác định các thư viện AI, tác nhân, API, dịch vụ mô hình và tích hợp của bên thứ ba, không chỉ là hệ thống được triển khai nội bộ, mà còn là bất cứ thứ gì có thể truy cập được từ bên ngoài.
Tiếp theo, các đội phải ánh xạ cách các tác nhân đó được kết nối và dữ liệu nào chúng truy cập, danh tính nào chúng sử dụng, quyền nào chúng nắm giữ và hệ thống nào chúng có thể truy cập. Tầm nhìn yêu cầu ngữ cảnh khi rủi ro xuất hiện từ các mối quan hệ.
Cuối cùng, sau khi thử nghiệm, các tổ chức nên xác định những kết nối nào tạo ra các đường dẫn có thể truy cập đến tài sản quan trọng và đóng khoảng trống phơi bày AI.
Rủi ro như bề mặt kiểm soát bị lộ hoặc các “kỹ năng” của bên thứ ba không được kiểm tra so với các mối đe dọa quen thuộc hơn như tấn công chuỗi cung ứng hoặc leo thang đặc quyền?
Các kỹ năng của bên thứ ba không được kiểm tra và các bề mặt kiểm soát bị lộ mở rộng các rủi ro tương tự như sự thỏa hiệp của chuỗi cung ứng và leo thang đặc quyền, nhưng với tốc độ, quy mô và kết nối được khuếch đại.
Các kỹ năng của tác nhân bên thứ ba hoạt động giống như các phụ thuộc của chuỗi cung ứng phần mềm, và bề mặt phơi bày đã mang trọng lượng đáng kể. 86% tổ chức lưu trữ các gói mã có điểm yếu nghiêm trọng. Khi các thành phần này hoạt động bên trong các tác nhân AI tự chủ, việc thực thi trở nên liên tục và tự động, loại bỏ thời gian giữa việc xâm phạm và tác động.
Các bề mặt kiểm soát bị lộ mở rộng lớp rủi ro về danh tính và truy cập bằng cách tạo ra các giao diện hoạt động mới mang các quyền đặc biệt. 18% tổ chức đã cho phép các dịch vụ AI giả định vai trò quá đặc quyền, cung cấp cho các hệ thống tự động phạm vi rộng trên các môi trường. Các tác nhân AI liên kết những sự phơi bày này thành một chuỗi hoạt động. Một sự phụ thuộc dễ bị tấn công, các quyền quá mức và các giao diện bị lộ kết hợp thành một đường dẫn tấn công có thể truy cập. Các tổ chức hoạt động trong một môi trường không có biên độ lỗi, nơi phơi bày và khai thác gần như tức thời.
Từ góc độ phòng thủ, “vệ sinh tốt” trông như thế nào đối với các tổ chức triển khai các tác nhân AI có quyền truy cập vào hệ thống nội bộ hoặc dữ liệu nhạy cảm?
Vệ sinh tốt bắt đầu bằng việc coi các tác nhân AI là các diễn viên kỹ thuật số được đặc quyền với thẩm quyền thực sự trên các hệ thống và dữ liệu. Các tổ chức cần tầm nhìn liên tục vào từng tác nhân, những gì nó làm và những gì nó có thể truy cập. Các đội nên thực thi đặc quyền tối thiểu cho các danh tính máy và dịch vụ, loại bỏ quyền truy cập không hoạt động và giới hạn chặt chẽ các quyền. Mỗi tác nhân nên được dành riêng cho một loại nhiệm vụ cụ thể, với quyền và quyền truy cập hạn chế nghiêm ngặt vào chức năng đó.
Điều này quan trọng vì quyền truy cập không sử dụng là phổ biến. Gần một nửa danh tính với các quyền quá mức quan trọng là không hoạt động, và hơn 70% vai trò thực hiện AI mặc định vẫn không được sử dụng. Những điều kiện này tạo ra các đường dẫn leo thang sẵn sàng mang rủi ro mà không cung cấp giá trị.
Các đội an ninh cũng phải hiểu các mối quan hệ trên cơ sở hạ tầng, cửa hàng dữ liệu, API và ứng dụng. Việc ánh xạ những kết nối này tiết lộ các kết hợp phơi bày độc hại, chẳng hạn như các tải trọng dễ bị tấn công có thể truy cập thông qua các tác nhân quá đặc quyền có quyền truy cập vào dữ liệu nhạy cảm.
Vệ sinh tốt cũng đòi hỏi quản lý liên tục. Các tổ chức phải theo dõi hành vi của tác nhân, kiểm soát các tích hợp, thực thi các rào cản dữ liệu và thường xuyên xác thực các quyền. Những thực tiễn này đóng khoảng trống phơi bày AI và loại bỏ các đường dẫn tấn công có thể truy cập.
Điều gì mà bạn khuyên các tổ chức nên làm để bảo vệ các bề mặt tấn công AI một cách nhanh chóng mà không làm chậm quá trình đổi mới?
Các tổ chức có thể bảo vệ các bề mặt tấn công AI bằng cách giảm phơi bày với tốc độ và độ chính xác.
Để làm điều đó, ưu tiên đầu tiên là xác định các hệ thống AI nào tạo ra các đường dẫn có thể truy cập đến tài sản quan trọng. Hơn 80% tổ chức chạy các tải trọng có các điểm yếu đã được khai thác trong thế giới thực. Rủi ro đã tồn tại bên trong hầu hết các môi trường. Các đội an ninh cần tập trung vào các kết nối tạo ra tác động thực sự.
Sau đó, hãy nhận ra rằng tự động hóa cho phép mở rộng quy mô. Khám phá liên tục, ưu tiên theo ngữ cảnh và khắc phục có hướng cho phép các đội giảm rủi ro trong khi duy trì tốc độ phát triển.
Trong khi các rào cản chính sách bảo vệ việc áp dụng, quyền truy cập chỉ trong thời gian, luồng dữ liệu được theo dõi và tích hợp được kiểm soát giúp các tổ chức quản lý hoạt động AI trong khi duy trì đổi mới.
Cùng nhau, những bước này thu hẹp khoảng trống phơi bày AI bằng cách loại bỏ quyền truy cập có rủi ro cao và các kết nối không an toàn. Việc giảm phơi bày nhanh chóng bảo vệ các hệ thống trong khi cho phép việc áp dụng AI tiến về phía trước.
Các CISO nên suy nghĩ như thế nào về danh tính, quyền và phạm vi khi cấp quyền truy cập cho các tác nhân AI vào các hệ thống sản xuất?
Các CISO nên coi các tác nhân AI là các danh tính phi con người có thẩm quyền hoạt động trên các hệ thống và dữ liệu.
Các quyết định truy cập nên tập trung vào độ chính xác. Các quyền nên được căn chỉnh với các nhiệm vụ cụ thể, vẫn bị ràng buộc theo thời gian và trải qua xem xét liên tục. Quyền truy cập quá mức mở rộng phạm vi và tăng tác động khi các hệ thống tương tác với tốc độ máy.
Các nhà lãnh đạo an ninh cũng cần có cái nhìn rõ ràng về phạm vi hiệu quả. Các quyền, kết hợp với các đường dẫn mạng, quyền truy cập dữ liệu và tích hợp dịch vụ, xác định những gì một tác nhân có thể thực sự làm. Việc hiểu các mối quan hệ này tiết lộ sự phơi bày tiềm năng trước khi nó trở thành tác động.
Danh tính kết nối cơ sở hạ tầng, dữ liệu và ứng dụng trên khoảng trống phơi bày AI. Thiết kế quyền hạn chặt chẽ hạn chế bán kính và duy trì kiểm soát. Khi thời gian từ việc khám phá phơi bày đến khai thác gần như bằng không, quản lý danh tính quyết định cách an toàn AI hoạt động trong sản xuất.
Liệu bạn có dự đoán rằng các tác nhân AI sẽ buộc phải suy nghĩ lại các khuôn khổ an ninh hiện có, hay các mô hình ngày nay có thể được thích nghi để xử lý các rủi ro mới này?
Các nguyên tắc an ninh vẫn nhất quán, nhưng các mô hình hoạt động đang phát triển. Các tác nhân AI kết nối các hệ thống, danh tính và dữ liệu thành các môi trường động thay đổi liên tục và hoạt động với tốc độ máy. Không giống như các nhà điều hành con người, các tác nhân không áp dụng phán đoán cho các hành động của chúng hoặc phân biệt giữa các yêu cầu phù hợp và không phù hợp. Chúng thực thi dựa trên hướng dẫn và quyền, điều này làm tăng tầm quan trọng của việc kiểm soát và quản lý nghiêm ngặt.
Rủi ro xuất hiện từ các mối quan hệ trên cơ sở hạ tầng, chuỗi cung ứng phần mềm và các lớp danh tính. Các tổ chức thừa hưởng phơi bày nhanh hơn so với các chu kỳ khắc phục có thể theo kịp. Việc triển khai tự động và khai thác tự động nén thời gian phản hồi và tăng áp lực hoạt động.
Các khuôn khổ an ninh cần tập trung vào việc hiển thị và giảm phơi bày. Các đội cần tầm nhìn liên tục vào những gì tồn tại, cách các hệ thống kết nối và những đường dẫn nào dẫn đến tài sản quan trọng.
Thử thách được xác định là quản lý rủi ro liên kết trên khoảng trống phơi bày AI. Các chương trình an ninh thành công bằng cách liên tục giảm phơi bày có thể truy cập và duy trì kiểm soát trên các môi trường phức tạp.
Nhìn về phía trước, những lĩnh vực nào của nghiên cứu an ninh AI tự chủ bạn tin rằng xứng đáng được chú ý hơn khi các công cụ này chuyển từ thử nghiệm sang quan trọng?
Một số lĩnh vực nghiên cứu sẽ định hình tương lai của an ninh AI tự chủ.
Trước hết, sự tăng trưởng của các hệ sinh thái danh tính phi con người đòi hỏi phải phân tích sâu hơn. Các tổ chức đang nhanh chóng mở rộng các danh tính máy hoạt động trên cơ sở hạ tầng, dữ liệu và dịch vụ. Việc hiểu các mẫu đặc quyền, hành vi và quản lý vòng đời sẽ là rất quan trọng.
Thứ hai, nghiên cứu phải phát triển mô hình đường dẫn tấn công nhiều bước. Các hệ thống AI kết nối các chuỗi cung ứng phần mềm, cơ sở hạ tầng đám mây và các lớp danh tính. Việc ánh xạ cách các yếu tố này tương tác sẽ cải thiện dự đoán và ưu tiên rủi ro.
Thứ ba, quản lý việc ra quyết định tự chủ đòi hỏi sự tập trung nhiều hơn. Các đội an ninh cần tầm nhìn vào cách các tác nhân truy cập, xử lý và chuyển dữ liệu nhạy cảm theo thời gian.
Cuối cùng, tốc độ khai thác tiếp tục tăng tốc. Việc nghiên cứu cách các kẻ tấn công và người bảo vệ hoạt động với tốc độ máy sẽ định hình các chiến lược phản hồi.
An ninh tương lai phụ thuộc vào việc hiểu và giảm khoảng trống phơi bày AI. Nghiên cứu phải tập trung vào kiểm soát phơi bày liên kết trên toàn bộ bề mặt tấn công.
Cảm ơn vì cuộc phỏng vấn tuyệt vời, những người đọc muốn tìm hiểu thêm nên truy cập Tenable.












