Phỏng vấn
Jacob Ideskog, Giám đốc Công nghệ của Curity – Loạt bài phỏng vấn

Jacob Ideskog là Chuyên gia về Định danh và Giám đốc Công nghệ (CTO) tại Curity. Phần lớn thời gian của ông dành cho việc phát triển các giải pháp bảo mật trong lĩnh vực API và Web. Ông đã tham gia thiết kế và triển khai các giải pháp OAuth và OpenID Connect cho cả các doanh nghiệp lớn cũng như các công ty khởi nghiệp nhỏ.
Curity Đây là một nền tảng quản lý danh tính và truy cập (IAM) hiện đại được xây dựng dựa trên Curity Identity Server, một giải pháp dựa trên tiêu chuẩn được thiết kế để bảo mật xác thực và ủy quyền cho các ứng dụng, API và dịch vụ kỹ thuật số ở quy mô lớn. Nó hỗ trợ các giao thức như OAuth 2.0 và OpenID Connect để tập trung hóa luồng đăng nhập, thực thi các chính sách truy cập chi tiết và cấp mã thông báo bảo mật cho cả người dùng và máy khách, bao gồm API và dịch vụ. Nền tảng này được thiết kế để linh hoạt và có khả năng mở rộng, cho phép các tổ chức triển khai trên môi trường đám mây, lai hoặc tại chỗ, tích hợp với các hệ thống hiện có và cung cấp trải nghiệm người dùng an toàn, liền mạch mà không cần dựa vào cơ sở hạ tầng bảo mật được xây dựng tùy chỉnh.
Ông đã dành phần lớn sự nghiệp của mình để xây dựng các hệ thống bảo mật danh tính và API, từ việc đồng sáng lập Curity đến việc lãnh đạo công ty với tư cách là CTO trong suốt thời kỳ bùng nổ của điện toán đám mây và hiện nay là trí tuệ nhân tạo (AI). Hành trình đó đã định hình quan điểm của ông như thế nào về việc các tác nhân AI nên được coi là những danh tính kỹ thuật số hạng nhất chứ không chỉ là một phần mềm thông thường?
Trong mọi lĩnh vực công nghệ mà tôi từng làm việc, một vấn đề cứ liên tục xuất hiện. Cho dù là điện toán đám mây hay trí tuệ nhân tạo, nếu phần mềm hoạt động thay mặt cho một người hoặc một hệ thống khác, thì bạn sẽ gặp phải vấn đề về định danh.
Với sự phổ biến rộng rãi của trí tuệ nhân tạo dạng tác nhân (agent-AI), vấn đề này càng trở nên phức tạp hơn. Hành vi của chúng không còn được lập trình chặt chẽ và chúng hoạt động với mức độ tự chủ mà các doanh nghiệp chưa từng thấy trước đây. Các tác nhân AI đưa ra quyết định, gọi API và thực hiện chuỗi hành động trên nhiều hệ thống – thường không cần sự giám sát trực tiếp của con người. Hành vi này tạo ra những thách thức về định danh và quyền truy cập khác biệt về cơ bản so với phần mềm truyền thống.
Cách duy nhất để giải quyết vấn đề này một cách đúng đắn là coi các tác nhân AI như những thực thể kỹ thuật số hạng nhất. Nếu các tổ chức chỉ coi chúng như một quy trình hoặc tài khoản dịch vụ thông thường, họ sẽ nhanh chóng mất khả năng giám sát và kiểm soát – và đó là công thức dẫn đến khủng hoảng an ninh.”
Nhiều doanh nghiệp rất hào hứng với trí tuệ nhân tạo dựa trên tác nhân (agent-AI) nhưng vẫn đang mắc kẹt trong giai đoạn thử nghiệm. Từ những gì bạn thấy trong các triển khai thực tế, đâu là những lỗ hổng phổ biến nhất về định danh và quản trị đang ngăn cản các tổ chức mở rộng quy mô tác nhân một cách an toàn?
Hầu hết các thử nghiệm diễn ra trong môi trường biệt lập, bỏ qua những gì xảy ra ở quy mô lớn. Trong các dự án thí điểm ban đầu, các nhóm thường cấp cho các tác nhân khóa API rộng, thông tin đăng nhập dùng chung hoặc quyền truy cập đám mây chung chung chỉ để bắt đầu triển khai.
Cách tiếp cận đó sẽ sụp đổ ngay khi các tác nhân được triển khai vượt ra ngoài giai đoạn thử nghiệm. Điều này là do các nhóm bảo mật không thể thấy tác nhân đã truy cập dữ liệu nào, các hành động của nó, hoặc liệu nó có thể hoặc đã vượt quá phạm vi dự định hay không; dù là vô tình hay cố ý. Những điểm mù này khiến việc quản lý các tác nhân một cách an toàn trở nên bất khả thi, đó là lý do tại sao nhiều tổ chức gặp khó khăn trong việc vượt qua giai đoạn thử nghiệm.
Bạn đã lập luận rằng các rào cản nghiêm ngặt là điều cần thiết cho trí tuệ nhân tạo có khả năng tự hành động. Vậy thiết kế nhận diện "tốt" cho các tác nhân AI trông như thế nào trong thực tế, và các công ty thường mắc sai lầm ở điểm nào?
Thiết kế định danh tốt bắt đầu từ nguyên tắc đặc quyền tối thiểu và quyền hạn gắn liền với mục đích rõ ràng. Mỗi tác nhân AI nên có định danh riêng, quyền hạn được giới hạn chặt chẽ và các mối quan hệ tin cậy được xác định rõ ràng (các quy tắc rõ ràng về hệ thống mà nó được phép tương tác). Về cơ bản, quyền truy cập nên được giới hạn theo mục đích, có thời hạn và dễ dàng thu hồi.
Sai lầm của các công ty là tái sử dụng các tài khoản dịch vụ hiện có hoặc cho rằng các tác nhân nội bộ mặc định là an toàn. Giả định đó không thể đứng vững trước các mối đe dọa thực tế. Các tác nhân độc hại chủ động tìm kiếm chính những điểm yếu này, và các tác nhân AI làm tăng đáng kể phạm vi ảnh hưởng tiềm tàng khi thiết kế nhận dạng cẩu thả.”
Curity từ lâu đã làm việc với các tiêu chuẩn như OAuth và OpenID Connect. Các tiêu chuẩn nhận dạng mở quan trọng như thế nào đối với việc tạo ra trí tuệ nhân tạo tác nhân (agent-AI) có khả năng tương tác và bảo mật trong môi trường doanh nghiệp phức tạp?
Các tiêu chuẩn mở là vô cùng quan trọng. Các doanh nghiệp hiện đã vận hành các hệ thống nhận dạng phức tạp trải rộng trên các nền tảng đám mây, dịch vụ SaaS và API nội bộ. Trí tuệ nhân tạo tác nhân (agent AI) chỉ làm tăng thêm sự phức tạp.
Nếu không có tiêu chuẩn, mỗi tác nhân sẽ trở thành một hệ thống tích hợp riêng biệt và là một ngoại lệ bảo mật vĩnh viễn. Với các tiêu chuẩn như OAuth và OpenID Connect, các tác nhân có thể được xác thực, ủy quyền và kiểm tra giống như bất kỳ khối lượng công việc nào khác. Đây là cách tiếp cận duy nhất có thể tạo điều kiện thuận lợi cho việc mở rộng quy mô an toàn trong môi trường doanh nghiệp thực tế.”
Các danh tính phi con người đang trở nên phổ biến hơn, từ tài khoản dịch vụ đến danh tính máy móc. Vậy, từ góc độ bảo mật, điều gì khiến các tác nhân AI khác biệt về cơ bản so với các danh tính phi con người trước đây?
Điểm khác biệt chính giữa các tác nhân AI hiện đại và các thực thể phi con người (NHI) cũ hơn nằm ở tính tự chủ. Một tài khoản dịch vụ truyền thống chỉ làm chính xác những gì mã lệnh của nó yêu cầu, bị ràng buộc nghiêm ngặt bởi nhiệm vụ được giao. Một tác nhân AI diễn giải các chỉ dẫn, điều chỉnh hành vi của nó và thực hiện các hành động chưa từng được lập trình rõ ràng – tất cả đều làm tăng nguy cơ tiềm ẩn nếu không có các biện pháp bảo vệ thích hợp.
Một lỗi nhỏ về định danh hoặc quyền truy cập có thể nhanh chóng biến thành thảm họa, bởi vì tác nhân có thể hành động nhanh chóng và trên nhiều hệ thống. Từ góc độ bảo mật, điều này tiềm ẩn rủi ro lớn.
Nhật ký kiểm toán và ghi nhật ký dựa trên danh tính có tầm quan trọng như thế nào đối với việc quản lý trí tuệ nhân tạo tự động, đặc biệt là trong các ngành công nghiệp được quản lý chặt chẽ?
Nhật ký kiểm toán không nên chỉ là "tính năng nên có". Chúng cần được tích hợp ngay từ đầu. Trong môi trường được quản lý chặt chẽ, các tổ chức được kỳ vọng phải trả lời những câu hỏi đơn giản nhưng quan trọng: tác nhân này đã truy cập những gì, khi nào điều đó xảy ra và ai đã cho phép?
Việc ghi nhật ký dựa trên định danh là cách duy nhất đáng tin cậy để đạt được mức độ trách nhiệm giải trình đó. Nó cũng đóng vai trò quan trọng trong việc ứng phó sự cố. Nếu không có ngữ cảnh định danh rõ ràng, hầu như không thể biết liệu vấn đề xuất phát từ một tác nhân hoạt động sai, danh tính bị xâm phạm hay chỉ đơn giản là một lời nhắc lỗi.
Bạn thấy những rủi ro thực tế nào có thể phát sinh khi các tổ chức triển khai các tác nhân AI có quyền hạn quá cao hoặc được giám sát kém trong môi trường sản xuất?
Một rủi ro phổ biến là việc thu thập dữ liệu ngầm. Một tác nhân có quyền hạn quá cao có thể lấy thông tin nhạy cảm từ nhiều hệ thống (hồ sơ khách hàng, tài liệu nội bộ, nhật ký) và sau đó tiết lộ dữ liệu đó thông qua các lời nhắc, tóm tắt hoặc tích hợp bên ngoài.
Một rủi ro khác là các tác nhân có quyền quản trị thực hiện những thay đổi lớn với tốc độ máy tính, gây ra thiệt hại lớn hơn nhiều so với bất kỳ con người nào có thể làm trong một khoảng thời gian ngắn. Điều này có thể bao gồm việc sửa đổi tài nguyên đám mây, vô hiệu hóa các biện pháp kiểm soát bảo mật hoặc kích hoạt các quy trình làm việc tự động mà không có sự giám sát.
Những sự cố này có thể xuất phát từ ý đồ xấu, nhưng không nhất thiết phải vậy. Một tác nhân có quyền hạn quá cao hoặc bị giám sát lỏng lẻo có thể chỉ đơn giản là đang hoạt động dựa trên những giả định lỗi thời hoặc không chính xác, làm trầm trọng thêm các sai sót trên nhiều hệ thống trước khi bất kỳ ai nhận ra.
Tuy nhiên, từ góc nhìn của kẻ tấn công, danh tính của một tác nhân bị xâm phạm lại vô cùng giá trị. Nó cho phép di chuyển ngang giữa các API và dịch vụ, thường với mức độ truy cập mà không một người dùng nào có thể được cấp. Nếu không có các biện pháp kiểm soát và giám sát danh tính mạnh mẽ, các tổ chức thường chỉ phát hiện ra những lỗ hổng này sau khi thiệt hại thực sự đã xảy ra.”
Đối với các công ty đang chuyển từ giai đoạn thử nghiệm sang triển khai thực tế các tác nhân ảo, cần đưa ra những quyết định nào về định danh và quyền truy cập ngay từ đầu để tránh những chi phí thiết kế lại tốn kém sau này?
Các tổ chức nên quyết định sớm về cách cấp phát danh tính cho các nhân viên, cách phê duyệt quyền và cách xem xét lại quyền truy cập theo thời gian, xác định rõ ranh giới danh tính ngay từ đầu.
Việc áp dụng kiểm soát danh tính một cách hồi tố hầu như luôn gây ra vấn đề. Các tác nhân thường được tích hợp sâu vào quy trình làm việc bằng cách sử dụng thông tin đăng nhập chung hoặc vai trò rộng, vì vậy việc thắt chặt quyền truy cập sau đó sẽ phá vỡ các giả định mà hệ thống dựa vào. Điều này cuối cùng khiến quy trình làm việc thất bại và làm suy yếu niềm tin vào công nghệ. Sẽ tiết kiệm chi phí hơn nhiều, chưa kể đến việc an toàn hơn nhiều, nếu thiết kế danh tính, phạm vi và ranh giới truy cập phù hợp ngay từ đầu.
Việc tích hợp định danh thường trở thành nút thắt cổ chai ở đâu khi triển khai AI tác nhân, và những phương pháp tốt nhất nào giúp giảm thiểu ma sát?
Quản lý danh tính có thể trở thành nút thắt cổ chai, nhưng chỉ khi nó bị xem nhẹ. Các nhóm tập trung vào việc xây dựng khả năng tác nhân ấn tượng trước tiên, chỉ để rồi nhận ra rằng chúng cần được tích hợp với các hệ thống IAM, cổng API và nền tảng ghi nhật ký để thực sự an toàn.
Cách tiếp cận tốt nhất là bắt đầu bằng việc hiểu rõ và triển khai đúng đắn các nền tảng định danh, sau đó thiết kế các tác nhân phù hợp với chúng. Các tổ chức nên tái sử dụng các tiêu chuẩn và cơ sở hạ tầng hiện có thay vì bỏ qua chúng; việc cắt giảm chi phí ở bước này chắc chắn sẽ gây ra vấn đề về sau. Khi định danh được tích hợp ngay từ đầu, nó sẽ đẩy nhanh quá trình triển khai thay vì làm chậm lại.
Đối với các nhà lãnh đạo về an ninh và kỹ thuật muốn ứng dụng trí tuệ nhân tạo có khả năng tương tác với tác nhân nhưng lại lo ngại về quản trị và rủi ro, bạn sẽ đưa ra lời khuyên gì khi họ lập kế hoạch lộ trình của mình?
Hãy chậm lại một chút để xây dựng nền tảng vững chắc. Các tác nhân AI phải được coi là những thực thể riêng biệt, vì vậy bạn cần áp dụng cùng một quy trình quản trị như đối với con người, và phải đảm bảo tính minh bạch ngay từ đầu. Nếu một tổ chức làm được điều đó, thì việc mở rộng quy mô AI tác nhân sẽ trở thành một bài toán về bảo mật, chứ không phải là một bước nhảy vọt mù quáng và đầy rủi ro.
Cảm ơn bạn về cuộc phỏng vấn tuyệt vời, độc giả muốn tìm hiểu thêm hãy truy cập Curity.












