Lãnh đạo tư tưởng
Sử dụng Trí tuệ nhân tạo Tạo sinh: Phân tích các Hệ luỵ về An ninh mạng của Công cụ Trí tuệ nhân tạo Tạo sinh

Nó là điều công bằng khi nói rằng trí tuệ nhân tạo tạo sinh đã thu hút sự chú ý của mọi phòng họp và nhà lãnh đạo kinh doanh trên đất nước. Một công nghệ ngoài lề mà trước đây khó sử dụng, thậm chí còn khó掌握, nhưng giờ đây các ứng dụng như ChatGPT hoặc DALL-E đã mở rộng cửa cho trí tuệ nhân tạo tạo sinh. Chúng ta đang chứng kiến sự chấp nhận toàn diện trí tuệ nhân tạo tạo sinh trên tất cả các ngành và độ tuổi khi nhân viên tìm ra cách tận dụng công nghệ này để có lợi.
Một khảo sát gần đây cho thấy 29% người thuộc thế hệ Z, 28% người thuộc thế hệ X và 27% người thuộc thế hệ Millennials đang sử dụng các công cụ trí tuệ nhân tạo tạo sinh như một phần của công việc hàng ngày. Vào năm 2022, việc áp dụng trí tuệ nhân tạo tạo sinh trên quy mô lớn là 23%, và con số này dự kiến sẽ tăng gấp đôi lên 46% vào năm 2025.
Trí tuệ nhân tạo tạo sinh là công nghệ mới nhưng đang phát triển nhanh chóng, nó sử dụng các mô hình đã được đào tạo để tạo ra nội dung gốc dưới nhiều hình thức, từ văn bản và hình ảnh đến video, âm nhạc, thậm chí cả mã code. Sử dụng các mô hình ngôn ngữ lớn (LLM) và tập dữ liệu khổng lồ, công nghệ này có thể tạo ra nội dung độc đáo gần như không thể phân biệt với công việc của con người, và trong nhiều trường hợp, nó còn chính xác và hấp dẫn hơn.
Tuy nhiên, trong khi các doanh nghiệp đang ngày càng sử dụng trí tuệ nhân tạo tạo sinh để hỗ trợ hoạt động hàng ngày, và nhân viên đã nhanh chóng tiếp nhận, tốc độ áp dụng và thiếu quy định đã gây ra những lo ngại đáng kể về an ninh mạng và tuân thủ quy định.
Theo một khảo sát của dân số chung, hơn 80% người dân lo lắng về rủi ro an ninh do ChatGPT và trí tuệ nhân tạo tạo sinh gây ra, và 52% những người được hỏi muốn phát triển trí tuệ nhân tạo tạo sinh bị tạm dừng để các quy định có thể theo kịp. Quan điểm rộng lớn này cũng được các doanh nghiệpเอง lặp lại, với 65% các nhà lãnh đạo CNTT cấp cao không sẵn sàng chấp nhận việc truy cập không hạn chế vào các công cụ trí tuệ nhân tạo tạo sinh do lo ngại về an ninh.
Trí tuệ nhân tạo tạo sinh vẫn là một điều không biết
Các công cụ trí tuệ nhân tạo tạo sinh dựa trên dữ liệu. Các mô hình như những mô hình được sử dụng bởi ChatGPT và DALL-E được đào tạo trên dữ liệu bên ngoài hoặc có sẵn miễn phí trên internet, nhưng để tận dụng tối đa những công cụ này, người dùng cần chia sẻ dữ liệu rất cụ thể. Thường khi yêu cầu các công cụ như ChatGPT, người dùng sẽ chia sẻ thông tin kinh doanh nhạy cảm để có được kết quả chính xác và toàn diện. Điều này tạo ra nhiều điều không biết cho các doanh nghiệp. Rủi ro của việc truy cập không được ủy quyền hoặc tiết lộ thông tin nhạy cảm không chủ ý là “được nướng” khi sử dụng các công cụ trí tuệ nhân tạo tạo sinh có sẵn miễn phí.
Rủi ro này không nhất thiết là một điều xấu. Vấn đề là những rủi ro này vẫn chưa được khám phá đúng mức. Cho đến nay, không có phân tích tác động kinh doanh thực sự về việc sử dụng các công cụ trí tuệ nhân tạo tạo sinh có sẵn rộng rãi, và các khuôn khổ pháp lý và quy định toàn cầu về việc sử dụng trí tuệ nhân tạo tạo sinh vẫn chưa đạt đến bất kỳ hình thức trưởng thành nào.
Quy định vẫn đang được hoàn thiện
Các nhà quản lý đang đánh giá các công cụ trí tuệ nhân tạo tạo sinh về mặt quyền riêng tư, bảo mật dữ liệu và tính toàn vẹn của dữ liệu chúng sản xuất. Tuy nhiên, như thường thấy với công nghệ mới nổi, cơ chế quy định để hỗ trợ và quản lý việc sử dụng chúng đang tụt lại phía sau. Trong khi công nghệ đang được sử dụng bởi các công ty và nhân viên rộng rãi, các khuôn khổ quy định vẫn còn trên bảng vẽ.
Điều này tạo ra một rủi ro rõ ràng và hiện tại cho các doanh nghiệp, mà hiện tại không được coi trọng như nó nên được. Các nhà điều hành tự nhiên quan tâm đến cách các nền tảng này sẽ mang lại lợi ích kinh doanh đáng kể như cơ hội tự động hóa và tăng trưởng, nhưng các nhà quản lý rủi ro đang hỏi làm thế nào công nghệ này sẽ được quản lý, những ảnh hưởng pháp lý có thể xảy ra và làm thế nào dữ liệu công ty có thể bị tổn hại hoặc lộ. Nhiều công cụ này có sẵn miễn phí cho bất kỳ người dùng nào có trình duyệt và kết nối internet, vì vậy trong khi họ chờ quy định theo kịp, các doanh nghiệp cần bắt đầu suy nghĩ rất cẩn thận về “quy tắc nhà” của họ xung quanh việc sử dụng trí tuệ nhân tạo tạo sinh.
Vai trò của CISO trong quản lý trí tuệ nhân tạo tạo sinh
Với các khuôn khổ quy định vẫn còn thiếu, các Giám đốc An ninh Thông tin (CISO) phải đứng lên và đóng vai trò quan trọng trong việc quản lý việc sử dụng trí tuệ nhân tạo tạo sinh trong tổ chức của họ. Họ cần hiểu ai đang sử dụng công nghệ và với mục đích gì, làm thế nào để bảo vệ thông tin doanh nghiệp khi nhân viên tương tác với các công cụ trí tuệ nhân tạo tạo sinh, làm thế nào để quản lý rủi ro an ninh của công nghệ cơ bản, và làm thế nào để cân bằng giữa các giao dịch an ninh với giá trị công nghệ mang lại.
Điều này không phải là một nhiệm vụ dễ dàng. Các đánh giá rủi ro chi tiết nên được thực hiện để xác định cả kết quả tiêu cực và tích cực do việc triển khai công nghệ trong một chức năng chính thức, và thứ hai, cho phép nhân viên sử dụng các công cụ có sẵn miễn phí mà không có sự giám sát. Do tính chất dễ tiếp cận của các ứng dụng trí tuệ nhân tạo tạo sinh, các CISO sẽ cần suy nghĩ cẩn thận về chính sách công ty xung quanh việc sử dụng chúng. Liệu nhân viên có nên được phép tận dụng các công cụ như ChatGPT hoặc DALL-E để làm cho công việc của họ dễ dàng hơn? Hay liệu việc truy cập vào các công cụ này nên bị hạn chế hoặc điều chỉnh theo một cách nào đó, với các hướng dẫn và khuôn khổ nội bộ về cách chúng nên được sử dụng? Một vấn đề rõ ràng là ngay cả khi các hướng dẫn sử dụng nội bộ được tạo ra, given tốc độ công nghệ đang phát triển, chúng có thể đã lỗi thời vào thời điểm chúng được hoàn thiện.
Một cách giải quyết vấn đề này có thể là chuyển sự chú ý khỏi các công cụ trí tuệ nhân tạo tạo sinh và thay vào đó tập trung vào phân loại và bảo vệ dữ liệu. Phân loại dữ liệu luôn là một khía cạnh quan trọng của việc bảo vệ dữ liệu khỏi bị vi phạm hoặc泄露, và điều đó cũng đúng trong trường hợp sử dụng này. Nó liên quan đến việc gán một mức độ nhạy cảm cho dữ liệu, điều này quyết định cách nó nên được xử lý. Nó có nên được mã hóa? Nó có nên được chặn để được chứa? Nó có nên được thông báo? Ai nên có quyền truy cập vào nó, và nơi nào được phép chia sẻ? Bằng cách tập trung vào luồng dữ liệu, thay vì công cụ chính nó, các CISO và các quan chức an ninh sẽ có cơ hội lớn hơn để giảm thiểu một số rủi ro được đề cập.
Giống như tất cả các công nghệ mới nổi, trí tuệ nhân tạo tạo sinh là cả một điều may mắn và rủi ro cho các doanh nghiệp. Trong khi nó cung cấp các khả năng mới thú vị như tự động hóa và hình thành khái niệm sáng tạo, nó cũng giới thiệu một số thách thức phức tạp xung quanh bảo mật dữ liệu và bảo vệ tài sản trí tuệ. Trong khi các khuôn khổ pháp lý và quy định vẫn đang được hoàn thiện, các doanh nghiệp phải tự mình đi trên dây giữa cơ hội và rủi ro, thực hiện các kiểm soát chính sách của riêng họ phản ánh tư thế an ninh tổng thể. Trí tuệ nhân tạo tạo sinh sẽ thúc đẩy kinh doanh tiến về phía trước, nhưng chúng ta nên cẩn thận để giữ một tay trên bánh xe.












