sơ khai Sử dụng Generative AI: Giải mã ý nghĩa an ninh mạng của các công cụ Generative AI - Unite.AI
Kết nối với chúng tôi

Lãnh đạo tư tưởng

Sử dụng AI sáng tạo: Giải mã ý nghĩa an ninh mạng của các công cụ AI sáng tạo

mm

Được phát hành

 on

Công bằng mà nói thì AI có tính sáng tạo hiện đã thu hút sự chú ý của mọi phòng họp và lãnh đạo doanh nghiệp trong nước. Từng là một công nghệ khó sử dụng và khó làm chủ hơn, cánh cửa dẫn đến AI thế hệ giờ đây đã rộng mở nhờ các ứng dụng như ChatGPT hoặc DALL-E. Chúng ta hiện đang chứng kiến ​​sự áp dụng rộng rãi AI sáng tạo ở tất cả các ngành và nhóm tuổi khi nhân viên tìm ra cách tận dụng công nghệ để tạo lợi thế cho họ.

Mới đây Khảo sát chỉ ra rằng 29% Thế hệ Z, 28% Thế hệ X và 27% thế hệ Millennial được hỏi hiện sử dụng các công cụ AI tổng quát như một phần công việc hàng ngày của họ. Vào năm 2022, tỷ lệ áp dụng AI thế hệ quy mô lớn là 23% và con số đó dự kiến ​​sẽ tăng gấp đôi lên 46% vào năm 2025.

Generative AI là công nghệ non trẻ nhưng đang phát triển nhanh chóng, tận dụng các mô hình đã được đào tạo để tạo ra nội dung gốc dưới nhiều dạng khác nhau, từ văn bản và hình ảnh, cho đến video, âm nhạc và thậm chí cả mã phần mềm. Bằng cách sử dụng các mô hình ngôn ngữ lớn (LLM) và bộ dữ liệu khổng lồ, công nghệ này có thể ngay lập tức tạo ra nội dung độc đáo gần như không thể phân biệt được với công việc của con người và trong nhiều trường hợp còn chính xác và hấp dẫn hơn.

Tuy nhiên, trong khi các doanh nghiệp đang ngày càng sử dụng AI sáng tạo để hỗ trợ hoạt động hàng ngày của họ và nhân viên đã nhanh chóng tiếp thu, thì tốc độ áp dụng và thiếu quy định đã làm dấy lên những lo ngại đáng kể về an ninh mạng và tuân thủ quy định.

Theo một Khảo sát Trong dân số nói chung, hơn 80% người dân lo ngại về các rủi ro bảo mật do ChatGPT và AI tạo ra và 52% trong số những người được thăm dò muốn tạm dừng quá trình phát triển AI tạo ra để các quy định có thể bắt kịp. Tâm lý rộng rãi hơn này cũng đã được lặp lại bởi chính các doanh nghiệp, với 65% lãnh đạo CNTT cấp cao không muốn chấp nhận quyền truy cập dễ dàng vào các công cụ AI tổng hợp do lo ngại về bảo mật.

AI sáng tạo vẫn còn là ẩn số

Các công cụ AI sáng tạo cung cấp dữ liệu. Các mô hình, chẳng hạn như các mô hình được ChatGPT và DALL-E sử dụng, được đào tạo về dữ liệu bên ngoài hoặc có sẵn miễn phí trên internet, nhưng để tận dụng tối đa các công cụ này, người dùng cần chia sẻ dữ liệu rất cụ thể. Thông thường, khi nhắc nhở các công cụ như ChatGPT, người dùng sẽ chia sẻ thông tin kinh doanh nhạy cảm để có được kết quả chính xác và toàn diện. Điều này tạo ra nhiều điều chưa biết cho doanh nghiệp. Nguy cơ truy cập trái phép hoặc tiết lộ thông tin nhạy cảm ngoài ý muốn là “có sẵn” khi sử dụng các công cụ AI tổng hợp có sẵn miễn phí.

Bản thân rủi ro này không hẳn là một điều xấu. Vấn đề là những rủi ro này vẫn chưa được khám phá đúng cách. Cho đến nay, chưa có phân tích tác động kinh doanh thực sự nào về việc sử dụng các công cụ AI tổng quát có sẵn rộng rãi và các khung pháp lý và quy định toàn cầu xung quanh việc sử dụng AI tổng quát vẫn chưa đạt đến bất kỳ hình thức trưởng thành nào.

Quy định vẫn đang trong quá trình hoàn thiện

Các cơ quan quản lý đã đánh giá các công cụ AI tổng quát về quyền riêng tư, bảo mật dữ liệu và tính toàn vẹn của dữ liệu mà chúng tạo ra. Tuy nhiên, như thường lệ với công nghệ mới nổi, bộ máy quản lý để hỗ trợ và quản lý việc sử dụng nó đang bị tụt lại phía sau vài bước. Mặc dù công nghệ này đang được các công ty và nhân viên sử dụng rộng rãi nhưng các khung pháp lý vẫn còn rất nhiều điều chưa rõ ràng.

Điều này tạo ra rủi ro rõ ràng và hiện tại cho các doanh nghiệp mà hiện tại, doanh nghiệp chưa được coi trọng một cách nghiêm túc. Các nhà điều hành đương nhiên quan tâm đến cách các nền tảng này sẽ mang lại lợi ích kinh doanh vật chất như cơ hội tự động hóa và tăng trưởng, nhưng các nhà quản lý rủi ro đang hỏi công nghệ này sẽ được quản lý như thế nào, ý nghĩa pháp lý cuối cùng có thể là gì và dữ liệu của công ty có thể bị xâm phạm hoặc bị lộ như thế nào . Nhiều công cụ trong số này được cung cấp miễn phí cho bất kỳ người dùng nào có trình duyệt và kết nối Internet, vì vậy trong khi chờ quy định bắt kịp, các doanh nghiệp cần bắt đầu suy nghĩ thật kỹ về “các quy tắc nội bộ” của riêng họ xung quanh việc sử dụng AI tổng hợp.

Vai trò của CISO trong việc quản lý AI thế hệ

Với các khung pháp lý vẫn còn thiếu, Giám đốc An toàn Thông tin (CISO) phải tăng cường và đóng vai trò quan trọng trong việc quản lý việc sử dụng AI tổng hợp trong tổ chức của họ. Họ cần hiểu ai đang sử dụng công nghệ và vì mục đích gì, cách bảo vệ thông tin doanh nghiệp khi nhân viên tương tác với các công cụ AI tổng hợp, cách quản lý rủi ro bảo mật của công nghệ cơ bản và cách cân bằng giữa sự cân bằng giữa bảo mật với giá trị công nghệ cung cấp.

Đây là nhiệm vụ không dễ dàng. Cần tiến hành đánh giá rủi ro chi tiết để xác định cả kết quả tiêu cực và tích cực do việc đầu tiên là triển khai công nghệ với tư cách chính thức và thứ hai là cho phép nhân viên sử dụng các công cụ có sẵn miễn phí mà không cần giám sát. Do tính chất dễ truy cập của các ứng dụng AI tổng quát, CISO sẽ cần suy nghĩ cẩn thận về chính sách của công ty xung quanh việc sử dụng chúng. Nhân viên có nên được tự do tận dụng các công cụ như ChatGPT hoặc DALL-E để giúp công việc của họ dễ dàng hơn không? Hoặc quyền truy cập vào các công cụ này có nên bị hạn chế hoặc kiểm duyệt theo một cách nào đó, với các hướng dẫn và khuôn khổ nội bộ về cách sử dụng chúng? Một vấn đề rõ ràng là ngay cả khi các hướng dẫn sử dụng nội bộ được tạo ra, với tốc độ phát triển của công nghệ, chúng vẫn có thể lỗi thời vào thời điểm hoàn thiện.

Một cách để giải quyết vấn đề này thực sự có thể là chuyển trọng tâm ra khỏi các công cụ AI tổng hợp mà thay vào đó tập trung vào phân loại và bảo vệ dữ liệu. Phân loại dữ liệu luôn là khía cạnh quan trọng trong việc bảo vệ dữ liệu khỏi bị vi phạm hoặc rò rỉ và điều đó cũng đúng trong trường hợp sử dụng cụ thể này. Nó liên quan đến việc chỉ định mức độ nhạy cảm cho dữ liệu, xác định cách xử lý dữ liệu. Nó có nên được mã hóa không? Có nên chặn nó lại để chứa không? Có nên thông báo không? Ai nên có quyền truy cập vào nó và được phép chia sẻ ở đâu? Bằng cách tập trung vào luồng dữ liệu, thay vì bản thân công cụ, CISO và nhân viên bảo mật sẽ có cơ hội giảm thiểu một số rủi ro được đề cập cao hơn nhiều.

Giống như tất cả các công nghệ mới nổi, AI mang lại lợi ích cũng như rủi ro cho doanh nghiệp. Mặc dù nó cung cấp các khả năng mới thú vị như tự động hóa và khái niệm hóa sáng tạo, nhưng nó cũng đưa ra một số thách thức phức tạp xung quanh bảo mật dữ liệu và bảo vệ sở hữu trí tuệ. Trong khi các khuôn khổ pháp lý và quy định vẫn đang được hoàn thiện, các doanh nghiệp phải tự mình vượt qua ranh giới giữa cơ hội và rủi ro, thực hiện các biện pháp kiểm soát chính sách của riêng mình để phản ánh tình hình an ninh tổng thể của họ. AI sáng tạo sẽ thúc đẩy hoạt động kinh doanh phát triển, nhưng chúng ta nên cẩn thận giữ một tay trên tay lái.

Với hơn 25 năm kinh nghiệm làm chuyên gia an ninh mạng, Chris Hetner được công nhận vì đã nâng cao rủi ro mạng lên cấp C-Suite và Hội đồng quản trị để bảo vệ các ngành, cơ sở hạ tầng và nền kinh tế trên toàn thế giới.

Ông từng là Cố vấn an ninh mạng cấp cao cho Chủ tịch Ủy ban Chứng khoán và Giao dịch Hoa Kỳ và là Trưởng phòng An ninh mạng cho Văn phòng Kiểm tra và Kiểm tra Tuân thủ tại SEC.

Hiện tại, Chris là Chủ tịch Hội đồng tư vấn bảo mật khách hàng của Panzura, nơi cung cấp giáo dục và nhận thức về khả năng phục hồi dữ liệu với sứ mệnh thúc đẩy sự liên kết kinh doanh, hoạt động và tài chính với quản trị rủi ro an ninh mạng. Panzura là công ty quản lý dữ liệu đa đám mây lai hàng đầu.

Ngoài ra, ông còn là Cố vấn đặc biệt về Rủi ro mạng cho Hiệp hội giám đốc doanh nghiệp quốc gia, Chủ tịch An ninh mạng và quyền riêng tư của Hội đồng chuyên sâu Nasdaq và là Thành viên Hội đồng quản trị tại TCIG.