Connect with us

Nguy cơ từ việc nói không với Trí tuệ nhân tạo

Lãnh đạo tư tưởng

Nguy cơ từ việc nói không với Trí tuệ nhân tạo

mm

Tôi đã tham gia một cuộc gọi của một khách hàng tiềm năng vào tuần trước. Tất cả các chuyên gia an ninh và mạng đều có mặt, cùng với ban quản lý. Các người trình bày khác nhau về các chủ đề của thời điểm đó. Sau đó, ai đó bắt đầu giải thích cách các đội kỹ thuật của họ sử dụng Trí tuệ nhân tạo trong công việc hàng ngày của họ.

Người trình bày rất hào hứng. Anh ấy đã tìm ra cách nén ba ngày công việc thủ công sao chép và dán xuống chỉ trong vài phút bằng cách sử dụng các công cụ Trí tuệ nhân tạo. Siêu cool, đúng không? Tôi hiểu anh ấy đang làm gì – và tại sao anh ấy lại làm như vậy. Đây là lời hứa của Trí tuệ nhân tạo!

Nhưng với tư cách là người phụ trách an ninh trong phòng, tôi nghĩ: “Oh không.” “Công cụ đó là gì? Ai sở hữu công cụ đó?” Bởi vì anh ấy đang đưa thông tin của khách hàng vào các nền tảng này – dữ liệu giá. Có thể thông tin tài chính? Bất cứ điều gì có thể xảy ra. Tất cả để tăng tốc luồng công việc của mình.

Vì vậy, tôi đã hỏi câu hỏi rõ ràng: “Bạn có chính sách Trí tuệ nhân tạo không?” Chúng tôi đã tìm kiếm. Tìm thấy một đoạn văn bị chôn vùi trong phần sử dụng chấp nhận được. Một điều gì đó mơ hồ về các công cụ Trí tuệ nhân tạo. Liệu có ai thực sự đọc điều đó không? Có thể không. Bạn ký nó trong quá trình giới thiệu và bạn đã xong.

Người của bạn đã sử dụng Trí tuệ nhân tạo

Đây là những gì tôi đã học được khi nói chuyện với các công ty trên mọi ngành công nghiệp: Trí tuệ nhân tạo đã ở khắp mọi nơi, cho dù bạn công nhận nó hay không. Nghiên cứu gần đây xác nhận thực tế này – 75% người lao động hiện sử dụng Trí tuệ nhân tạo tại nơi làm việc, gần như tăng gấp đôi chỉ trong sáu tháng.

Tuần trước ở Houston, tôi đã gặp một người đàn ông có công ty khoan dầu. Họ có một nền tảng Trí tuệ nhân tạo phân tích thành phần đất và mẫu thời tiết để tối ưu hóa vị trí khoan. Anh ấy giải thích cách họ tính đến dữ liệu lượng mưa – “Chúng tôi biết nó mưa 18 ngày hơn so với khu vực này, vì vậy khả năng dầu có thể cao hơn, điều này cho phép các máy khoan đi sâu hơn.”

Trong khi đó, tôi đang sử dụng Trí tuệ nhân tạo để tạo một lịch trình cho Đức. Tôi đã nói chuyện với các công ty trong lĩnh vực chăm sóc sức khỏe đang sử dụng nó cho các nền tảng chăm sóc sức khỏe từ xa. Các đội tài chính chạy mô hình rủi ro. Tôi thậm chí đã gặp một người đang điều hành một doanh nghiệp chanh và họ đang tận dụng Trí tuệ nhân tạo theo một cách nào đó.

Điểm mấu chốt là: Trí tuệ nhân tạo ở trong mọi ngành công nghiệp, mọi luồng công việc. Nó không đến – nó đã ở đây. Và hầu hết các tổ chức này đều ở trên cùng một con thuyền mà chúng tôi đã từng. Họ biết người của họ đang sử dụng nó. Họ chỉ không biết cách quản lý nó.

Công nghệ bóng tối trở nên nguy hiểm nhanh chóng

Bạn có biết điều gì xảy ra khi bạn nói với mọi người rằng họ không thể sử dụng Trí tuệ nhân tạo không? Đó chính xác giống như việc bạn nói với một thiếu niên không bao giờ uống rượu. Chúc mừng, bây giờ họ sẽ là những người uống rượu theo những cách không an toàn nhất, vì bạn đã tạo ra một lệnh cấm.

Số liệu chứng minh thực tế này: 72% việc sử dụng Trí tuệ nhân tạo tạo ra trong các doanh nghiệp là công nghệ bóng tối, với nhân viên sử dụng tài khoản cá nhân để truy cập vào các ứng dụng Trí tuệ nhân tạo.

Mọi người đi mua laptop thứ hai. Họ sử dụng điện thoại cá nhân của mình không được bảo vệ bởi bảo mật công ty. Sau đó họ sử dụng Trí tuệ nhân tạo dù sao. Đột nhiên bạn mất tầm nhìn và tạo ra chính những khoảng trống mà bạn đang cố gắng ngăn chặn.

Tôi đã thấy mẫu này trước đây. Các đội an ninh nói “không” với mọi thứ cuối cùng sẽ đưa mọi người vào hoạt động ngầm – và mất tất cả sự giám sát về những gì thực sự đang xảy ra.

An ninh trở thành kẻ thù

Có một nhận thức rằng các đội an ninh là “những người đàn ông xấu tính trong tầng hầm.” Mọi người nghĩ: “Oh, an ninh có lẽ sẽ nói không dù sao, vì vậy không cần quan tâm đến những người đó. Tôi sẽ làm nó dù sao.”

Chúng tôi đã tạo ra sự hiểu lầm này. Và với Trí tuệ nhân tạo, mọi người có thiên hướng cho rằng chúng tôi sẽ đóng cửa họ, vì vậy họ không cần phải hỏi. Điều đó giết chết sự giao tiếp mà bạn thực sự muốn.

Tôi đã có một nhà phát triển đến với tôi sau một buổi trình bày hội nghị. Anh ấy sử dụng API mỗi ngày và đã cố gắng thu hút sự chú ý của đội an ninh về việc kiểm tra và xác thực. Nhưng anh ấy đã quyết định không hỏi vì anh ấy nghĩ rằng họ sẽ chỉ nói không.

Thâm hụt niềm tin chi phí mọi thứ

Đây là cuộc trò chuyện mà bạn muốn: ai đó từ bộ phận tiếp thị đến và nói: “Này, tôi muốn sử dụng công cụ Trí tuệ nhân tạo này. Chính sách của chúng tôi về nó là gì? Làm thế nào để tôi sử dụng nó một cách an toàn?” Đó là cách đúng để hợp tác với an ninh.

Chúng tôi sẽ xem xét nó. Chúng tôi hiểu Trí tuệ nhân tạo sẽ là một phần của kinh doanh. Chúng tôi sẽ không nói không với nó – chúng tôi muốn mọi người sử dụng nó một cách an toàn. Nhưng chúng tôi cần cuộc trò chuyện này trước.

Khi mọi người cho rằng an ninh sẽ chặn mọi thứ, họ ngừng hỏi. Họ đăng ký bằng email cá nhân, bắt đầu cho dữ liệu công ty vào các nền tảng chưa được kiểm tra, và bạn mất tất cả tầm nhìn và kiểm soát. Kết quả là có thể dự đoán: 38% nhân viên chia sẻ thông tin công việc nhạy cảm với các công cụ Trí tuệ nhân tạo mà không có sự cho phép của người sử dụng.

Các tổ chức sẽ sử dụng Trí tuệ nhân tạo bất kể điều gì. Câu hỏi là: làm thế nào chúng tôi đảm bảo nhân viên của mình có thể tận dụng nó một cách an toàn mà không đặt dữ liệu công ty, quyền riêng tư hoặc an ninh vào tình huống nguy hiểm?

Bắt đầu với những “có” thông minh, không phải “không” hoàn toàn

Đây là những gì thực sự hoạt động: giao tiếp chủ động. Gửi thư tin hoặc chạy các buổi hội thảo trên web 30 phút nói: “Chúng tôi cho phép Trí tuệ nhân tạo trong tổ chức. Đây là cách để làm nó một cách an toàn.” Ghi lại các phiên cho những người bỏ lỡ chúng.

Hiển thị các ví dụ về nhân viên đã hợp tác thành công với an ninh. Làm cho những hợp tác này trở nên rõ ràng thay vì trở thành một thực thể bóng tối mà mọi người cho rằng sẽ đóng cửa họ.

Bạn cần xây dựng niềm tin theo thời gian giữa an ninh và nhân viên. Vào cuối ngày, chúng tôi đều sử dụng Trí tuệ nhân tạo theo những cách lớn và nhỏ. Tôi đã sử dụng nó để lên kế hoạch cho chuyến đi Đức – nói với nó để tạo một lịch trình ba ngày và tôi đã có một chuyến đi tuyệt vời từ nó.

Từ góc độ tổ chức, chúng tôi cần công nhận nơi Trí tuệ nhân tạo nằm trong kinh doanh. Nó có tăng doanh thu không? Có thể. Trường hợp kinh doanh là rõ ràng: Trí tuệ nhân tạo đã chuyển từ ‘thử nghiệm’ sang ‘quan trọng’, với chi tiêu doanh nghiệp tăng 130%. Vậy, chúng tôi làm gì? Làm thế nào chúng tôi cung cấp bảo vệ trong khi cho phép năng suất?

Mục tiêu không phải là kiểm soát hoàn hảo, điều đó là không thể. Mục tiêu là việc áp dụng Trí tuệ nhân tạo thông minh với các rào cản thực sự hoạt động trong thực tế. Rủi ro mới cho an ninh là trở nên bị cô lập khỏi việc sử dụng Trí tuệ nhân tạo – việc sử dụng đang xảy ra với hoặc không có bạn.

Đối với các tổ chức nghiêm túc về việc làm cho điều này đúng, các chuyên gia khuyên nên phát triển các chính sách quản trị Trí tuệ nhân tạo rõ ràng cân bằng giữa nhu cầu kinh doanh và yêu cầu an ninh trước khi việc sử dụng Trí tuệ nhân tạo bóng tối hoàn toàn mất kiểm soát.

Jeremy Ventura là Field CISO tại nhà tích hợp hệ thống toàn cầu Myriad360, nơi anh giúp các tổ chức điều hướng các thách thức bảo mật phức tạp trên toàn bộ đám mây, bảo mật API và công nghệ mới nổi.