Connect with us

Tại Sao Trí Tuệ Nhân Tạo Được Quản Lý Là Tiền Phong Của Nơi Làm Việc

Lãnh đạo tư tưởng

Tại Sao Trí Tuệ Nhân Tạo Được Quản Lý Là Tiền Phong Của Nơi Làm Việc

mm
A split-view comparison of an office desk showing the messy, chaotic reality of Shadow AI on one side and a clean, governed AI workspace on the other.

Chúng tôi đã dành một thập kỷ để chống lại công nghệ thông tin không được phép. Các ứng dụng SaaS không được ủy quyền. Các bảng tính độc lập. Các tài khoản Dropbox không được phê duyệt. Các nhà lãnh đạo CNTT đã xây dựng các chương trình tuân thủ toàn bộ xung quanh vấn đề này, và hầu hết họ vẫn thất bại. Báo cáo Trạng thái Trí Tuệ Nhân Tạo Bóng tối 2025 của Reco AI cho thấy chỉ 47% ứng dụng SaaS trong doanh nghiệp trung bình được ủy quyền chính thức — và tổ chức trung bình hiện đang quản lý 490 ứng dụng như vậy.

Đó là vấn đề cũ. Vấn đề mới còn tồi tệ hơn.

Vấn Đề Trí Tuệ Nhân Tạo Bóng tối Lần Này Khác

Khi một nhân viên đăng ký một công cụ quản lý dự án không được ủy quyền, thiệt hại được giới hạn. Các nhiệm vụ của nhóm sống ở nơi sai. Có thể một số dữ liệu bị rò rỉ. Loại rò rỉ dữ liệu khá có thể dự đoán được.

Trí tuệ nhân tạo khác. Nhân viên hiện đang sử dụng các công cụ trí tuệ nhân tạo để viết giao tiếp với khách hàng, tạo báo cáo tài chính, tóm tắt các cuộc họp bí mật và xây dựng các quy trình tự động, thường mà không nói với bất kỳ ai. Chỉ số Xu hướng Làm việc 2024 của Microsoft cho thấy 78% người dùng trí tuệ nhân tạo đang mang các công cụ trí tuệ nhân tạo của riêng họ đến nơi làm việc. Không phải vì họ đang cố gắng gây khó khăn hoặc có ý đồ xấu, mà vì các công cụ này thực sự hữu ích và họ cảm thấy áp lực phải hoạt động tốt hơn. Tuy nhiên, các tổ chức của họ quá chậm trong việc cung cấp quy trình, thủ tục và công cụ.

Các đầu ra ở đây là vấn đề. Khi một công cụ trí tuệ nhân tạo soạn thảo một hợp đồng khách hàng, tóm tắt một cuộc gọi pháp lý hoặc tạo một báo cáo hội đồng quản trị hàng quý, rủi ro không chỉ là “chúng tôi không biết họ đã sử dụng công cụ nào.” Đó là các thực tiễn dữ liệu, độ chính xác và quá trình ra quyết định được nhúng trong các đầu ra này hoàn toàn không thể nhìn thấy được bởi tổ chức. Không ai xem xét lời nhắc. Không ai xác thực kết quả. Không ai thậm chí biết nó đã xảy ra. Và vì trí tuệ nhân tạo dường như rất tự tin, hầu hết người dùng sẽ không kiểm tra lại nguồn và chấp nhận kết quả mù quáng.

Phân tích năm 2025 của KPMG về trí tuệ nhân tạo bóng tối cho thấy 44% nhân viên sử dụng trí tuệ nhân tạo tại nơi làm việc đã làm như vậy theo cách vi phạm các chính sách và hướng dẫn của công ty. Đó không phải là một hành vi ngoại vi. Đó gần như là một nửa lực lượng lao động.

Tại Sao Các Đại Diện Tự Động Làm Cho Điều Này Khó Hơn (và Tốt Hơn)

Đây là nơi cuộc trò chuyện trở nên thú vị. Chúng tôi không chỉ đang nói về nhân viên sao chép văn bản vào ChatGPT nữa. Chúng tôi đang bước vào kỷ nguyên của các đại diện trí tuệ nhân tạo — các hệ thống tự động có thể chạy liên tục, thực hiện các nhiệm vụ đa bước, kết nối với các công cụ doanh nghiệp và thực hiện hành động mà không cần có một người trong vòng lặp cho mỗi quyết định.

Báo cáo Xu hướng Công nghệ 2025 của Deloitte mô tả đây là sự chuyển dịch hướng tới một “lực lượng lao động dựa trên silicon” và lưu ý rằng nhiều triển khai trí tuệ nhân tạo đại diện ban đầu đang thất bại chính xác vì các tổ chức đang cố gắng tự động hóa các quy trình hiện có được thiết kế cho con người thay vì suy nghĩ lại cách làm việc nên diễn ra như thế nào.

Đây là ngã rẽ. Trí tuệ nhân tạo tự động có thể đi theo một trong hai hướng:

Con đường một: nhiều công nghệ thông tin không được phép hơn, nhưng tồi tệ hơn. Nhân viên tạo ra các đại diện sử dụng tài khoản cá nhân, chạy trên CNTT của công ty, kết nối chúng với các công cụ của công ty thông qua các khóa API cá nhân, tạo ra các đầu ra mà không ai khác trong nhóm có thể nhìn thấy, kiểm tra hoặc tái tạo. Đại diện chạy một báo cáo hàng ngày. Báo cáo là sai. Không ai bắt được nó trong vài tuần vì không ai khác thậm chí biết nó tồn tại. Điều này không phải là giả thuyết. Nó đang xảy ra ngay bây giờ trong các tổ chức coi việc áp dụng trí tuệ nhân tạo như một trò chơi năng suất cá nhân.

Con đường hai: tự chủ được quản lý. Cùng một đại diện chạy cùng báo cáo hàng ngày — nhưng trong một môi trường mà nhóm có thể nhìn thấy nó đang làm gì, dữ liệu nào nó đang chạm vào, ai đã thiết lập nó và nó đã tạo ra gì. Đại diện được chia sẻ, không bị cô lập. Đầu ra của nó là rõ ràng. Quyền của nó được giới hạn. Và khi có điều gì đó sai, có một dấu vết.

Sự khác biệt giữa hai con đường này không phải là công nghệ. Đó là môi trường.

Trí Tuệ Nhân Tạo Được Quản Lý Thực Sự Trông Như Thế Nào Trong Thực Tiễn

Quản lý là một trong những từ làm cho các nhà xây dựng rùng mình. Nó thường có nghĩa là “chậm”. More phê duyệt. More quy trình. More ma sát giữa những người làm việc và những người quản lý rủi ro.

Nhưng trí tuệ nhân tạo được quản lý không cần phải hoạt động như vậy. Các triển khai tốt nhất mà tôi đã thấy chia sẻ một số đặc điểm:

Tính minh bạch theo mặc định. Mỗi đầu ra được tạo bởi trí tuệ nhân tạo — mỗi báo cáo, mỗi cảnh báo, mỗi bản thảo — đều rõ ràng với nhóm, không bị chôn vùi trong lịch sử trò chuyện cá nhân. Điều này không phải về việc giám sát. Đó là về ngữ cảnh được chia sẻ. Khi một đại diện tạo ra một phân tích cạnh tranh hàng tuần, toàn bộ nhóm nên có thể nhìn thấy nó, đặt câu hỏi và xây dựng trên nó.

Quyền được giới hạn, không phải quyền truy cập toàn diện. Một đại diện theo dõi nhật ký lỗi của bạn không cần truy cập vào CRM của bạn. Một đại diện soạn thảo nội dung xã hội không cần truy cập vào dữ liệu tài chính của bạn. Nguyên tắc đặc quyền tối thiểu không mới. Nó chỉ hiếm khi được áp dụng cho các hệ thống trí tuệ nhân tạo — và nó nên được.

Dấu vết kiểm toán thực sự tồn tại. Sổ tay an ninh trí tuệ nhân tạo đại diện của McKinsey nhấn mạnh rằng các đại diện tự động trình bày “một loạt rủi ro và điểm yếu mới và phức tạp đòi hỏi sự chú ý và hành động ngay bây giờ.” Một trong những điều cơ bản nhất: nếu bạn không thể theo dõi những gì một đại diện đã làm, dữ liệu nào nó đã truy cập và quyết định nào nó đã đưa ra, bạn không thể quản lý nó. Dừng lại.

Kiểm soát cấp nhóm, không chỉ kiểm soát cấp CNTT. Đây là phần mà hầu hết các khuôn khổ quản lý sai. Họ tập trung tất cả kiểm soát trí tuệ nhân tạo vào CNTT hoặc bảo mật, điều này tạo ra chính xác nút thắt mà thúc đẩy công nghệ thông tin không được phép. Các tổ chức đang làm đúng là đẩy kiểm soát xuống cấp nhóm — cho phép các nhà quản lý và trưởng nhóm cấu hình, giới hạn và theo dõi các đại diện mà nhóm của họ sử dụng, trong các rào cản mà CNTT đặt nhưng không cần phải kiểm soát chặt chẽ.

Ở Đâu Các Tổ Chức Đang Làm Đúng

Các công ty triển khai các đại diện trí tuệ nhân tạo tốt không phải là những công ty có mô hình phức tạp nhất. Họ là những công ty có ranh giới hoạt động rõ ràng nhất.

Tôi đang thấy kết quả mạnh nhất trong ba lĩnh vực:

Báo cáo và theo dõi. Các đại diện chạy báo cáo theo lịch — báo cáo hàng ngày, tóm tắt số liệu hàng tuần, phân tích nhật ký lỗi — và giao chúng trực tiếp vào kênh nhóm. Giá trị ở đây không chỉ là tự động hóa. Đó là nhất quán. Báo cáo chạy mỗi sáng, cho dù ai đó nhớ kéo dữ liệu hay không. Và vì nó rõ ràng với nhóm, các lỗi được bắt nhanh hơn.

Quy trình làm việc nội dung và truyền thông. Soạn thảo, không xuất bản. Các đại diện tạo ra bản thảo đầu tiên của các bản cập nhật nội bộ, tóm tắt cuộc họp hoặc nội dung truyền thông — sau đó hiển thị chúng cho xem xét của con người. Phần quản lý ở đây quan trọng vì tiêu chuẩn chất lượng khác khi đầu ra đi đến khách hàng so với kênh Slack nội bộ.

Phân tích và cảnh báo. Các đại diện theo dõi bảng điều khiển, đánh dấu các bất thường và đẩy cảnh báo khi số liệu nằm ngoài phạm vi dự kiến. Điều này thay thế vấn đề “ai đó nên theo dõi điều này” mà từng đội nào cũng gặp phải khi mất một cuối tuần vì một vấn đề sản xuất không được chú ý.

Điều Mà Hầu Hết Các Tổ Chức Vẫn Làm Sai

Lỗi lớn nhất là coi quản lý trí tuệ nhân tạo như một vấn đề chính sách thay vì một vấn đề cơ sở hạ tầng.

Bạn có thể viết tất cả các chính sách sử dụng chấp nhận được mà bạn muốn. Nếu nhân viên của bạn không có một môi trường được ủy quyền, dễ sử dụng để triển khai trí tuệ nhân tạo thực sự hoạt động cho nhu cầu hàng ngày của họ, họ sẽ tránh chính sách của bạn. Đó không phải là vấn đề con người. Đó là vấn đề thiết kế.

Phân tích trí tuệ nhân tạo bóng tối của IDC làm rõ điểm này: năng suất trí tuệ nhân tạo bí mật đang “siết cổ việc áp dụng trí tuệ nhân tạo doanh nghiệp” vì các tổ chức đang bị kẹt giữa việc muốn có lợi ích và lo sợ rủi ro. Kết quả là không hành động — điều này là kết quả tồi tệ nhất, vì nó đảm bảo việc áp dụng không được kiểm soát.

Lỗi thứ hai là coi quản lý và tốc độ như những điều đối lập. Chúng không phải như vậy. Các môi trường trí tuệ nhân tạo được quản lý tốt nhất cũng là những môi trường nhanh nhất — vì các nhóm không phải dành thời gian để tái tạo công việc đã tồn tại, gỡ lỗi các đại diện mà họ không thể nhìn thấy, hoặc xây dựng lại các quy trình làm việc bị hỏng vì ai đó rời công ty và tài khoản trí tuệ nhân tạo cá nhân của họ đã đi cùng.

Phương Tiện Tiền Phong Là Môi Trường, Không Phải Mô Hình

Chú ý của ngành đang tập trung vào khả năng của mô hình. Cửa sổ ngữ cảnh lớn hơn. Lý luận tốt hơn. Đầu vào đa phương tiện. Những điều đó quan trọng. Nhưng đối với hầu hết các nhóm đang cố gắng hoàn thành công việc, nút thắt không phải là mô hình. Đó là môi trường mà mô hình chạy trong.

Nhóm có thể nhìn thấy nó đang làm gì không? Họ có thể kiểm soát những gì nó truy cập không? Họ có thể chia sẻ những gì nó tạo ra không? Họ có thể tin rằng nó đang làm việc với đúng dữ liệu và đúng giới hạn không?

Những điều đó là câu hỏi về cơ sở hạ tầng, không phải câu hỏi về mô hình. Và chúng là những điều sẽ phân biệt các tổ chức nhận được giá trị thực sự và bền vững từ trí tuệ nhân tạo với những tổ chức chỉ thêm một lớp công nghệ thông tin không được phép khác.

Phương tiện tiền phong không phải là xây dựng các mô hình thông minh hơn. Đó là xây dựng các môi trường mà các mô hình thông minh có thể thực sự được tin cậy để hoạt động.

Marcel Folaron là Đồng sáng lập của CoChat, nơi ông xây dựng không gian làm việc AI được quản lý cho các đội. Ông đã dành thập kỷ qua làm việc tại giao điểm của hợp tác nhóm, tự động hóa và quản lý doanh nghiệp.