Lãnh đạo tư tưởng
Tại Sao Trí Tuệ Nhân Tạo Doanh Nghiệp Bị Hỏng Sau Khi Triển Khai – Và Làm Thế Nào Để Giải Quyết

Cảnh Báo: Vấn Đề Không Phải Là Mô Hình
Năm 2023, Thành Phố New York đã ra mắt rô-bốt trò chuyện MyCity để giúp các doanh nghiệp điều hướng các quy định phức tạp. Ý tưởng rất đơn giản: làm cho thông tin pháp lý dễ tiếp cận hơn.
Trên thực tế, hệ thống đã tạo ra các câu trả lời không chỉ sai mà còn gây hiểu lầm về mặt pháp lý – từ các quy tắc về tiền boa đến phân biệt đối xử về nhà ở và luật thanh toán.
Một cuộc kiểm toán sau đó đã phát hiện ra rằng 71,4% phản hồi của người dùng là tiêu cực. Thay vì giải quyết các vấn đề cơ bản, phản ứng là thêm các tuyên bố từ chối trách nhiệm. Rô-bốt trò chuyện thậm chí còn ở chế độ “beta” trong hơn hai năm trước khi bị tắt.
Sự thất bại không phải là kỹ thuật. Hệ thống đã bị hỏng trong sản xuất vì không có cơ chế để đảm bảo độ chính xác, không có trách nhiệm rõ ràng và không có cách can thiệp khi mọi thứ đi sai.
Đó là mẫu đằng sau trí tuệ nhân tạo doanh nghiệp ngày nay: công nghệ hoạt động, nhưng các tổ chức không được thiết lập để vận hành nó một cách đáng tin cậy khi nó đang hoạt động.
Từ Phiên Bản Thử Nghiệm Đến Sản Xuất: Nơi Mọi Thứ Bắt Đầu Hỏng
Xây dựng một phiên bản thử nghiệm rất đơn giản – chọn một trường hợp sử dụng, chọn một mô hình, chuẩn bị dữ liệu, tìm một người bảo trợ. Chạy một hệ thống trong sản xuất là một giải pháp hoàn toàn khác.
Khoảng cách giống như sự khác biệt giữa nhảy vào một hồ bơi và nhảy từ tầng khí quyển, như Felix Baumgartner đã làm vào năm 2012. Cùng một vật lý cơ bản, nhưng điều kiện hoàn toàn khác – và hậu quả thất bại hoàn toàn khác.
Trong sản xuất, trí tuệ nhân tạo tham gia vào các luồng quyết định thực sự, tương tác với khách hàng và tạo ra các hậu quả pháp lý và hoạt động. Đó là nơi các khoảng trống bắt đầu xuất hiện – không phải trong mô hình, mà trong cách nó được quản lý.
Châu Âu làm cho điều này trở nên rõ ràng hơn so với hầu hết các khu vực. Các quy định như Đạo Luật Trí Tuệ Nhân Tạo của EU, GDPR và NIS2 không làm chậm việc áp dụng – chúng暴露 liệu các tổ chức có thể vận hành các hệ thống trí tuệ nhân tạo dưới các ràng buộc thực sự hay không.
Vào năm 2025, 55% doanh nghiệp lớn của EU đã sử dụng trí tuệ nhân tạo. Việc áp dụng đã xảy ra ở quy mô lớn. Thách thức là những gì xảy ra sau khi triển khai.
Ở đó, các câu hỏi hoạt động cơ bản bắt đầu xuất hiện. Và thường, không ai có thể trả lời chúng: Ai chịu trách nhiệm về đầu ra và quyết định tự động của trí tuệ nhân tạo? Điều gì xảy ra khi hệ thống hành xử theo những cách không mong đợi? Và ai sẽ bắt gặp nó trước khi thiệt hại đến được truyền thông?
Trách nhiệm pháp lý nằm với công ty, không phải công nghệ. Rô-bốt trò chuyện của Air Canada đã cung cấp thông tin không chính xác cho khách hàng về giá vé tang lễ. Khách hàng dựa vào đó và sau đó bị từ chối hoàn tiền. Một tòa án đã phán quyết rằng hãng hàng không chịu trách nhiệm – rô-bốt trò chuyện không phải là một thực thể riêng biệt.
Cùng một vấn đề, nhưng từ một góc độ khác: Hệ thống McHire của McDonald’s đã lộ thông tin nhạy cảm từ gần 64.000 ứng viên. Nguyên nhân không phải là một cuộc tấn công tinh vi – mật khẩu quản trị sử dụng “admin” và “123456”. Hệ thống trông có vẻ tiên tiến. Sự thất bại là sơ đẳng.
Khi bạn gắn quản lý vào một hệ thống đang hoạt động, nó đã quá muộn. Triển khai một hệ thống là một quyết định kỹ thuật. Vận hành nó một cách đáng tin cậy là một quyết định tổ chức. Và đó là phần mà hầu hết các công ty đánh giá thấp.
Ai Thực Sự Sở Hữu Rủi Ro Trí Tuệ Nhân Tạo? Không Ai.
Đây là cốt lõi của vấn đề, và nghịch lý là điều ít được thảo luận nhất. Bộ phận CNTT quản lý cơ sở hạ tầng. Bộ phận pháp lý xử lý các vấn đề tuân thủ. Các đội kinh doanh thúc đẩy các trường hợp sử dụng. Nhưng không ai sở hữu rủi ro trí tuệ nhân tạo từ đầu đến cuối.
Điều đó tạo ra hai vấn đề ngay lập tức. Quyết định “đi” chậm lại – vì không ai muốn chịu trách nhiệm. Và quyết định “dừng” cũng chậm lại như nhau – vì không ai biết ai có thể.
Dữ liệu phản ánh điều đó. Ít hơn 10% các trường hợp sử dụng trí tuệ nhân tạo đã chuyển từ phiên bản thử nghiệm sang sản xuất, và hầu hết các tổ chức đang vật lộn để tạo ra tác động kinh doanh có thể đo lường được. Đồng thời, nhiều tổ chức đã triển khai trí tuệ nhân tạo – nhưng theo một khảo sát về độ trưởng thành của quản lý, chỉ 7% có quản lý được cấu trúc rõ ràng và áp dụng nhất quán.
Tại sao điều này lại xảy ra một cách nhất quán? Bởi vì hầu hết các khuôn khổ và chính sách công ty định nghĩa những gì nên xảy ra – không phải ai chịu trách nhiệm khi nó quan trọng. Khi một hệ thống bắt đầu tạo ra đầu ra không chính xác vào lúc nửa đêm thứ Sáu, câu hỏi không phải là lý thuyết. Ai hành động? Và ai có thẩm quyền quyết định?
Điều này chỉ trở nên tồi tệ hơn khi quy mô tăng lên. Một hệ thống có thể được quản lý không chính thức. Khi bạn có ba mươi, trách nhiệm bị phân mảnh trên các đội, và không ai có bức tranh toàn diện.
Ngân hàng Commonwealth của Úc cung cấp một ví dụ rõ ràng. Ngân hàng đã thay thế 45 nhân viên dịch vụ khách hàng bằng rô-bốt giọng nói trí tuệ nhân tạo, dự kiến nhu cầu sẽ giảm. Nhưng nó không. Số lượng cuộc gọi tăng, các nhà quản lý phải xử lý quá tải, và ngân hàng phải thuê lại tất cả 45 nhân viên. Khi bị thách thức, nó không thể chứng minh rằng tự động hóa đã giảm tải công việc.
Không ai đã xác nhận các giả định trước khi triển khai. Không ai sở hữu kết quả khi những giả định đó thất bại. Đó là những gì một khoảng trống trách nhiệm trông như thế trong thực tế.
Có Quy Tắc Không Phải Là Đủ. Bạn Cần Một Cơ Chế
Hầu hết các tổ chức không thiếu chính sách. Họ thiếu các hệ thống hoạt động khi có điều gì đó sai.
Chính sách định nghĩa những gì nên xảy ra. Cơ chế quyết định những gì thực sự xảy ra – khi một mô hình tạo ra đầu ra không chính xác, khi một nhà cung cấp thay đổi điều gì đó trong nền, hoặc khi một hệ thống bắt đầu hành xử theo những cách không mong đợi.
Sự khác biệt đó trở nên rõ ràng trong sản xuất – khi quyết định phải được đưa ra trong điều kiện thực.
Những thất bại này theo một động lực nhất quán. Trong mỗi trường hợp, cùng một khoảng trống hoạt động xuất hiện – chỉ trong các hình thức khác nhau.
Sở Hữu Là Điều Đầu Tiên
Mỗi hệ thống trí tuệ nhân tạo được triển khai cần một chủ sở hữu rõ ràng – một người, không phải một đội hoặc một bộ phận, có thẩm quyền phê duyệt, tạm dừng và tắt nó.
Không có điều đó, không thể triển khai nhanh chóng hoặc can thiệp an toàn. Như đã thấy trong ví dụ của Ngân hàng Commonwealth, sự thiếu rõ ràng về sở hữu dẫn trực tiếp đến thất bại hoạt động.
Dữ Liệu Và Minh Bạch Pháp Lý Thường Thiếu
Nhiều hệ thống được triển khai mà không có luồng dữ liệu được ghi lại, cơ sở pháp lý được xác minh, hoặc sự rõ ràng về các nghĩa vụ áp dụng khi hệ thống đang hoạt động.
Hành động của cơ quan quản lý Ý chống lại DeepSeek vào năm 2025 minh họa điều này rõ ràng. Vấn đề không phải là chất lượng mô hình – mà là không thể giải thích cách xử lý dữ liệu cá nhân. Kết quả là gián đoạn dịch vụ đột ngột cho người dùng châu Âu.
Thử Nghiệm Hiếm Khi Phản Chiếu Sử Dụng Thế Giới Thực
Các hệ thống thường được đánh giá trên các kịch bản mà chúng hoạt động tốt, nhưng không phải trên các trường hợp mà thất bại sẽ quan trọng nhất.
Rô-bốt trò chuyện MyCity là một ví dụ rõ ràng. Các trường hợp cơ bản – xung quanh luật lao động, phân biệt đối xử về nhà ở, hoặc luật thanh toán – không được phát hiện trước khi triển khai. Một khi được tiếp xúc với người dùng thực, những thất bại đó đã trở nên công khai ngay lập tức.
Thử nghiệm không chỉ là về hiệu suất – mà là về việc xác định nơi hệ thống thất bại trước khi người dùng, các cơ quan quản lý hoặc các nhà báo làm như vậy.
Can Thiệp Không Rõ Ràng Hoặc Quá Chậm
Thậm chí khi các vấn đề được nhìn thấy, thường không có cơ chế rõ ràng hoặc thẩm quyền để tạm dừng hoặc tắt hệ thống.
Zillow Offers chứng minh điều này ở quy mô lớn. Hệ thống đã sử dụng một thuật toán để định giá và mua nhà. Khi thị trường làm mát vào năm 2021, hệ thống tiếp tục mua với giá cao. Không có cơ chế để phát hiện sự thay đổi theo thời gian, và không có điểm quyết định rõ ràng để dừng lại. Kết quả là thiệt hại vượt quá 880 triệu đô la và đóng cửa toàn bộ bộ phận.
Giám Sát Không Phải Là Sở Hữu
Giám sát thường được giảm xuống còn bảng điều khiển, nhưng đó không phải là điều ngăn chặn thất bại.
Điều quan trọng là trách nhiệm được xác định: ai theo dõi tín hiệu, điều gì kích hoạt việc nâng cao, và ai được mong đợi hành động.
Deloitte Australia cho thấy điều gì xảy ra khi điều đó bị thiếu. Một báo cáo của chính phủ bao gồm các trích dẫn bị ảo giác và các tham chiếu pháp lý không chính xác vì không ai rõ ràng chịu trách nhiệm về việc xác minh đầu ra trước khi giao hàng. Kết quả là hoàn tiền một phần và thiệt hại về danh tiếng.
Trí Tuệ Nhân Tạo Chủ Động: Điều Gì Đang Đến Sẽ Còn Khó Hơn
Trí tuệ nhân tạo tạo ra đầu ra. Trí tuệ nhân tạo chủ động thực hiện hành động. Điều đó thay đổi hoàn toàn rủi ro.
Thay vì một phản hồi duy nhất để đánh giá, một lệnh có thể kích hoạt một chuỗi quyết định trên các hệ thống – cuộc gọi API, truy cập dữ liệu, giao dịch, cập nhật – thường không có sự can thiệp của con người tại mỗi bước.
Khi có điều gì đó sai, vấn đề không còn là độ chính xác. Đó là khả năng theo dõi. Bước nào gây ra vấn đề? Dữ liệu nào được sử dụng? Ai đã ủy quyền hành động? Trong nhiều trường hợp, những câu hỏi đó rất khó trả lời sau khi sự việc đã xảy ra.
Đó là nơi các khoảng trống hiện có trở nên quan trọng. Sở hữu không rõ ràng, giám sát yếu và thiếu can thiệp không chỉ tồn tại – mà còn tích lũy. Một câu trả lời sai sót có thể được sửa chữa. Một hành động sai sót có thể tạo ra hậu quả trước khi ai đó nhận ra.
Các tín hiệu sớm đã chỉ ra hướng này. Gartner ước tính rằng hơn 40% dự án trí tuệ nhân tạo chủ động sẽ bị hủy bỏ vào năm 2027 – không phải do hạn chế của mô hình, mà vì các tổ chức đang vật lộn để kiểm soát chi phí, rủi ro và kết quả. Đó là cùng một mẫu chúng ta thấy với trí tuệ nhân tạo tạo ra sau khi triển khai. Chỉ với ставки cao hơn.
Các cơ quan quản lý đang phản ứng với một nguyên tắc đơn giản: tự động hóa không loại bỏ trách nhiệm. Đối với các tổ chức, điều đó tạo ra một ý nghĩa rõ ràng: nếu sở hữu và kiểm soát không rõ ràng ngày nay, việc mở rộng vào các hệ thống chủ động sẽ không giải quyết vấn đề. Nó sẽ khuếch đại nó.
Vận Hành Nó – Hoặc Mất Nó
Trí tuệ nhân tạo không còn là hạn chế. Các mô hình rộng rãi, có khả năng và ngày càng được hàng hóa. Sự khác biệt thực sự không phải là liệu một tổ chức có thể xây dựng trí tuệ nhân tạo – mà là liệu nó có thể vận hành nó một cách đáng tin cậy khi nó đang hoạt động.
Đó là nơi hầu hết các thất bại xảy ra – trong cách các hệ thống được chạy, không phải trong cách chúng được xây dựng. Các tổ chức thành công sẽ không phải là những tổ chức có mô hình tiên tiến nhất. Họ sẽ là những tổ chức có cấu trúc hoạt động rõ ràng nhất xung quanh chúng.
Điều này có thể được kiểm tra trực tiếp. Hãy lấy hệ thống trí tuệ nhân tạo quan trọng nhất của bạn và trả lời ba câu hỏi:
- Ai có thể tắt nó?
- Làm thế nào bạn biết khi nó thất bại?
- Điều gì xảy ra khi nó làm như vậy?
Nếu những câu trả lời đó không rõ ràng, hệ thống không sẵn sàng cho sản xuất.
Mô hình có thể. Tổ chức không.












