Connect with us

Lãnh đạo tư tưởng

Trí tuệ nhân tạo Agentic của “Bản sao số cá nhân” Sẽ Yêu cầu Sự tiến hóa Xác minh danh tính

mm

Thông báo của Amazon về tính năng “Mua cho tôi” là một bước đi táo bạo cho thấy tiềm năng thực sự của trí tuệ nhân tạo agentic trong thương mại điện tử. Bằng cách cho phép các tác nhân AI mua sản phẩm trực tiếp từ các trang web khác khi các mặt hàng không có sẵn trên Amazon, công ty đang định vị mình là nhà cung cấp hàng đầu về trải nghiệm mua sắm tiện lợi và thỏa mãn cao.

Trí tuệ nhân tạo agentic – nơi các tác nhân tự động hoạt động thay mặt cho người dùng thực – đang trên đà được áp dụng rộng rãi trong doanh nghiệp, đặc biệt là trong bối cảnh B2B. Hãy tưởng tượng một thế giới nơi “các tác nhân AI B2B” hoạt động trong các năng lực khác nhau (chẳng hạn như dịch vụ khách hàng, bán hàng, chuỗi cung ứng, hoạt động CNTT, tài chính và nhân sự) có thể thực hiện hành động trên các nhiệm vụ doanh nghiệp thông thường mà không cần can thiệp của con người.

Trí tuệ nhân tạo agentic cũng là tin tốt trong lĩnh vực tiêu dùng, với “các tác nhân AI B2C” mang lại cơ hội đáng kể cho người tiêu dùng tiết kiệm thời gian và công sức trong cuộc sống hàng ngày. Hãy xem xét một “tác nhân mua” có thể giúp người mua sắm trực tuyến tìm kiếm các giao dịch tốt nhất, theo dõi giảm giá, tự động hóa mua hàng, xử lý trả hàng và đặt chỗ du lịch. Các khả năng trên các ngành công nghiệp khác nhau dường như vô tận:

  • Quản lý tài chính và tài sản cá nhân – Hãy nghĩ về các tác nhân AI có thể tự động thực hiện các chiến lược tài chính, cân bằng danh mục đầu tư, tìm lãi suất tiết kiệm tối ưu và thậm chí quản lý việc nộp thuế.
  • Dịch vụ khách hàng và hỗ trợ (cho cá nhân) – Thay vì gọi đến đường dây nóng hoặc trò chuyện với bot, một tác nhân AI agentic cá nhân có thể giao tiếp trực tiếp với tác nhân AI agentic của một công ty để giải quyết vấn đề, làm rõ đơn hàng hoặc thực hiện thay đổi. Điều này loại bỏ nhu cầu của cá nhân phải lặp lại thông tin hoặc điều hướng các hệ thống IVR phức tạp.
  • Chăm sóc sức khỏe – Các tác nhân AI sẽ có thể quản lý lịch hẹn, đặt đơn thuốc, nộp đơn yêu cầu bảo hiểm và thậm chí tìm kiếm ý kiến thứ hai hoặc phân tích nghiên cứu y tế thay mặt cho bệnh nhân.

Việc áp dụng trí tuệ nhân tạo agentic mang lại cho các trang web cơ hội để nổi bật thông qua sự tiện lợi và trải nghiệm người dùng vượt trội. Tuy nhiên, ở phía bên kia của đồng tiền, trí tuệ nhân tạo agentic rất dễ bị gian lận. Nghiên cứu cho thấy rằng bot gồm giữa 40 và 50 phần trăm tất cả lưu lượng truy cập web, với khoảng 65 phần trăm trong số các bot này được cho là có hại. Trí tuệ nhân tạo agentic cơ bản là một cách để người tiêu dùng thông thường sử dụng bot, và những kẻ gian lận – những người thường sử dụng bot với số lượng lớn để cho phép hoạt động với quy mô – bây giờ sẽ có một thời gian dễ dàng hơn để ẩn náu trong tầm nhìn thường xuyên của lưu lượng truy cập agentic hợp pháp.

Ở mức độ cơ bản, khả năng phân biệt giữa các bot độc hại và hợp pháp này với quy mô sẽ là một yếu tố quan trọng trong việc phân biệt các nhà lãnh đạo trong cuộc đua trí tuệ nhân tạo agentic. Trong một thế giới agentic, máy móc sẽ được trao quyền và sẽ đi xuống cùng “các lối đi ảo” như con người chúng ta.

Nhưng Liệu Bối cảnh Thương mại Điện tử Có Sẵn sàng?

Trí tuệ nhân tạo agentic sẽ yêu cầu một sự suy nghĩ lại, hoặc một sự mở rộng, của khuôn khổ xác minh danh tính trực tuyến như nó được biết đến ngày nay, điều này sẽ yêu cầu các nhà cung cấp giải pháp phải tiếp tục cải thiện những gì họ đang làm. Cho đến nay, khuôn khổ này đã tập trung vào ba câu hỏi:

  • Người này có thực không? Sự phổ biến nhanh chóng của deepfake đang yêu cầu kiểm tra sự sống cho tất cả các giao dịch có rủi ro cao, đảm bảo chúng được khởi xướng bởi một người thực, sống. Trong bối cảnh trí tuệ nhân tạo agentic, câu trả lời có thể là, “không, tôi không phải là một người,” nhưng điều đó không có nghĩa là sự sống là không liên quan. Phát hiện sự sống nên luôn là một phần của các kiểm tra sinh trắc học xảy ra tại các điểm có rủi ro cao trong hành trình người dùng, để đảm bảo một con người đang trong vòng lặp – chẳng hạn như khi một tài khoản được tạo, tiền được chuyển hoặc khôi phục tài khoản được yêu cầu (“Tôi quên mật khẩu của mình”).
  • Người này có đáng tin cậy không? Đây là khả năng xác định xem người dùng có phải là một kẻ gian lận, một khách hàng VIP trong tương lai hay một thứ gì đó ở giữa, điều này thường liên quan đến việc kiểm tra chống lại các cơ sở dữ liệu công khai. Ví dụ, ai đó cố gắng đặt chỗ lưu trú trên một thị trường cho thuê trực tuyến sẽ được đánh dấu là có rủi ro cao nếu họ có lịch sử tội phạm được biết đến về việc chiếm dụng hoặc phá hủy tài sản.
  • Người này vẫn là người đứng sau tài khoản không? Đây đề cập đến việc xác thực liên tục, liên tục – hoặc đảm bảo tại các khoảng thời gian thường xuyên rằng người mà danh tính đã được xác minh tại thời điểm đăng nhập vẫn còn đó, ngăn chặn việc chiếm tài khoản bởi những người khác.

Trí tuệ nhân tạo agentic thêm một câu hỏi thứ tư – tác nhân này có thẩm quyền hành động như một đại diện của người dùng thực không? Vấn đề thẩm quyền này là rất quan trọng, xác nhận phạm vi và thời gian của sự ủy quyền của con người cho tác nhân AI hành động như một đại diện của họ, theo ngữ cảnh. Điều này không chỉ là về việc một con người ủy thác một nhiệm vụ; nó là về việc đảm bảo rằng một tác nhân AI có các quyền cụ thể, có thể thu hồi, nhận thức ngữ cảnh từ con người. Tất cả các hành động của tác nhân AI phải có thể theo dõi được đến một con người thực, hợp pháp; đây là chìa khóa để các trang web B2C triển khai trí tuệ nhân tạo agentic một cách an toàn và có trách nhiệm.

Theo một ước tính gần đây, AI đã đứng sau khoảng 20 phần trăm của gian lận được thực hiện vào năm 2024 trên tất cả các lĩnh vực, và con số này chỉ dự kiến sẽ tăng khi các hacker triển khai các kỹ thuật mới. Ngoài việc các tác nhân AI độc hại giả mạo các tác nhân hợp pháp, một ví dụ khác là việc chiếm đoạt tác nhân, hoặc khi một kẻ tấn công can thiệp vào cách một tác nhân nhận thức thông tin hoặc đưa ra quyết định. Vì vậy, ngoài việc xác minh tính hợp pháp và thẩm quyền của các tác nhân AI, việc kiểm tra tính toàn vẹn của các tác nhân cũng rất quan trọng để đảm bảo chúng không bị can thiệp.

Gartner đã giảm bớt những dự đoán mạnh mẽ về sự tăng trưởng của trí tuệ nhân tạo agentic nói chung với một lưu ý quan trọng: hơn 40 phần trăm của các dự án trí tuệ nhân tạo agentic sẽ bị hủy bỏ vào cuối năm 2027. Đây là một lời cảnh báo mạnh mẽ – một dấu hiệu cho thấy nhiều tổ chức đang đánh giá thấp sự phức tạp của việc triển khai trí tuệ nhân tạo agentic, đặc biệt là nhu cầu đảm bảo các biện pháp kiểm soát rủi ro đầy đủ. Mặc dù có nhiều cách mà các tác nhân AI agentic có thể bị khai thác để gây hại, nhưng khả năng xác minh tính hợp pháp và thẩm quyền là một bước cơ bản, nền tảng để giảm thiểu rủi ro. May mắn thay, những gì được yêu cầu không phải là một sự phát minh lại, mà là một sự tiến hóa – một sự tăng cường của các khuôn khổ xác minh danh tính trực tuyến đã được chứng minh hiện có.

Hubert Behaghel là Chief Product & Technology Officer tại Veriff, đảm bảo rằng chiến lược sản phẩm và kỹ thuật của công ty hỗ trợ sự tăng trưởng và đổi mới. Ông có gần hai thập kỷ kinh nghiệm với các công ty hàng đầu như Amazon, Marks and Spencer, và Sky, nơi ông đã lãnh đạo sự mở rộng đáng kể trong các bộ phận kỹ thuật tương ứng trong khi giới thiệu các sáng kiến mới và tinh chỉnh các sáng kiến hiện có. Trước khi gia nhập Veriff, ông là VP của Engineering đầu tiên tại Typeform, giám sát sự mở rộng hợp lý của đội kỹ thuật của công ty, mở rộng sự hiện diện toàn cầu và giới thiệu một loạt các chức năng mới trong khi giảm chi phí.