Connect with us

Trí tuệ nhân tạo và Phòng ngừa Tội phạm Tài chính: Tại sao Ngân hàng Cần Một Cách Tiếp cận Cân bằng

Lãnh đạo tư tưởng

Trí tuệ nhân tạo và Phòng ngừa Tội phạm Tài chính: Tại sao Ngân hàng Cần Một Cách Tiếp cận Cân bằng

mm

Trí tuệ nhân tạo là một đồng tiền hai mặt đối với các ngân hàng: trong khi nó mở ra nhiều khả năng cho các hoạt động hiệu quả hơn, nó cũng đặt ra các rủi ro bên ngoài và bên trong.

Các tội phạm tài chính đang tận dụng công nghệ này để sản xuất video deepfake, giọng nói và tài liệu giả mà có thể vượt qua sự phát hiện của máy tính và con người, hoặc để tăng cường hoạt động gian lận qua email. Chỉ riêng tại Mỹ, trí tuệ nhân tạo tạo ra dự kiến sẽ tăng tốc độ mất mát do gian lận lên 32% mỗi năm, đạt 40 tỷ đô la vào năm 2027, theo một báo cáo gần đây của Deloitte.

Có lẽ, do đó, phản ứng từ các ngân hàng nên là trang bị cho mình những công cụ tốt hơn, tận dụng trí tuệ nhân tạo trên toàn bộ phạm vi phòng ngừa tội phạm tài chính. Các tổ chức tài chính thực sự đang bắt đầu triển khai trí tuệ nhân tạo trong các nỗ lực chống tội phạm tài chính (AFC) – để theo dõi các giao dịch, tạo báo cáo hoạt động đáng ngờ, tự động hóa phát hiện gian lận và hơn thế nữa. Những công cụ này có tiềm năng tăng tốc quá trình trong khi tăng độ chính xác.

Vấn đề là khi các ngân hàng không cân bằng việc triển khai trí tuệ nhân tạo với phán quyết của con người. Không có con người trong quá trình, việc áp dụng trí tuệ nhân tạo có thể ảnh hưởng đến tuân thủ, thiên vị và khả năng thích nghi với các mối đe dọa mới.

Chúng tôi tin vào một cách tiếp cận thận trọng, kết hợp giữa việc áp dụng trí tuệ nhân tạo trong lĩnh vực tài chính, một cách tiếp cận sẽ tiếp tục yêu cầu đầu vào của con người.

Sự khác biệt giữa hệ thống AFC dựa trên quy tắc và hệ thống AFC dựa trên trí tuệ nhân tạo

Truyền thống, AFC – và đặc biệt là hệ thống chống rửa tiền (AML) – đã hoạt động với các quy tắc cố định được thiết lập bởi các đội tuân thủ để đáp ứng các quy định. Trong trường hợp theo dõi giao dịch, ví dụ, những quy tắc này được thực hiện để đánh dấu các giao dịch dựa trên các tiêu chí cụ thể được định nghĩa trước, như ngưỡng số tiền giao dịch hoặc các yếu tố rủi ro địa lý.

Trí tuệ nhân tạo đưa ra một cách mới để sàng lọc rủi ro tội phạm tài chính. Các mô hình học máy có thể được sử dụng để phát hiện các mẫu đáng ngờ dựa trên một loạt các tập dữ liệu đang不断 phát triển. Hệ thống phân tích các giao dịch, dữ liệu lịch sử, hành vi của khách hàng và dữ liệu ngữ cảnh để theo dõi bất cứ điều gì đáng ngờ, trong khi học hỏi theo thời gian, cung cấp giám sát tội phạm thích nghi và có thể hiệu quả hơn.

Tuy nhiên, trong khi các hệ thống dựa trên quy tắc là có thể dự đoán và dễ dàng kiểm toán, các hệ thống dựa trên trí tuệ nhân tạo giới thiệu một yếu tố “hộp đen” phức tạp do các quy trình ra quyết định không rõ ràng. Nó khó hơn để theo dõi lý do tại sao một hệ thống trí tuệ nhân tạo đánh dấu một số hành vi nhất định là đáng ngờ,考虑 đến nhiều yếu tố liên quan. Điều này có thể khiến hệ thống trí tuệ nhân tạo đạt đến một kết luận nhất định dựa trên các tiêu chí lỗi thời, hoặc cung cấp thông tin không chính xác, mà không có sự phát hiện ngay lập tức. Nó cũng có thể gây ra vấn đề cho tuân thủ quy định của một tổ chức tài chính.

Thử thách quy định có thể xảy ra

Các tổ chức tài chính phải tuân thủ các tiêu chuẩn quy định nghiêm ngặt, như Đirective chống rửa tiền của EUĐạo luật Bí mật Ngân hàng của Mỹ, đòi hỏi sự ra quyết định rõ ràng và có thể theo dõi. Các hệ thống trí tuệ nhân tạo, đặc biệt là các mô hình học sâu, có thể khó giải thích.

Để đảm bảo trách nhiệm giải trình khi áp dụng trí tuệ nhân tạo, các ngân hàng cần có kế hoạch cẩn thận, thử nghiệm kỹ lưỡng, khuôn khổ tuân thủ chuyên dụng và giám sát của con người. Con người có thể xác nhận các quyết định tự động bằng cách, ví dụ, giải thích lý do tại sao một giao dịch được đánh dấu, làm cho nó có thể giải thích và bảo vệ được trước các quy định.

Các tổ chức tài chính cũng đang dưới áp lực ngày càng tăng để sử dụng Trí tuệ nhân tạo giải thích được (XAI) để làm cho các quyết định dựa trên trí tuệ nhân tạo có thể hiểu được đối với các quy định và kiểm toán. XAI là một quá trình cho phép con người hiểu được đầu ra của một hệ thống trí tuệ nhân tạo và quá trình ra quyết định cơ bản.

Phán quyết của con người cần thiết cho tầm nhìn toàn diện

Việc áp dụng trí tuệ nhân tạo không thể dẫn đến sự tự mãn với các hệ thống tự động. Các nhà phân tích con người mang lại ngữ cảnh và phán quyết mà trí tuệ nhân tạo thiếu, cho phép ra quyết định tinh vi trong các trường hợp phức tạp hoặc mơ hồ, điều vẫn thiết yếu trong các cuộc điều tra AFC.

Trong số các rủi ro của sự phụ thuộc vào trí tuệ nhân tạo là khả năng xảy ra lỗi (ví dụ: dương tính giả, âm tính giả) và thiên vị. Trí tuệ nhân tạo có thể dễ bị dương tính giả nếu các mô hình không được điều chỉnh tốt, hoặc được đào tạo trên dữ liệu thiên vị. Trong khi con người cũng dễ bị thiên vị, rủi ro thêm của trí tuệ nhân tạo là nó có thể khó xác định thiên vị trong hệ thống.

Hơn nữa, các mô hình trí tuệ nhân tạo chạy trên dữ liệu được cung cấp cho chúng – chúng có thể không bắt được các mẫu đáng ngờ mới hoặc hiếm nằm ngoài xu hướng lịch sử, hoặc dựa trên thông tin thực tế. Việc thay thế hoàn toàn các hệ thống dựa trên quy tắc bằng trí tuệ nhân tạo có thể để lại các điểm mù trong giám sát AFC.

Trong trường hợp thiên vị, mơ hồ hoặc mới, AFC cần một mắt nhìn tinh tường mà trí tuệ nhân tạo không thể cung cấp. Đồng thời, nếu chúng ta loại bỏ con người khỏi quá trình, nó có thể nghiêm重 hạn chế khả năng của các đội ngũ để hiểu các mẫu trong tội phạm tài chính, phát hiện các mẫu và xác định các xu hướng mới. Điều đó có thể làm cho nó khó hơn để giữ các hệ thống tự động cập nhật.

Cách tiếp cận kết hợp: kết hợp hệ thống AFC dựa trên quy tắc và hệ thống AFC dựa trên trí tuệ nhân tạo

Các tổ chức tài chính có thể kết hợp một cách tiếp cận dựa trên quy tắc với các công cụ trí tuệ nhân tạo để tạo ra một hệ thống nhiều lớp, tận dụng điểm mạnh của cả hai phương pháp. Một hệ thống kết hợp sẽ làm cho việc triển khai trí tuệ nhân tạo chính xác hơn trong dài hạn, và linh hoạt hơn trong việc giải quyết các mối đe dọa tội phạm tài chính mới nổi, mà không hy sinh tính minh bạch.

Để làm điều này, các tổ chức có thể tích hợp các mô hình trí tuệ nhân tạo với phản hồi của con người liên tục. Việc học tập thích nghi của các mô hình sẽ không chỉ phát triển dựa trên các mẫu dữ liệu, mà còn trên đầu vào của con người tinh chỉnh và cân bằng lại nó.

Không tất cả các hệ thống trí tuệ nhân tạo đều giống nhau. Các mô hình trí tuệ nhân tạo nên trải qua thử nghiệm liên tục để đánh giá độ chính xác, công bằng và tuân thủ, với các cập nhật thường xuyên dựa trên các thay đổi quy định và thông tin về mối đe dọa mới được xác định bởi các đội AFC.

Các chuyên gia rủi ro và tuân thủ phải được đào tạo về trí tuệ nhân tạo, hoặc một chuyên gia trí tuệ nhân tạo nên được thuê vào đội, để đảm bảo rằng việc phát triển và triển khai trí tuệ nhân tạo được thực hiện trong certain guardrails. Họ cũng phải phát triển các khuôn khổ tuân thủ chuyên dụng cho trí tuệ nhân tạo, thiết lập một con đường để tuân thủ quy định trong một lĩnh vực mới cho các chuyên gia tuân thủ.

Khi áp dụng trí tuệ nhân tạo, điều quan trọng là tất cả các yếu tố của tổ chức phải được thông báo về khả năng của các mô hình trí tuệ nhân tạo mới mà họ đang làm việc, nhưng cũng về các điểm yếu của chúng (như thiên vị tiềm năng), để làm cho họ nhạy cảm hơn với các lỗi tiềm năng.

Tổ chức của bạn cũng phải xem xét các yếu tố chiến lược khác để bảo tồn an ninh và chất lượng dữ liệu. Điều quan trọng là đầu tư vào cơ sở hạ tầng dữ liệu bảo mật và chất lượng cao, và đảm bảo rằng chúng được đào tạo trên các tập dữ liệu chính xác và đa dạng.

Trí tuệ nhân tạo là và sẽ tiếp tục là cả một công cụ tấn công và phòng thủ cho các ngân hàng. Nhưng họ cần xử lý công nghệ mới mạnh mẽ này một cách chính xác để tránh tạo ra vấn đề thay vì giải quyết chúng.

Gabriella Bussien là CEO tại tổ chức phòng chống tội phạm tài chính công nghệ đầu tiên Trapets, một nhà lãnh đạo thị trường Bắc Âu từ năm 2000. Cô có hơn 20 năm kinh nghiệm mở rộng quy mô kinh doanh và quản lý rủi ro tại các tổ chức bao gồm Morgan Stanley và Thomson Reuters.