Lãnh đạo tư tưởng
Xu hướng và sự công bằng của các hệ thống dựa trên AI trong tội phạm tài chính

Khi nói đến việc chống tội phạm tài chính, tồn tại những thách thức vượt ra ngoài phạm vi chỉ đơn thuần là ngăn chặn những kẻ lừa đảo hoặc những kẻ xấu khác.
Một số công nghệ tiên tiến, mới nhất đang được tung ra thường có các vấn đề cụ thể của riêng chúng phải được xem xét trong các giai đoạn áp dụng để chống lại những kẻ lừa đảo thành công mà không bị ảnh hưởng bởi quy định. Trong phát hiện gian lận, tính công bằng của mô hình và sai lệch dữ liệu có thể xảy ra khi một hệ thống có trọng số cao hơn hoặc thiếu đại diện cho một số nhóm hoặc danh mục dữ liệu nhất định. Về lý thuyết, một mô hình dự đoán có thể liên kết sai họ từ các nền văn hóa khác với tài khoản gian lận hoặc giảm rủi ro sai trong các phân khúc dân số đối với một số loại hoạt động tài chính.
Các hệ thống AI thiên vị có thể là mối đe dọa nghiêm trọng khi danh tiếng có thể bị ảnh hưởng và xảy ra khi dữ liệu có sẵn không đại diện cho dân số hoặc hiện tượng khám phá. Dữ liệu này không bao gồm các biến nắm bắt đúng hiện tượng mà chúng tôi muốn dự đoán. Hoặc cách khác, dữ liệu có thể bao gồm nội dung do con người tạo ra có thể chứa thành kiến đối với các nhóm người, do trải nghiệm văn hóa và cá nhân kế thừa, dẫn đến sai lệch khi đưa ra quyết định. Mặc dù lúc đầu, dữ liệu có vẻ khách quan, nhưng nó vẫn được con người thu thập và phân tích, do đó có thể bị sai lệch.
Mặc dù không có giải pháp nào khi nói đến việc khắc phục các nguy cơ phân biệt đối xử và bất công trong hệ thống AI hoặc các giải pháp khắc phục lâu dài cho vấn đề giảm thiểu sự công bằng và thiên vị trong việc xây dựng và sử dụng mô hình học máy, nhưng những vấn đề này phải được xem xét cho cả xã hội và lý do kinh doanh.
Làm điều đúng đắn trong AI
Giải quyết sự thiên vị trong các hệ thống dựa trên AI không chỉ là điều đúng đắn mà còn là điều thông minh đối với doanh nghiệp — và rủi ro đối với các nhà lãnh đạo doanh nghiệp là rất cao. Các hệ thống AI thiên vị có thể dẫn các tổ chức tài chính đi sai đường bằng cách phân bổ cơ hội, nguồn lực, thông tin hoặc chất lượng dịch vụ một cách không công bằng. Chúng thậm chí có khả năng xâm phạm các quyền tự do dân sự, gây tổn hại đến sự an toàn của các cá nhân hoặc ảnh hưởng đến hạnh phúc của một người nếu bị coi là miệt thị hoặc xúc phạm.
Điều quan trọng đối với các doanh nghiệp là hiểu được sức mạnh và rủi ro của sự thiên vị AI. Mặc dù tổ chức thường không biết, nhưng một hệ thống dựa trên AI thiên vị có thể đang sử dụng các mô hình hoặc dữ liệu bất lợi cho thấy sự thiên vị về chủng tộc hoặc giới tính trong quyết định cho vay. Thông tin như tên và giới tính có thể là đại diện để phân loại và xác định người nộp đơn theo những cách bất hợp pháp. Ngay cả khi sự thiên vị là không cố ý, nó vẫn khiến tổ chức gặp rủi ro do không tuân thủ các yêu cầu quy định và có thể dẫn đến việc một số nhóm người nhất định bị từ chối các khoản vay hoặc hạn mức tín dụng một cách không công bằng.
Hiện tại, các tổ chức không có sẵn các bộ phận để giảm thiểu thành công sự thiên vị trong các hệ thống AI. Nhưng với việc AI ngày càng được triển khai trên khắp các doanh nghiệp để đưa ra các quyết định, điều quan trọng là các tổ chức phải cố gắng giảm thiểu sự thiên vị, không chỉ vì lý do đạo đức mà còn để tuân thủ các yêu cầu quy định và tăng doanh thu.
Văn hóa và Thực hiện “Nhận thức Công bằng”
Các giải pháp tập trung vào thiết kế và triển khai nhận thức được sự công bằng sẽ mang lại kết quả có lợi nhất. Các nhà cung cấp nên có văn hóa phân tích coi việc thu thập, xử lý và quản lý dữ liệu có trách nhiệm là các thành phần cần thiết của sự công bằng trong thuật toán, bởi vì nếu kết quả của một dự án AI được tạo ra bởi các tập dữ liệu sai lệch, bị xâm phạm hoặc sai lệch, thì các bên bị ảnh hưởng sẽ không được bảo vệ đầy đủ khỏi phân biệt đối xử gây hại.
Đây là những yếu tố của sự công bằng dữ liệu mà các nhóm khoa học dữ liệu phải ghi nhớ:
- Tính đại diện:Tùy thuộc vào bối cảnh, việc đại diện quá ít hoặc quá mức của các nhóm thiệt thòi hoặc được bảo vệ hợp pháp trong mẫu dữ liệu có thể dẫn đến việc gây bất lợi một cách có hệ thống cho các bên dễ bị tổn thương trong kết quả của mô hình được đào tạo. Để tránh các loại sai lệch lấy mẫu như vậy, kiến thức chuyên môn về lĩnh vực sẽ rất quan trọng để đánh giá mức độ phù hợp giữa dữ liệu được thu thập hoặc có được với dân số cơ bản được lập mô hình. Các thành viên nhóm kỹ thuật nên đưa ra các biện pháp khắc phục để sửa các sai sót trong việc lấy mẫu.
- Phù hợp với mục đích và đủ: Điều quan trọng là phải hiểu liệu dữ liệu được thu thập có đủ cho mục đích dự định của dự án hay không. Bộ dữ liệu không đầy đủ có thể không phản ánh một cách công bằng các phẩm chất cần được cân nhắc để tạo ra kết quả hợp lý phù hợp với mục đích mong muốn của hệ thống AI. Theo đó, các thành viên của nhóm dự án có năng lực kỹ thuật và chính sách nên hợp tác để xác định xem số lượng dữ liệu có đủ và phù hợp với mục đích hay không.
- Tính toàn vẹn của nguồn và độ chính xác của phép đo:Giảm thiểu sai lệch hiệu quả bắt đầu ngay từ khi bắt đầu quá trình thu thập và trích xuất dữ liệu. Cả nguồn và công cụ đo lường đều có thể đưa các yếu tố phân biệt đối xử vào tập dữ liệu. Để đảm bảo không gây hại do phân biệt đối xử, mẫu dữ liệu phải có tính toàn vẹn nguồn tối ưu. Điều này liên quan đến việc đảm bảo hoặc xác nhận rằng các quy trình thu thập dữ liệu liên quan đến các nguồn đo lường phù hợp, đáng tin cậy và vô tư cũng như các phương pháp thu thập mạnh mẽ.
- Kịp thời và gần đây: Nếu bộ dữ liệu bao gồm dữ liệu lỗi thời, thì những thay đổi trong phân phối dữ liệu cơ bản có thể ảnh hưởng xấu đến khả năng khái quát hóa của mô hình được đào tạo. Với điều kiện những sự trôi dạt về mặt phân phối này phản ánh sự thay đổi trong mối quan hệ xã hội hoặc động lực của nhóm, việc mất đi độ chính xác liên quan đến các đặc điểm thực tế của dân số cơ bản có thể dẫn đến sự sai lệch trong hệ thống AI. Để ngăn chặn kết quả phân biệt đối xử, tính kịp thời và tính mới của tất cả các yếu tố của bộ dữ liệu nên được xem xét kỹ lưỡng.
- Mức độ phù hợp, phù hợp và kiến thức miền: Việc hiểu và sử dụng các nguồn và loại dữ liệu phù hợp nhất là rất quan trọng để xây dựng một hệ thống AI mạnh mẽ và không thiên vị. Kiến thức miền vững chắc về phân bố dân số cơ bản và về mục tiêu dự đoán của dự án, là công cụ để lựa chọn các đầu vào đo lường có liên quan tối ưu góp phần vào độ phân giải hợp lý của giải pháp đã xác định. Các chuyên gia miền nên hợp tác chặt chẽ với các nhóm khoa học dữ liệu để hỗ trợ xác định các danh mục và nguồn đo lường phù hợp tối ưu.
Mặc dù các hệ thống dựa trên AI hỗ trợ quá trình tự động hóa ra quyết định và tiết kiệm chi phí, nhưng các tổ chức tài chính coi AI là một giải pháp phải thận trọng để đảm bảo các quyết định thiên vị không diễn ra. Các nhà lãnh đạo tuân thủ nên sát cánh cùng nhóm khoa học dữ liệu của họ để xác nhận rằng các khả năng của AI là có trách nhiệm, hiệu quả và không thiên vị. Có một chiến lược ủng hộ AI có trách nhiệm là điều nên làm và nó cũng có thể cung cấp một lộ trình để tuân thủ các quy định về AI trong tương lai.