Connect with us

Sự thiên vị và Công bằng của Hệ thống Dựa trên Trí tuệ Nhân tạo Trong Tội phạm Tài chính

Lãnh đạo tư tưởng

Sự thiên vị và Công bằng của Hệ thống Dựa trên Trí tuệ Nhân tạo Trong Tội phạm Tài chính

mm

Khi nói đến việc chống lại tội phạm tài chính, những thách thức tồn tại vượt ra ngoài phạm vi đơn giản là ngăn chặn những kẻ lừa đảo hoặc các tác nhân xấu khác.

Một số công nghệ tiên tiến nhất đang được ra mắt thường có những vấn đề cụ thể của riêng chúng mà phải được xem xét trong quá trình áp dụng để thành công trong việc chống lại những kẻ lừa đảo mà không có hậu quả pháp lý. Trong việc phát hiện gian lận, sự công bằng của mô hình và thiên vị dữ liệu có thể xảy ra khi một hệ thống bị nặng hơn hoặc thiếu đại diện của某些 nhóm hoặc loại dữ liệu. Về lý thuyết, một mô hình dự đoán có thể sai lầm liên kết họ của những người từ các nền văn hóa khác với tài khoản gian lận, hoặc giảm sai rủi ro trong các phân khúc dân số cho một số loại hoạt động tài chính.

Các hệ thống trí tuệ nhân tạo thiên vị có thể đại diện cho một mối đe dọa nghiêm trọng khi danh tiếng có thể bị ảnh hưởng và xảy ra khi dữ liệu có sẵn không đại diện cho dân số hoặc hiện tượng được khám phá. Dữ liệu này không bao gồm các biến số phù hợp để nắm bắt hiện tượng chúng ta muốn dự đoán. Hoặc thay thế, dữ liệu có thể bao gồm nội dung được tạo ra bởi con người, có thể chứa thiên vị chống lại các nhóm người, được thừa kế từ kinh nghiệm văn hóa và cá nhân, dẫn đến sự sai lệch khi đưa ra quyết định. Mặc dù ban đầu dữ liệu có vẻ khách quan, nhưng nó vẫn được thu thập và phân tích bởi con người, và do đó có thể bị thiên vị.

Mặc dù không có giải pháp hoàn hảo khi nói đến việc khắc phục những nguy cơ của sự phân biệt đối xử và sự không công bằng trong các hệ thống trí tuệ nhân tạo hoặc các giải pháp vĩnh viễn cho vấn đề về sự công bằng và giảm thiểu thiên vị trong việc xây dựng mô hình học máy và sử dụng, những vấn đề này phải được xem xét cho cả lý do xã hội và kinh doanh.

Làm Điều Đúng Trong Trí tuệ Nhân tạo

Xử lý thiên vị trong các hệ thống dựa trên trí tuệ nhân tạo không chỉ là điều đúng, mà còn là điều thông minh cho kinh doanh — và các cổ đông kinh doanh có mức độ rủi ro cao. Các hệ thống trí tuệ nhân tạo thiên vị có thể dẫn các tổ chức tài chính đi theo con đường sai lầm bằng cách phân bổ cơ hội, tài nguyên, thông tin hoặc chất lượng dịch vụ không công bằng. Chúng thậm chí có thể xâm phạm các quyền dân sự, gây nguy hiểm cho sự an toàn của cá nhân, hoặc ảnh hưởng đến sự thịnh vượng của một người nếu được coi là miệt thị hoặc xúc phạm.

Điều quan trọng là các doanh nghiệp phải hiểu được sức mạnh và rủi ro của thiên vị trí tuệ nhân tạo. Mặc dù thường không được biết đến bởi tổ chức, một hệ thống trí tuệ nhân tạo thiên vị có thể sử dụng các mô hình hoặc dữ liệu có hại, lộ thiên vị chủng tộc hoặc giới tính vào quyết định cho vay. Thông tin như tên và giới tính có thể là các đại diện để phân loại và xác định người nộp đơn theo cách bất hợp pháp. Ngay cả khi thiên vị là không cố ý, nó vẫn đặt tổ chức vào rủi ro bằng cách không tuân thủ các yêu cầu pháp lý và có thể dẫn đến một số nhóm người bị từ chối khoản vay hoặc tín dụng một cách không công bằng.

Hiện tại, các tổ chức không có các phần cần thiết để thành công trong việc giảm thiểu thiên vị trong các hệ thống trí tuệ nhân tạo. Nhưng với trí tuệ nhân tạo ngày càng được triển khai trên các doanh nghiệp để thông báo quyết định, điều quan trọng là các tổ chức phải phấn đấu để giảm thiên vị, không chỉ vì lý do đạo đức, mà còn để tuân thủ các yêu cầu pháp lý và xây dựng doanh thu.

“Công bằng-Nhận thức” Văn hóa và Triển khai

Các giải pháp tập trung vào thiết kế và triển khai công bằng sẽ có kết quả có lợi nhất. Các nhà cung cấp nên có một văn hóa phân tích xem xét việc thu thập, xử lý và quản lý dữ liệu có trách nhiệm là các thành phần cần thiết của sự công bằng của thuật toán, vì nếu kết quả của một dự án trí tuệ nhân tạo được tạo ra bởi các tập dữ liệu thiên vị, bị tổn hại hoặc bị sai lệch, các bên liên quan sẽ không được bảo vệ đầy đủ khỏi tổn hại phân biệt.
Các yếu tố của sự công bằng dữ liệu mà các nhóm khoa học dữ liệu phải ghi nhớ:

  • Đại diện:Tùy thuộc vào ngữ cảnh, việc đại diện dưới hoặc quá mức của các nhóm hoặc loại dữ liệu bị thiệt thòi hoặc được pháp luật bảo vệ trong mẫu dữ liệu có thể dẫn đến việc thiệt thòi hệ thống cho các bên yếu thế trong kết quả của mô hình được đào tạo. Để tránh những loại thiên vị lấy mẫu như vậy, chuyên môn lĩnh vực sẽ rất quan trọng để đánh giá sự phù hợp giữa dữ liệu thu thập hoặc mua và dân số cơ bản được mô hình hóa. Các thành viên trong nhóm kỹ thuật nên cung cấp các phương tiện để khắc phục các khiếm khuyết về đại diện trong mẫu.
  • Phù hợp và đủ:Điều quan trọng là phải hiểu liệu dữ liệu thu thập có đủ cho mục đích dự án hay không. Các tập dữ liệu không đủ có thể không phản ánh công bằng các đặc điểm mà nên được cân nhắc để tạo ra một kết quả hợp lý phù hợp với mục đích mong muốn của hệ thống trí tuệ nhân tạo. Do đó, các thành viên trong nhóm dự án với các năng lực kỹ thuật và chính sách nên cộng tác để xác định xem lượng dữ liệu có đủ và phù hợp cho mục đích.
  • Tính toàn vẹn của nguồn và độ chính xác của đo lường:Giảm thiểu thiên vị hiệu quả bắt đầu từ đầu quá trình trích xuất và thu thập dữ liệu. Cả nguồn và công cụ đo lường có thể giới thiệu các yếu tố phân biệt vào một tập dữ liệu. Để đảm bảo không gây hại phân biệt, mẫu dữ liệu phải có tính toàn vẹn của nguồn tối ưu. Điều này liên quan đến việc đảm bảo hoặc xác nhận rằng các quá trình thu thập dữ liệu liên quan đến các nguồn đo lường phù hợp, đáng tin cậy và không thiên vị.
  • Thời gian và tính mới:Nếu các tập dữ liệu bao gồm dữ liệu đã lỗi thời, thì các thay đổi trong phân phối dữ liệu cơ bản có thể ảnh hưởng tiêu cực đến tính tổng quát của mô hình được đào tạo. Nếu những thay đổi này phản ánh sự thay đổi trong mối quan hệ xã hội hoặc động lực nhóm, sự mất độ chính xác này về các đặc điểm thực sự của dân số cơ bản có thể giới thiệu thiên vị vào hệ thống trí tuệ nhân tạo. Trong việc ngăn chặn các kết quả phân biệt, tính mới và thời gian của tất cả các yếu tố của tập dữ liệu nên được xem xét.
  • Phù hợp, tính hợp lý và kiến thức lĩnh vực:Sự hiểu biết và sử dụng các nguồn và loại dữ liệu phù hợp nhất là rất quan trọng để xây dựng một hệ thống trí tuệ nhân tạo mạnh mẽ và không thiên vị. Kiến thức lĩnh vực vững chắc về phân phối dân số cơ bản và về mục tiêu dự đoán của dự án là rất quan trọng để chọn các đầu vào đo lường tối ưu có đóng góp cho việc giải quyết hợp lý của giải pháp được xác định. Các chuyên gia lĩnh vực nên cộng tác chặt chẽ với các nhóm khoa học dữ liệu để hỗ trợ trong việc xác định các loại và nguồn đo lường phù hợp nhất.

Mặc dù các hệ thống dựa trên trí tuệ nhân tạo hỗ trợ trong việc tự động hóa quy trình quyết định và mang lại tiết kiệm chi phí, các tổ chức tài chính xem xét trí tuệ nhân tạo như một giải pháp phải cảnh giác để đảm bảo rằng các quyết định thiên vị không xảy ra. Các nhà lãnh đạo tuân thủ phải đi cùng với nhóm khoa học dữ liệu của họ để xác nhận rằng các khả năng trí tuệ nhân tạo là có trách nhiệm, hiệu quả và không thiên vị. Có một chiến lược ủng hộ trí tuệ nhân tạo có trách nhiệm là điều đúng, và nó cũng có thể cung cấp một con đường để tuân thủ các quy định trí tuệ nhân tạo trong tương lai.

Danny Butvinik là Chief Data Scientist tại NICE Actimize, cung cấp lãnh đạo kỹ thuật và chuyên môn. Danny là một chuyên gia về trí tuệ nhân tạo và khoa học dữ liệu, đã viết nhiều bài báo và giấy khoa học. Trong vai trò hiện tại, ông quản lý một nhóm lớn các nhà khoa học dữ liệu và đóng góp vào sự tăng trưởng của đổi mới và tài sản trí tuệ của công ty, với hơn 15 năm kinh nghiệm nghiên cứu, phát triển và quản lý trong lĩnh vực khoa học dữ liệu và phát triển phần mềm.