Pemimpin pemikiran
Bias dan Keadilan Sistem Berbasis AI dalam Kejahatan Keuangan

Ketika datang untuk melawan kejahatan keuangan, tantangan ada yang melampaui ruang lingkup hanya menghentikan penipu atau aktor jahat lainnya.
Beberapa teknologi terbaru dan canggih yang diluncurkan sering memiliki masalah spesifik yang harus dipertimbangkan selama tahap adopsi untuk berhasil melawan penipu tanpa dampak regulasi. Dalam deteksi penipuan, keadilan model dan bias data dapat terjadi ketika sistem lebih berat atau kekurangan representasi dari kelompok atau kategori data tertentu. Secara teori, model prediktif bisa salah mengasosiasikan nama belakang dari budaya lain dengan akun penipuan, atau salah mengurangi risiko dalam segmen populasi untuk jenis kegiatan keuangan tertentu.
Sistem AI yang bias dapat mewakili ancaman serius ketika reputasi dapat dipengaruhi dan terjadi ketika data yang tersedia tidak representatif dari populasi atau fenomena yang sedang dieksplorasi. Data ini tidak termasuk variabel yang tepat untuk menangkap fenomena yang ingin diprediksi. Atau alternatif, data bisa termasuk konten yang dihasilkan oleh manusia yang mungkin mengandung bias terhadap kelompok orang, yang diwariskan oleh pengalaman budaya dan pribadi, yang menyebabkan distorsi ketika membuat keputusan. Sementara pada awalnya data mungkin tampak objektif, data masih dikumpulkan dan dianalisis oleh manusia, dan oleh karena itu dapat bias.
Sementara tidak ada solusi ajaib ketika datang untuk memperbaiki bahaya diskriminasi dan ketidakadilan dalam sistem AI atau perbaikan permanen untuk masalah keadilan dan mitigasi bias dalam merancang model pembelajaran mesin dan penggunaan, masalah ini harus dipertimbangkan untuk alasan sosial dan bisnis.
Melakukan Hal yang Benar dalam AI
Mengatasi bias dalam sistem berbasis AI tidak hanya hal yang benar, tetapi juga hal yang cerdas untuk bisnis — dan taruhan untuk pemimpin bisnis sangat tinggi. Sistem AI yang bias dapat memimpin lembaga keuangan ke jalan yang salah dengan mengalokasikan kesempatan, sumber daya, informasi atau kualitas layanan secara tidak adil. Mereka bahkan memiliki potensi untuk melanggar hak sipil, membahayakan keselamatan individu, atau mempengaruhi kesejahteraan seseorang jika dianggap merendahkan atau menyinggung.
Sangat penting bagi perusahaan untuk memahami kekuatan dan risiko bias AI. Meskipun sering tidak diketahui oleh lembaga, sistem AI berbasis yang bias bisa menggunakan model atau data yang merugikan yang mengungkapkan bias ras atau jenis kelamin ke dalam keputusan pemberian kredit. Informasi seperti nama dan jenis kelamin bisa menjadi proksi untuk mengkategorikan dan mengidentifikasi pelamar dengan cara ilegal. Bahkan jika bias tidak disengaja, itu masih membuat organisasi berisiko dengan tidak memenuhi persyaratan regulasi dan bisa menyebabkan kelompok orang tertentu secara tidak adil ditolak pinjaman atau kredit.
Saat ini, organisasi tidak memiliki potongan yang tepat untuk berhasil memitigasi bias dalam sistem AI. Tapi dengan AI yang semakin banyak diterapkan di seluruh bisnis untuk memandu keputusan, sangat penting bagi organisasi untuk berusaha mengurangi bias, tidak hanya untuk alasan moral, tetapi juga untuk memenuhi persyaratan regulasi dan membangun pendapatan.
Budaya dan Implementasi “Fairness-Aware”
Solusi yang berfokus pada desain dan implementasi fairness-aware akan memiliki hasil yang paling bermanfaat. Penyedia harus memiliki budaya analitis yang mempertimbangkan akuisisi data yang bertanggung jawab, penanganan, dan manajemen sebagai komponen penting dari keadilan algoritmik, karena jika hasil proyek AI dihasilkan oleh dataset yang bias, kompromi, atau miring, pihak yang terkena dampak tidak akan dilindungi dari kerusakan diskriminatif.
Ini adalah elemen keadilan data yang tim sains data harus pertimbangkan:
- Representativitas:Tergantung pada konteks, baik underrepresentasi atau overrepresentasi kelompok yang kurang beruntung atau kelompok yang dilindungi hukum dalam sampel data dapat menyebabkan kelompok yang rentan secara sistematis dirugikan dalam hasil model yang dilatih. Untuk menghindari jenis bias sampling, keahlian domain akan sangat penting untuk menilai kesesuaian antara data yang dikumpulkan atau diperoleh dan populasi yang mendasarinya yang akan dimodelkan. Anggota tim teknis harus menawarkan sarana untuk memperbaiki kekurangan representatif dalam sampling.
- Cocok untuk Tujuan dan Kecukupan:Sangat penting untuk memahami apakah data yang dikumpulkan cukup untuk tujuan proyek yang dimaksud. Dataset yang tidak mencukupi mungkin tidak mencerminkan kualitas yang seharusnya dipertimbangkan untuk menghasilkan hasil yang dibenarkan yang konsisten dengan tujuan sistem AI yang diinginkan. Oleh karena itu, anggota tim proyek dengan kompetensi teknis dan kebijakan harus bekerja sama untuk menentukan apakah kuantitas data cukup dan cocok untuk tujuan.
- Integritas Sumber dan Akurasi Pengukuran:Mitigasi bias yang efektif dimulai dari awal proses ekstraksi dan pengumpulan data. Sumber dan alat pengukuran dapat memperkenalkan faktor diskriminatif ke dalam dataset. Untuk memastikan tidak ada kerusakan diskriminatif, sampel data harus memiliki integritas sumber yang optimal. Ini melibatkan memastikan atau mengkonfirmasi bahwa proses pengumpulan data melibatkan sumber pengukuran yang sesuai, handal, dan tidak memihak, serta metode pengumpulan yang kuat.
- Ketepatan Waktu dan Kecanggihan:Jika dataset termasuk data yang sudah ketinggalan zaman, maka perubahan dalam distribusi data yang mendasarinya dapat mempengaruhi generalisasi model yang dilatih. Jika pergeseran distribusi ini mencerminkan perubahan hubungan sosial atau dinamika kelompok, maka kehilangan akurasi mengenai karakteristik sebenarnya dari populasi yang mendasarinya dapat memperkenalkan bias ke dalam sistem AI. Dalam mencegah hasil diskriminatif, ketepatan waktu dan kecanggihan dari semua elemen dataset harus diperiksa.
- Relevansi, Kelayakan, dan Pengetahuan Domain:Pemahaman dan penggunaan sumber dan jenis data yang paling sesuai sangat penting untuk membangun sistem AI yang kuat dan tidak bias. Pengetahuan domain yang solid tentang distribusi populasi yang mendasarinya dan tujuan prediktif proyek sangat penting untuk memilih input pengukuran yang paling relevan yang berkontribusi pada resolusi solusi yang masuk akal. Ahli domain harus bekerja sama erat dengan tim sains data untuk membantu menentukan kategori dan sumber pengukuran yang paling sesuai.
Sementara sistem berbasis AI membantu dalam proses otomatisasi pengambilan keputusan dan memberikan penghematan biaya, lembaga keuangan yang mempertimbangkan AI sebagai solusi harus waspada untuk memastikan keputusan yang bias tidak terjadi. Pemimpin kepatuhan harus berada dalam langkah yang sama dengan tim sains data mereka untuk mengkonfirmasi bahwa kemampuan AI bertanggung jawab, efektif, dan bebas dari bias. Memiliki strategi yang mempromosikan AI yang bertanggung jawab adalah hal yang benar untuk dilakukan, dan itu juga dapat menyediakan jalur untuk memenuhi regulasi AI di masa depan.












