Pemimpin pemikiran
AI dan Pencegahan Kejahatan Keuangan: Mengapa Bank Memerlukan Pendekatan Seimbang
AI adalah sebuah koin bermata dua bagi bank: sementara itu membuka banyak kemungkinan untuk operasi yang lebih efisien, itu juga dapat menimbulkan risiko eksternal dan internal.
Para penjahat keuangan menggunakan teknologi ini untuk menghasilkan video deepfake, suara dan dokumen palsu yang dapat melewati deteksi komputer dan manusia, atau untuk meningkatkan kegiatan penipuan email. Di Amerika Serikat saja, AI generatif diperkirakan akan mempercepat kerugian penipuan hingga tingkat pertumbuhan tahunan sebesar 32%, mencapai US$40 miliar pada tahun 2027, menurut laporan terbaru dari Deloitte.
Mungkin, maka, respon dari bank harus dengan menguatkan diri mereka dengan alat yang lebih baik, dengan mengintegrasikan AI di seluruh upaya pencegahan kejahatan keuangan. Lembaga keuangan sebenarnya mulai menerapkan AI dalam upaya anti-kejahatan keuangan (AFC) – untuk memantau transaksi, menghasilkan laporan aktivitas mencurigakan, mengotomatisasi deteksi penipuan dan lain-lain. Ini memiliki potensi untuk mempercepat proses sambil meningkatkan akurasi.
Masalahnya adalah ketika bank tidak menyeimbangkan implementasi AI dengan penilaian manusia. Tanpa campur tangan manusia, adopsi AI dapat mempengaruhi kepatuhan, bias, dan kemampuan beradaptasi dengan ancaman baru.
Kami percaya pada pendekatan hati-hati, hibrida untuk adopsi AI di sektor keuangan, yang akan terus memerlukan input manusia.
Perbedaan antara sistem AFC berbasis aturan dan sistem AFC berbasis AI
Secara tradisional, AFC – dan khususnya sistem anti-pencucian uang (AML) – telah beroperasi dengan aturan tetap yang ditetapkan oleh tim kepatuhan sebagai respons terhadap peraturan. Dalam kasus pemantauan transaksi, misalnya, aturan-aturan ini diterapkan untuk mengidentifikasi transaksi berdasarkan kriteria pra-definisi tertentu, seperti ambang batas jumlah transaksi atau faktor risiko geografis.
AI menyajikan cara baru untuk menyaring risiko kejahatan keuangan. Model pembelajaran mesin dapat digunakan untuk mendeteksi pola mencurigakan berdasarkan serangkaian dataset yang terus berkembang. Sistem menganalisis transaksi, data historis, perilaku pelanggan, dan data kontekstual untuk memantau apa pun yang mencurigakan, sambil belajar seiring waktu, menawarkan pemantauan kejahatan yang adaptif dan potensial lebih efektif.
Namun, sementara sistem berbasis aturan dapat diprediksi dan mudah diaudit, sistem berbasis AI memperkenalkan elemen “black box” yang kompleks karena proses pengambilan keputusan yang tidak transparan. Lebih sulit untuk melacak alasan sistem AI untuk mengidentifikasi perilaku tertentu sebagai mencurigakan, mengingat bahwa banyak elemen yang terlibat. Ini dapat menyebabkan sistem AI mencapai kesimpulan tertentu berdasarkan kriteria yang sudah ketinggalan zaman, atau menyediakan wawasan yang tidak tepat, tanpa ini segera terdeteksi. Ini juga dapat menyebabkan masalah bagi kepatuhan regulasi lembaga keuangan.
Tantangan Regulasi yang Mungkin
Lembaga keuangan harus mematuhi standar regulasi yang ketat, seperti AMLD Uni Eropa dan Bank Secrecy Act Amerika Serikat, yang mengamanatkan pengambilan keputusan yang jelas dan dapat dilacak. Sistem AI, terutama model pembelajaran dalam, dapat sulit untuk diinterpretasikan.
Untuk memastikan akuntabilitas saat mengadopsi AI, bank memerlukan perencanaan yang hati-hati, pengujian yang menyeluruh, kerangka kepatuhan khusus dan pengawasan manusia. Manusia dapat memvalidasi keputusan otomatis dengan, misalnya, menafsirkan alasan di balik transaksi yang diidentifikasi, membuatnya dapat dijelaskan dan dipertahankan kepada regulator.
Lembaga keuangan juga semakin dipaksa untuk menggunakan Explainable AI (XAI) untuk membuat keputusan yang didorong oleh AI dapat dipahami oleh regulator dan auditor. XAI adalah proses yang memungkinkan manusia untuk memahami output sistem AI dan pengambilan keputusan yang mendasarinya.
Penghakiman Manusia Diperlukan untuk Pandangan Holistik
Adopsi AI tidak dapat menyebabkan kemandekan dengan sistem otomatis. Analis manusia membawa konteks dan penilaian yang AI tidak miliki, memungkinkan pengambilan keputusan yang nuansa dalam kasus yang kompleks atau ambigu, yang tetap penting dalam investigasi AFC.
Di antara risiko ketergantungan pada AI adalah kemungkinan kesalahan (misalnya, positif palsu, negatif palsu) dan bias. AI dapat rentan terhadap positif palsu jika model tidak dioptimalkan dengan baik, atau dilatih pada data yang bias. Sementara manusia juga rentan terhadap bias, risiko tambahan dari AI adalah bahwa dapat sulit untuk mengidentifikasi bias dalam sistem.
Selain itu, model AI berjalan pada data yang diberikan kepada mereka – mereka mungkin tidak menangkap pola mencurigakan yang baru atau jarang di luar tren sejarah, atau berdasarkan wawasan dunia nyata. Penggantian sistem berbasis aturan dengan AI dapat meninggalkan titik buta dalam pemantauan AFC.
Dalam kasus bias, ambiguitas atau kebaruannya, AFC memerlukan mata yang tajam yang AI tidak dapat menyediakan. Pada saat yang sama, jika kita menghilangkan manusia dari proses, itu dapat sangat menghambat kemampuan tim Anda untuk memahami pola kejahatan keuangan, mengidentifikasi pola, dan mengenali tren yang muncul. Sebaliknya, itu dapat membuatnya lebih sulit untuk menjaga sistem otomatis tetap mutakhir.
Pendekatan Hibrida: Menggabungkan Sistem AFC Berbasis Aturan dan Sistem AFC Berbasis AI
Lembaga keuangan dapat menggabungkan pendekatan berbasis aturan dengan alat AI untuk menciptakan sistem multilayer yang memanfaatkan kekuatan kedua pendekatan. Sistem hibrida akan membuat implementasi AI lebih akurat dalam jangka panjang, dan lebih fleksibel dalam mengatasi ancaman kejahatan keuangan yang muncul, tanpa mengorbankan transparansi.
Untuk melakukan ini, lembaga dapat mengintegrasikan model AI dengan umpan balik manusia yang berkelanjutan. Pembelajaran adaptif model akan tumbuh tidak hanya berdasarkan pola data, tetapi juga pada input manusia yang memperbarui dan menyeimbangkan.
Tidak semua sistem AI sama. Model AI harus menjalani pengujian terus-menerus untuk mengevaluasi akurasi, keadilan, dan kepatuhan, dengan pembaruan reguler berdasarkan perubahan regulasi dan intelijen ancaman baru yang diidentifikasi oleh tim AFC.
Ahli risiko dan kepatuhan harus dilatih dalam AI, atau ahli AI harus dipekerjakan di tim, untuk memastikan bahwa pengembangan dan penerapan AI dilakukan dalam batasan tertentu. Mereka juga harus mengembangkan kerangka kepatuhan khusus untuk AI, membentuk jalur untuk kepatuhan regulasi di sektor yang muncul untuk ahli kepatuhan.
Sebagai bagian dari adopsi AI, penting bahwa semua elemen organisasi diberi tahu tentang kemampuan model AI baru yang mereka gunakan, tetapi juga kelemahannya (seperti potensi bias), untuk membuat mereka lebih peka terhadap kesalahan potensial.
Organisasi Anda juga harus membuat pertimbangan strategis lainnya untuk menjaga keamanan dan kualitas data. Sangat penting untuk berinvestasi pada infrastruktur data yang aman dan berkualitas tinggi dan memastikan bahwa mereka dilatih pada dataset yang akurat dan beragam.
AI adalah dan akan terus menjadi baik ancaman maupun alat pertahanan bagi bank. Tapi mereka perlu menangani teknologi baru yang kuat ini dengan benar untuk menghindari menciptakan masalah daripada memecahkannya.










