Connect with us

Предвження та справедливість систем, заснованих на штучному інтелекті, у сфері фінансових злочинів

Лідери думок

Предвження та справедливість систем, заснованих на штучному інтелекті, у сфері фінансових злочинів

mm

Коли йдеться про боротьбу з фінансовими злочинами, існують виклики, які виходять за межі простого зупинення шахраїв або інших зловмисників.

Деякі з нових, просунутих технологій, які запускаються, часто мають свої власні конкретні проблеми, які повинні бути розглянуті на етапах впровадження для успішної боротьби з шахраями без регуляторних наслідків. У виявленні шахрайства модель справедливості та зміщення даних можуть виникнути, коли система надмірно вагомо представлена або не має представництва певних груп чи категорій даних. Теоретично передбачувальна модель могла б помилково асоціювати прізвища з інших культур з шахрайськими обліковими записами або помилково зменшити ризик у певних сегментах населення для певного типу фінансових операцій.

Предвзяті системи штучного інтелекту можуть становити серйозну загрозу, коли репутації можуть бути затятими, і це відбувається, коли доступні дані не представляють населення або явища дослідження. Ці дані не включають змінні, які належним чином захоплюють явище, яке ми хочемо спрогнозувати. Або, альтернативно, дані можуть включати вміст, створений людьми, який може містити упередженість проти груп людей, успадковану культурними та особистими досвідами, що призводить до спотворення при прийнятті рішень. Хоча спочатку дані можуть здаватися об’єктивними, вони все одно збираються та аналізуються людьми і можуть бути упередженими.

Хоча немає срібної кулі, коли йдеться про усунення небезпеки дискримінації та несправедливості в системах штучного інтелекту або постійних рішень проблеми справедливості та пом’якшення упередженості при проектуванні моделі машинного навчання та використання, ці питання повинні бути розглянуті як для суспільних, так і для бізнес-причин.

Робота правильних речей у штучному інтелекті

Вирішення проблеми упередженості в системах, заснованих на штучному інтелекті, не тільки правильне, але й розумне для бізнесу — і ставки для керівників бізнесу високі. Предвзяті системи штучного інтелекту можуть привести фінансові установи по неправильному шляху шляхом розподілу можливостей, ресурсів, інформації або якості послуг несправедливо. Вони навіть мають потенціал порушувати громадянські свободи, становити загрозу безпеці осіб або впливати на добробут людини, якщо їх сприймають як принижуючі або образливі.

Важливо, щоб підприємства зрозуміли силу та ризики упередженості штучного інтелекту. Хоча часто невідомо установі, упереджена система, заснована на штучному інтелекті, могла б використовувати шкідливі моделі або дані, які розкривають расову чи гендерну упередженість у кредитному рішенні. Інформація, така як імена та стать, могла б бути проксі для категоризації та ідентифікації заявників незаконними способами. Навіть якщо упередженість є ненавмисною, вона все одно ставить організацію під загрозу не виконанням регуляторних вимог і може привести до того, що певні групи людей будуть несправедливо відмовлені в кредитах або лініях кредитування.

На даний момент організації не мають необхідних елементів для успішного пом’якшення упередженості в системах штучного інтелекту. Але з тим, як штучний інтелект все частіше впроваджується в бізнес для інформування рішень, важливо, щоб організації прагнули зменшити упередженість, не тільки з моральних причин, але й для виконання регуляторних вимог і побудови доходів.

“Справедливість-обізнана” культура та впровадження

Рішення, які зосереджені на справедливості-обізнаному проектуванні та впровадженні, матимуть найбільш вигідні результати. Постачальники повинні мати аналітичну культуру, яка розглядає відповідальну збір даних, обробку та управління як необхідні компоненти алгоритмічної справедливості, оскільки якщо результати проекту штучного інтелекту генеруються упередженими, компрометованими або спотвореними наборами даних, постраждалі сторони не будуть належним чином захищені від дискримінаційного шкоди.

Це є елементами справедливості даних, які команди даних повинні мати на увазі:

  • Представництво: залежно від контексту, або недопредставництво, або надпредставництво незаможних чи юридично захищених груп у вибірці даних може привести до системного недопредставлення вразливих сторін у результатах навченої моделі. Для уникнення такого роду селективного зміщення досвід у галузі буде важливим для оцінки відповідності між зібраними або придбаними даними та основним населенням, яке потрібно змоделювати. Технічні члени команди повинні запропонувати засоби для виправлення недопредставництва у вибірці.
  • Придатність та достатність: важливо зрозуміти, чи достатньо зібрані дані для мети проекту. Недостатні набори даних можуть не рівноправно відображати якості, які повинні бути враховані для виробництва виправданого результату, який відповідає бажаній меті системи штучного інтелекту. Відповідно, члени команди проекту з технічними та політичними компетенціями повинні співпрацювати, щоб визначити, чи достатньо кількість даних та придатна для мети.
  • Чистота джерела та точність вимірювання: ефективне пом’якшення упередженості починається з самого початку процесів витягування та збору даних. І джерела, і інструменти вимірювання можуть вводити дискримінаційні чинники в набір даних. Для забезпечення недискримінаційного шкоди вибірка даних повинна мати оптимальну чистоту джерела. Це включає забезпечення або підтвердження того, що процеси збору даних включали придатні, надійні та безсторонні джерела вимірювання та надійні методи збору.
  • Актуальність та свіжість: якщо набори даних включають застарілі дані, то зміни в основному розподілі даних можуть негативно вплинути на загальність навченої моделі. Якщо ці дрейфи розподілу відображають зміни соціальних відносин або групової динаміки, ця втрата точності щодо фактичних характеристик основного населення може ввести упередженість у систему штучного інтелекту. Для попередження дискримінаційних результатів актуальність та свіжість усіх елементів набору даних повинні бути перевірені.
  • Релевантність, придатність та галузева знання: розуміння та використання найбільш придатних джерел та типів даних є важливими для побудови надійної та необізнаної системи штучного інтелекту. Тверде галузеве знання основного розподілу населення та передбачуваної мети проекту є інструментальним для вибору оптимально релевантних вимірювальних входів, які сприяють розумному вирішенню визначеної проблеми. Галузеві експерти повинні співпрацювати близько з командами даних, щоб допомогти визначити оптимально придатні категорії та джерела вимірювання.

Хоча системи, засновані на штучному інтелекті, допомагають у процесах автоматизації рішень та доставляють економію коштів, фінансові установи, які розглядають штучний інтелект як рішення, повинні бути уважними, щоб забезпечити, що упереджені рішення не відбуваються. Лідери з питань дотримання вимог повинні бути у згоді зі своїми командами даних, щоб підтвердити, що можливості штучного інтелекту є відповідальними, ефективними та вільними від упередженості. Маєте стратегію, яка підтримує відповідальний штучний інтелект, це правильне, і це може також забезпечити шлях до дотримання майбутніх регуляцій штучного інтелекту.

Денні Бутвінік є головним вченим-даними в NICE Actimize, забезпечуючи технічне та професійне лідерство. Денні є експертом у галузі штучного інтелекту та науки про дані, маючи авторство численних наукових статей і робіт. На своїй поточній посаді він керує великою групою вчених-даних та сприяє зростанню інновацій та інтелектуальної власності компанії, маючи понад 15 років досвіду у сфері науки про дані та розробки програмного забезпечення.