Connect with us

Штучний інтелект і запобігання фінансовим злочинам: Чому банкам потрібен збалансований підхід

Лідери думок

Штучний інтелект і запобігання фінансовим злочинам: Чому банкам потрібен збалансований підхід

mm

Штучний інтелект – це двостороння монета для банків: хоча він відкриває багато можливостей для більш ефективних операцій, він також може становити зовнішні та внутрішні ризики.

Фінансові злочинці використовують цю технологію для виробництва відео з глибокими підробками, голосів і фальшивих документів, які можуть обійти комп’ютерну та людську перевірку, або для посилення діяльності електронної пошти. Sadece в США генеративний штучний інтелект очікується прискорити втрати від шахрайства на 32% щорічно, досягнувши 40 мільярдів доларів США до 2027 року, згідно з недавнім звітом Deloitte.

Можливо, тому відповідь банків повинна полягати в тому, щоб озброїтися ще кращими інструментами, використовуючи штучний інтелект у сфері запобігання фінансовим злочинам. Фінансові установи вже починають розгортати штучний інтелект у зусиллях з протидії фінансовим злочинам (ПФЗ) – для моніторингу транзакцій, генерації звітів про підозрілу діяльність, автоматизації виявлення шахрайства та інше. Це має потенціал прискорити процеси, підвищуючи точність.

Проблема полягає в тому, що банки не балансують впровадження штучного інтелекту з людською увагою. Без людини в циклі впровадження штучного інтелекту може вплинути на дотримання законодавства, упередженість та адаптивність до нових загроз.

Ми віримо в обережний, гібридний підхід до впровадження штучного інтелекту в фінансовому секторі, який продовжуватиме вимагати людського втручання.

Відмінність між системами ПФЗ, заснованими на правилах, і системами, керованими штучним інтелектом

Традиційно системи ПФЗ – і, зокрема, системи проти відмивання грошей (ПОВГ) – працювали з фіксованими правилами, встановленими командами з дотримання законодавства у відповідь на нормативні акти. У випадку моніторингу транзакцій, наприклад, ці правила реалізовані для позначення транзакцій на основі конкретних попередньо визначених критеріїв, таких як пороги суми транзакції або географічні фактори ризику.

Штучний інтелект пропонує новий спосіб скринінгу фінансових ризиків. Моделі машинного навчання можна використовувати для виявлення підозрілих моделей на основі серії наборів даних, які постійно еволюціонують. Система аналізує транзакції, історичні дані, поведінку клієнтів та контекстні дані для моніторингу підозрілої діяльності, вивчаючи за час, пропонуючи адаптивний і потенційно більш ефективний моніторинг злочинності.

Однак, хоча системи, засновані на правилах, передбачувані та легко аудитуємі, системи, керовані штучним інтелектом, вводять складний “чорний ящик” через непрозорі процеси прийняття рішень. Це важче відстежити理由 системи штучного інтелекту для позначення певної поведінки як підозрілої, оскільки залучено багато елементів. Це також може спричинити проблеми для дотримання законодавства фінансовими установами.

Можливі нормативні виклики

Фінансові установи повинні дотримуватися суворих нормативних стандартів, таких як директива ЄС ПОВГ та закон США Про секретність банку, які вимагають чіткого, простежуваного прийняття рішень. Системи штучного інтелекту, особливо глибокі моделі навчання, можуть бути важкими для інтерпретації.

Для забезпечення підзвітності під час впровадження штучного інтелекту банкам потрібно ретельне планування, повне тестування, спеціальні рамки дотримання законодавства та людський нагляд. Люди можуть підтвердити автоматичні рішення, наприклад, інтерпретуючи理由 позначення транзакції, роблячи її зрозумілою та обґрунтованою для регуляторів.

Фінансові установи також піддаються зростаючому тиску щодо використання інструментів пояснюваного штучного інтелекту (ПШІ) для того, щоб зробити рішення, керовані штучним інтелектом, зрозумілими регуляторам та аудиторам. ПШІ – це процес, який дозволяє людям зрозуміти вивід системи штучного інтелекту та її основне прийняття рішень.

Людська увага необхідна для цілісного огляду

Впровадження штучного інтелекту не повинно призводити до самозадоволеності автоматизованими системами. Людські аналітики приносять контекст і суждення, яких бракує штучному інтелекту, дозволяючи здійснювати нюансовані рішення в складних або двозначних випадках, що залишається важливим у розслідуваннях ПФЗ.

Серед ризиків залежності від штучного інтелекту є можливість помилок (наприклад, хибних позитивів, хибних негативів) та упередженості. Штучний інтелект може бути схильний до хибних позитивів, якщо моделі не добре налаштовані або тренуються на упереджених даних. Хоча люди також схильні до упередженості, додатковий ризик штучного інтелекту полягає в тому, що його може бути важко визначити упередженість у системі.

Крім того, моделі штучного інтелекту працюють на даних, які їм подаються – вони можуть не виявити нові або рідкісні підозрілі моделі поза історичними тенденціями або на основі реальних інсайтів. Повна заміна систем, заснованих на правилах, на штучний інтелект, може залишити сліпі місця в моніторингу ПФЗ.

У випадках упередженості, двозначності або новизни ПФЗ потребує розвиненого ока, якого штучний інтелект не може забезпечити. Одночасно, якщо ми видалими людей з процесу, це може суттєво обмежити здатність вашої команди зрозуміти моделі фінансових злочинів, виявити моделі та ідентифікувати нові тенденції. Це, в свою чергу, може зробити ще більш складним підтримання автоматизованих систем у актуальному стані.

Гібридний підхід: поєднання систем ПФЗ, заснованих на правилах, і систем, керованих штучним інтелектом

Фінансові установи можуть поєднати підхід, заснований на правилах, з інструментами штучного інтелекту для створення багаторівневої системи, яка використовує сильні сторони обох підходів. Гібридна система зробить впровадження штучного інтелекту більш точним у довгостроковій перспективі та більш гнучким у адресуванні нових загроз фінансовим злочинам, не жертвуючи прозорістю.

Для цього установи можуть інтегрувати моделі штучного інтелекту з тривалим людським відгуком. Адаптивне навчання моделей буде розвиватися не тільки на основі моделей даних, але й на основі людського вводу, який уточнює та ребалансує його.

Не всі системи штучного інтелекту однакові. Моделі штучного інтелекту повинні проходити безперервне тестування для оцінки точності, справедливості та дотримання законодавства, з регулярними оновленнями на основі нормативних змін та нових даних про загрози, визначених вашими командами ПФЗ.

Експерти з ризиків та дотримання законодавства повинні бути навчені штучному інтелекту або найняти спеціаліста зі штучного інтелекту в команду, щоб забезпечити розробку та впровадження штучного інтелекту у певних межах. Вони також повинні розробити рамки дотримання законодавства, специфічні для штучного інтелекту, встановивши шлях до нормативної відповідності в галузі, що розвивається для експертів з дотримання законодавства.

Як частина впровадження штучного інтелекту, важливо, щоб усі складові організації були проінформовані про можливості нових моделей штучного інтелекту, з якими вони працюють, але також про їхні обмеження (наприклад, потенційну упередженість), щоб зробити їх більш чутливими до потенційних помилок.

Ваша організація також повинна зробити інші стратегічні розгляди, щоб зберегти безпеку та якість даних. Це необхідно інвестувати в високоякісну, безпечну інфраструктуру даних та забезпечити, щоб вони були навчені на точних та різноманітних наборах даних.

Штучний інтелект є і буде як загрозою, так і оборонним засобом для банків. Але їм потрібно правильно використовувати цю потужну нову технологію, щоб уникнути створення проблем замість їх вирішення.

Gabriella Bussien є CEO у tech-first фінансовій організації з попередження фінансових злочинів Trapets, лідером ринку Північної Європи з 2000 року. Вона має понад 20 років досвіду розширення бізнесу та управління ризиками в організаціях, включаючи Morgan Stanley і Thomson Reuters.