Лідери думок
ШІ та запобігання фінансовим злочинам: чому банкам потрібен збалансований підхід

ШІ — це двостороння монета для банків: хоча він відкриває багато можливостей для більш ефективних операцій, він також може створювати зовнішні та внутрішні ризики.
Фінансові злочинці використовують технологію для виробництва відео deepfake, голоси та підроблені документи, які не можуть бути виявлені комп’ютером і людиною, або посилити шахрайство електронною поштою. Очікується, що тільки в США генеративний штучний інтелект прискорить річний темп зростання збитків від шахрайства на 32%, досягнувши 40 мільярдів доларів США до 2027 року, згідно з нещодавнім дослідженням. звіт Deloitte.
Можливо, тоді у відповідь банкам слід озброїтися ще кращими інструментами, використовуючи ШІ для запобігання фінансовим злочинам. Фінансові установи фактично починають використовувати штучний інтелект у боротьбі з фінансовими злочинами (AFC) – для моніторингу транзакцій, створення звітів про підозрілу діяльність, автоматизації виявлення шахрайства тощо. Вони мають потенціал для прискорення процесів, одночасно підвищуючи точність.
Проблема полягає в тому, що банки не збалансовують впровадження ШІ з людським судженням. Без участі людини впровадження штучного інтелекту може вплинути на відповідність вимогам, упередженість і адаптованість до нових загроз.
Ми віримо в обережний гібридний підхід до впровадження штучного інтелекту у фінансовому секторі, який і надалі вимагатиме участі людини.
Різниця між системами AFC на основі правил і системами AFC, керованими ШІ
Традиційно AFC – і, зокрема, системи боротьби з відмиванням грошей (AML) – працювали за фіксованими правилами, встановленими групами відповідності відповідно до нормативних актів. Наприклад, у випадку моніторингу транзакцій ці правила реалізуються для позначення транзакцій на основі конкретних попередньо визначених критеріїв, таких як порогові суми транзакцій або географічні фактори ризику.
AI представляє новий спосіб виявлення ризику фінансових злочинів. Моделі машинного навчання можна використовувати для виявлення підозрілих шаблонів на основі серії наборів даних, які постійно змінюються. Система аналізує транзакції, історичні дані, поведінку клієнтів і контекстні дані, щоб відстежувати будь-що підозріле, навчаючись з часом, пропонуючи адаптивний і потенційно більш ефективний моніторинг злочинів.
Однак у той час як системи, засновані на правилах, є передбачуваними та легко перевіряються, системи, керовані штучним інтелектом, представляють складний елемент «чорної скриньки» через непрозорі процеси прийняття рішень. Важче простежити міркування системи ШІ для позначення певної поведінки як підозрілої, враховуючи, що задіяно так багато елементів. Це може спостерігати, як штучний інтелект приходить до певного висновку на основі застарілих критеріїв або надає фактично неправильну інформацію, але це не можна відразу виявити. Це також може спричинити проблеми з дотриманням нормативних вимог фінансової установи.
Можливі регуляторні проблеми
Фінансові установи повинні дотримуватися суворих нормативних стандартів, таких як стандарти ЄС ПМЛ і США Закон про банківську таємницю, які зобов’язують приймати чіткі та простежувані рішення. Системи ШІ, особливо моделі глибокого навчання, можуть бути складними для інтерпретації.
Щоб забезпечити підзвітність під час впровадження штучного інтелекту, банкам потрібне ретельне планування, ретельне тестування, спеціалізовані рамки відповідності та людський нагляд. Люди можуть підтверджувати автоматизовані рішення, наприклад, інтерпретуючи аргументацію позначеної транзакції, роблячи її зрозумілою та обґрунтованою для регуляторів.
Фінансові установи також піддаються зростаючому тиску щодо використання Пояснюваний ШІ (XAI) інструменти для прийняття рішень на основі ШІ, зрозумілих регуляторам і аудиторам. XAI — це процес, який дозволяє людям зрозуміти результат роботи системи штучного інтелекту та прийняття рішень, що лежать в її основі.
Для цілісного бачення необхідне людське судження
Прийняття штучного інтелекту не може поступитися місцем самовдоволенню автоматизованими системами. Людські аналітики вносять контекст і судження, яких не вистачає штучному інтелекту, дозволяючи приймати детальні рішення в складних або неоднозначних випадках, що залишається важливим у розслідуваннях AFC.
Серед ризиків залежності від штучного інтелекту – можливість помилок (наприклад, хибнопозитивних, хибнонегативних) і упередженості. ШІ може бути схильний до помилкових спрацьовувань, якщо моделі погано налаштовані або навчені на необ’єктивних даних. Хоча люди також чутливі до упередженості, додатковий ризик штучного інтелекту полягає в тому, що може бути важко визначити упередженість у системі.
Крім того, моделі штучного інтелекту працюють на основі даних, які їм надаються – вони можуть не вловлювати нові або рідкісні підозрілі закономірності поза історичними тенденціями або на основі реальних ідей світу. Повна заміна систем на основі правил штучним інтелектом може залишити сліпі плями в моніторингу AFC.
У випадках упередженості, двозначності чи новизни AFC потребує проникливого погляду, якого AI не може забезпечити. У той же час, якби ми вилучили людей із процесу, це могло б суттєво вплинути на здатність ваших команд розуміти моделі фінансових злочинів, виявляти закономірності та виявляти нові тенденції. У свою чергу, це може ускладнити підтримку будь-яких автоматизованих систем в актуальному стані.
Гібридний підхід: поєднання AFC на основі правил і штучного інтелекту
Фінансові установи можуть поєднувати підхід, заснований на правилах, із інструментами штучного інтелекту, щоб створити багаторівневу систему, яка використовує сильні сторони обох підходів. Гібридна система зробить впровадження штучного інтелекту більш точним у довгостроковій перспективі та більш гнучким у вирішенні нових загроз фінансових злочинів без шкоди для прозорості.
Для цього установи можуть інтегрувати моделі ШІ з постійним відгуком людини. Таким чином, адаптивне навчання моделей розвиватиметься не лише на основі шаблонів даних, а й на людському внесенні, яке вдосконалює та балансує їх.
Не всі системи ШІ однакові. Моделі штучного інтелекту мають проходити безперервне тестування, щоб оцінити точність, справедливість і відповідність, з регулярними оновленнями на основі нормативних змін і нових даних про загрози, визначених вашими командами AFC.
Експерти з питань ризиків і відповідності мають бути навчені штучному інтелекту або найняти експерта зі штучного інтелекту в команду, щоб гарантувати, що розробка та розгортання штучного інтелекту виконується в межах певних огорож. Вони також повинні розробити рамки відповідності, специфічні для штучного інтелекту, створивши шлях до дотримання нормативних вимог у секторі, що розвивається, для експертів із відповідності.
У рамках впровадження штучного інтелекту важливо, щоб усі елементи організації були проінформовані про можливості нових моделей штучного інтелекту, з якими вони працюють, а також про їхні недоліки (наприклад, потенційну упередженість), щоб зробити їх більш сприйнятливими до потенційних помилки.
Ваша організація також має врахувати деякі інші стратегічні міркування, щоб зберегти безпеку та якість даних. Важливо інвестувати у високоякісну безпечну інфраструктуру даних і переконатися, що вони навчаються на точних і різноманітних наборах даних.
ШІ є і залишатиметься як загрозою, так і інструментом захисту для банків. Але їм потрібно правильно працювати з цією потужною новою технологією, щоб не створювати проблем, а не вирішувати їх.