Connect with us

ИИ и предотвращение финансовых преступлений: почему банкам нужен сбалансированный подход

Лидеры мнений

ИИ и предотвращение финансовых преступлений: почему банкам нужен сбалансированный подход

mm

ИИ – это двусторонняя монета для банков: хотя он открывает многие возможности для более эффективных операций, он также может представлять внешние и внутренние риски.

Финансовые преступники используют технологию для создания deepfake видео, голосов и фальшивых документов, которые могут обмануть компьютерные и человеческие системы обнаружения, или для усиления электронной почтовой фraud деятельности. Только в США генеративный ИИ, как ожидается, ускорит убытки от мошенничества до годового темпа роста 32%, достигнув 40 миллиардов долларов США к 2027 году, согласно недавнему отчету Deloitte.

Возможно, поэтому ответ банков должен заключаться в том, чтобы вооружиться еще лучшими инструментами, используя ИИ во всей сфере предотвращения финансовых преступлений. Финансовые учреждения фактически начинают развертывать ИИ в антифинансовых преступлениях (АФК) – для мониторинга транзакций, генерации отчетов о подозрительной деятельности, автоматизации обнаружения мошенничества и многое другое. Эти меры имеют потенциал ускорить процессы, повышая при этом точность.

Проблема возникает, когда банки не балансируют внедрение ИИ с человеческим суждением. Без человека в цикле внедрение ИИ может повлиять на соблюдение нормативных требований, предвзятость и адаптивность к новым угрозам.

Мы верим в осторожный, гибридный подход к внедрению ИИ в финансовом секторе, который будет продолжать требовать человеческого участия.

Разница между правилами, основанными на ИИ, и системами АФК

Традиционно АФК – и, в частности, системы против отмывания денег (AML) – работали с фиксированными правилами, установленными командами по соблюдению нормативных требований в ответ на нормативные акты. В случае мониторинга транзакций, например, эти правила реализуются для флагирования транзакций на основе конкретных предварительно определенных критериев, таких как пороги суммы транзакции или географические факторы риска.

ИИ представляет новый способ скрининга финансовых преступлений. Модели машинного обучения можно использовать для обнаружения подозрительных закономерностей на основе серии наборов данных, которые постоянно эволюционируют. Система анализирует транзакции, исторические данные, поведение клиентов и контекстные данные для мониторинга подозрительной деятельности, обучаясь со временем и предлагая адаптивный и потенциально более эффективный мониторинг преступности.

Однако, хотя правила, основанные на системах, предсказуемы и легко аудитируемы, системы, основанные на ИИ, вводят сложный элемент “черного ящика” из-за не透рачных процессов принятия решений. Труднее отслеживать рассуждения системы ИИ для флагирования определенного поведения как подозрительного, учитывая, что участвуют многие элементы. Это может привести к тому, что ИИ придет к определенному выводу на основе устаревших критериев или предоставит фактически неверные сведения, без того, чтобы это было сразу обнаружено. Это также может вызвать проблемы для соблюдения нормативных требований финансовым учреждением.

Возможные нормативные проблемы

Финансовые учреждения должны соблюдать строгие нормативные стандарты, такие как директива ЕС AMLD и закон США Bank Secrecy Act, которые требуют ясных, отслеживаемых процессов принятия решений. Системы ИИ, особенно модели глубокого обучения, могут быть трудными для интерпретации.

Чтобы обеспечить подотчетность при внедрении ИИ, банкам необходимо тщательное планирование, тщательное тестирование, специализированные рамки соблюдения нормативных требований и человеческий надзор. Люди могут проверить автоматические решения, например, интерпретируя рассуждения, лежащие в основе флагирования транзакции, что делает его объяснимым и обоснованным для регулирующих органов.

Финансовые учреждения также находятся под все возрастающим давлением, чтобы использовать Explainable AI (XAI) инструменты, чтобы сделать ИИ-обоснованные решения понятными для регулирующих органов и аудиторов. XAI – это процесс, который позволяет людям понять вывод системы ИИ и ее основные процессы принятия решений.

Человеческое суждение необходимо для целостного взгляда

Внедрение ИИ не должно привести к самоуспокоенности с автоматизированными системами. Человеческие аналитики приносят контекст и суждение, которых не хватает ИИ, что позволяет принимать нюансовые решения в сложных или неоднозначных случаях, что остается важным в расследованиях АФК.

Среди рисков зависимости от ИИ есть возможность ошибок (например, ложных положительных, ложных отрицательных) и предвзятости. ИИ может быть склонен к ложным положительным, если модели не хорошо настроены или обучены на предвзятых данных. Хотя люди также подвержены предвзятости, добавленный риск ИИ заключается в том, что его может быть трудно выявить предвзятость внутри системы.

Кроме того, модели ИИ работают на основе данных, которые им предоставляются – они могут не обнаружить новые или редкие подозрительные закономерности вне исторических тенденций или на основе реальных сведений. Полная замена правил, основанных на системах, на ИИ может оставить слепые пятна в мониторинге АФК.

В случаях предвзятости, неоднозначности или новизны АФК нуждается в проницательном взгляде, который ИИ не может предоставить. В то же время, если мы удалим людей из процесса, это может серьезно ограничить способность ваших команд понимать закономерности финансовых преступлений, обнаруживать закономерности и выявлять новые тенденции. Это, в свою очередь, может затруднить поддержание автоматизированных систем в актуальном состоянии.

Гибридный подход: объединение правил, основанных на системах, и ИИ-обоснованных АФК

Финансовые учреждения могут объединить правила, основанные на подходе, с инструментами ИИ, чтобы создать многослойную систему, которая использует сильные стороны обоих подходов. Гибридная система сделает внедрение ИИ более точным в долгосрочной перспективе и более гибким в решении новых угроз финансовых преступлений, не жертвуя при этом прозрачностью.

Чтобы сделать это, учреждения могут интегрировать модели ИИ с постоянным человеческим обратной связью. Адаптивное обучение моделей будет расти не только на основе закономерностей данных, но и на человеческом вводе, который уточняет и rebalances его.

Не все системы ИИ равны. Модели ИИ должны пройти непрерывное тестирование, чтобы оценить точность, справедливость и соблюдение нормативных требований, с регулярными обновлениями на основе изменений нормативных требований и новых сведений о угрозах, выявленных вашими командами АФК.

Эксперты по риску и соблюдению нормативных требований должны быть обучены в ИИ или нанять эксперта по ИИ в команду, чтобы обеспечить, что разработка и развертывание ИИ выполняется в определенных ограничениях. Они также должны разработать рамки соблюдения нормативных требований, специфичные для ИИ, устанавливая путь к соблюдению нормативных требований в новой области для экспертов по соблюдению нормативных требований.

Как часть внедрения ИИ, важно, чтобы все элементы организации были проинформированы о возможностях новых моделей ИИ, с которыми они работают, но также и о их ограничениях (таких как потенциальная предвзятость), чтобы сделать их более восприимчивыми к потенциальным ошибкам.

Ваша организация также должна учитывать другие стратегические соображения, чтобы сохранить безопасность и качество данных. Это важно инвестировать в высококачественную, безопасную инфраструктуру данных и обеспечить, что они обучены на точных и разнообразных наборах данных.

ИИ является и будет как угрозой, так и оборонительным инструментом для банков. Но они должны правильно обращаться с этой мощной новой технологией, чтобы не создавать проблемы вместо их решения.

Gabriella Bussien является CEO в tech-first финансовой организации по предотвращению преступлений Trapets, лидером на рынке Северных стран с 2000 года. Она имеет более 20 лет опыта в масштабировании бизнеса и управлении рисками в организациях, включая Morgan Stanley и Thomson Reuters.