Свяжитесь с нами:

ИИ и предотвращение финансовых преступлений: почему банкам нужен сбалансированный подход

Лидеры мысли

ИИ и предотвращение финансовых преступлений: почему банкам нужен сбалансированный подход

mm

Для банков ИИ — это двусторонняя монета: хотя он открывает множество возможностей для более эффективной работы, он также может создавать внешние и внутренние риски.

Финансовые преступники используют эту технологию для производства фальшивые видео, голоса и поддельные документы, которые могут быть обнаружены компьютером и человеком, или для усиления мошенничества с электронной почтой. Только в США ожидается, что генеративный ИИ ускорит ежегодный рост потерь от мошенничества на 32%, достигнув 40 миллиардов долларов США к 2027 году, согласно недавнему исследованию отчет Deloitte.

Возможно, тогда ответом банков должно стать вооружение еще лучшими инструментами, использование ИИ в предотвращении финансовых преступлений. Финансовые учреждения фактически начинают использовать ИИ в борьбе с финансовыми преступлениями (AFC) — для мониторинга транзакций, создания отчетов о подозрительной активности, автоматизации обнаружения мошенничества и многого другого. Они обладают потенциалом для ускорения процессов при одновременном повышении точности.

Проблема в том, что банки не уравновешивают внедрение ИИ с человеческим суждением. Без человека в цикле внедрение ИИ может повлиять на соответствие, предвзятость и адаптивность к новым угрозам.

Мы верим в осторожный, гибридный подход к внедрению ИИ в финансовом секторе, который по-прежнему будет требовать человеческого участия.

Разница между системами AFC, основанными на правилах, и системами, управляемыми искусственным интеллектом

Традиционно AFC – и в частности системы противодействия отмыванию денег (AML) – работали с фиксированными правилами, установленными группами по обеспечению соответствия в ответ на нормативные акты. Например, в случае мониторинга транзакций эти правила применяются для пометки транзакций на основе определенных предопределенных критериев, таких как пороговые значения сумм транзакций или географические факторы риска.

ИИ представляет новый способ проверки на предмет риска финансовых преступлений. Модели машинного обучения могут использоваться для обнаружения подозрительных закономерностей на основе серии наборов данных, которые постоянно развиваются. Система анализирует транзакции, исторические данные, поведение клиентов и контекстные данные для отслеживания всего подозрительного, обучаясь со временем, предлагая адаптивный и потенциально более эффективный мониторинг преступлений.

Однако, в то время как системы, основанные на правилах, предсказуемы и легко поддаются аудиту, системы, управляемые ИИ, вводят сложный элемент «черного ящика» из-за непрозрачных процессов принятия решений. Труднее отследить мотивацию системы ИИ для пометки определенного поведения как подозрительного, учитывая, что задействовано так много элементов. Это может привести к тому, что ИИ придет к определенному выводу на основе устаревших критериев или предоставит фактически неверные сведения, причем это не будет немедленно обнаружено. Это также может вызвать проблемы с соблюдением нормативных требований финансовым учреждением.

Возможные проблемы регулирования

Финансовые учреждения должны придерживаться строгих нормативных стандартов, таких как стандарты ЕС. АМЛД и США Закон о банковской тайне, которые требуют четкого, прослеживаемого принятия решений. Системы ИИ, особенно модели глубокого обучения, могут быть сложны для интерпретации.

Чтобы обеспечить подотчетность при внедрении ИИ, банкам необходимо тщательное планирование, тщательное тестирование, специализированные структуры соответствия и человеческий надзор. Люди могут проверять автоматизированные решения, например, интерпретируя обоснование отмеченной транзакции, делая ее объяснимой и защищаемой для регулирующих органов.

Финансовые учреждения также подвергаются все большему давлению, вынуждающему их использовать Объясняемый ИИ (XAI) инструменты, позволяющие сделать решения, принимаемые на основе ИИ, понятными для регулирующих органов и аудиторов. XAI — это процесс, который позволяет людям понимать выходные данные системы ИИ и лежащий в ее основе процесс принятия решений.

Для целостного взгляда требуется человеческое суждение

Внедрение ИИ не может привести к самоуспокоенности автоматизированными системами. Аналитики-люди привносят контекст и суждение, которых не хватает ИИ, позволяя принимать тонкие решения в сложных или неоднозначных случаях, что остается важным в расследованиях AFC.

Среди рисков зависимости от ИИ — возможность ошибок (например, ложноположительных, ложноотрицательных) и предвзятости. ИИ может быть склонен к ложноположительным результатам, если модели плохо настроены или обучены на предвзятых данных. Хотя люди также подвержены предвзятости, дополнительный риск ИИ заключается в том, что может быть сложно определить предвзятость в системе.

Более того, модели ИИ работают на данных, которые им подаются – они могут не улавливать новые или редкие подозрительные закономерности вне исторических тенденций или на основе реальных идей. Полная замена систем на основе правил на ИИ может оставить слепые пятна в мониторинге AFC.

В случаях предвзятости, двусмысленности или новизны AFC нужен проницательный взгляд, который не может предоставить ИИ. В то же время, если бы мы убрали людей из процесса, это могло бы серьезно затормозить способность ваших команд понимать закономерности в финансовых преступлениях, выявлять закономерности и определять возникающие тенденции. В свою очередь, это могло бы затруднить поддержание любых автоматизированных систем в актуальном состоянии.

Гибридный подход: сочетание AFC на основе правил и искусственного интеллекта

Финансовые учреждения могут объединить подход на основе правил с инструментами ИИ для создания многоуровневой системы, которая использует сильные стороны обоих подходов. Гибридная система сделает внедрение ИИ более точным в долгосрочной перспективе и более гибким в решении возникающих угроз финансовых преступлений, не жертвуя при этом прозрачностью.

Для этого учреждения могут интегрировать модели ИИ с постоянной обратной связью от человека. Таким образом, адаптивное обучение моделей будет развиваться не только на основе шаблонов данных, но и на основе человеческого вклада, который его совершенствует и восстанавливает баланс.

Не все системы ИИ одинаковы. Модели ИИ должны проходить постоянное тестирование для оценки точности, справедливости и соответствия требованиям, с регулярными обновлениями на основе изменений в нормативных актах и ​​новых угрозах, выявленных вашими командами AFC.

Эксперты по рискам и соответствию должны быть обучены в области ИИ, или эксперт по ИИ должен быть нанят в команду, чтобы гарантировать, что разработка и развертывание ИИ выполняются в определенных рамках. Они также должны разработать фреймворки соответствия, специфичные для ИИ, устанавливая путь к соблюдению нормативных требований в развивающемся секторе для экспертов по соответствию.

В рамках внедрения ИИ важно, чтобы все элементы организации были проинформированы о возможностях новых моделей ИИ, с которыми они работают, а также об их недостатках (таких как потенциальная предвзятость), чтобы они были более восприимчивы к потенциальным ошибкам.

Ваша организация также должна принять некоторые другие стратегические решения для сохранения безопасности и качества данных. Важно инвестировать в высококачественную, безопасную инфраструктуру данных и обеспечить их обучение на точных и разнообразных наборах данных.

ИИ есть и будет и угрозой, и защитным инструментом для банков. Но им нужно правильно обращаться с этой мощной новой технологией, чтобы не создавать проблемы, а решать их.

Габриэлла Бюссиен — генеральный директор технологической организации по предотвращению финансовых преступлений. Трапеции, лидер рынка стран Северной Европы с 2000 года. У нее более 20 лет опыта масштабирования бизнеса и управления рисками в таких организациях, как Morgan Stanley и Thomson Reuters.