Connect with us

Предвзятость и справедливость систем, основанных на ИИ, в борьбе с финансовыми преступлениями

Лидеры мнений

Предвзятость и справедливость систем, основанных на ИИ, в борьбе с финансовыми преступлениями

mm

Когда речь идет о борьбе с финансовыми преступлениями, существуют проблемы, которые выходят за рамки простого предотвращения мошенничества или других злонамеренных действий.

Некоторые из новых, передовых технологий, которые запускаются, часто имеют свои собственные специфические проблемы, которые необходимо учитывать на этапах внедрения, чтобы успешно бороться с мошенниками без регулирующих последствий. В обнаружении мошенничества справедливость модели и предвзятость данных могут возникнуть, когда система более сильно взвешена или лишена представительства определенных групп или категорий данных. Теоретически, прогностическая модель могла бы ошибочно ассоциировать фамилии из других культур с мошенническими счетами или ложно уменьшить риск внутри сегментов населения для определенных типов финансовых hoạtностей.

Предвзятые системы ИИ могут представлять серьезную угрозу, когда репутации могут быть затронуты, и возникают, когда доступные данные не представляют собой популяцию или явление исследования. Эти данные не включают переменные, которые правильно отражают явление, которое мы хотим предсказать. Альтернативно, данные могут включать контент, созданный людьми, который может содержать предвзятость против групп людей, унаследованную культурными и личными опытами, что приводит к искажениям при принятии решений. Хотя сначала данные могут казаться объективными, они все равно собираются и анализируются людьми и, поэтому, могут быть предвзятыми.

Хотя нет серебряной пули, когда речь идет о ликвидации опасностей дискриминации и несправедливости в системах ИИ или постоянных исправлениях проблемы справедливости и смягчения предвзятости при проектировании модели машинного обучения и использовании, эти проблемы должны быть рассмотрены как для социальных, так и для деловых причин.

Делать правильные вещи в ИИ

Решение проблемы предвзятости в системах, основанных на ИИ, не только правильное, но и умное дело для бизнеса — и ставки для лидеров бизнеса высоки. Предвзятые системы ИИ могут привести финансовые учреждения по неправильному пути, распределяя возможности, ресурсы, информацию или качество обслуживания несправедливо. Они даже имеют потенциал нарушать гражданские свободы, представлять угрозу безопасности людей или влиять на благополучие человека, если воспринимаются как пренебрежительные или оскорбительные.

Важно, чтобы предприятия понимали силу и риски предвзятости ИИ. Хотя часто неизвестно учреждению, предвзятая система, основанная на ИИ, могла бы использовать вредные модели или данные, которые раскрывают расовую или гендерную предвзятость в решении о кредитовании. Информация, такая как имена и пол, могла бы быть прокси для категоризации и идентификации заявителей незаконными способами. Даже если предвзятость не является намеренной, она все равно ставит организацию под угрозу, не соответствуя требованиям регулирования и могла бы привести к тому, что определенные группы людей будут несправедливо лишены кредитов или кредитных линий.

В настоящее время организации не имеют необходимых элементов для успешного смягчения предвзятости в системах ИИ. Но с учетом того, что ИИ все чаще развертывается в бизнесе для информирования решений, важно, чтобы организации стремились уменьшить предвзятость, не только по моральным причинам, но и для соблюдения требований регулирования и построения дохода.

Культура и реализация “осведомленности о справедливости”

Решения, которые фокусируются на справедливой конструкции и реализации, будут иметь наиболее благоприятные результаты. Поставщики должны иметь аналитическую культуру, которая учитывает ответственное приобретение, обработку и управление данными как необходимые компоненты алгоритмической справедливости, потому что если результаты проекта ИИ генерируются предвзятыми, скомпрометированными или искаженными наборами данных, затронутые стороны не будут адекватно защищены от дискриминационного вреда.

Это элементы справедливости данных, которые команды 데이터-науки должны иметь в виду:

  • Представленность: В зависимости от контекста, либо недопредставленность, либо чрезмерная представленность неблагополучных или юридически защищенных групп в выборке данных может привести к систематическому невыгодному положению уязвимых сторон в результатах обученной модели. Чтобы избежать такого рода предвзятости выборки, доменная экспертиза будет иметь решающее значение для оценки соответствия между собранными или приобретенными данными и основной популяцией, которую необходимо моделировать. Технические члены команды должны предложить средства для исправления представительных недостатков в выборке.
  • Пригодность для цели и достаточность: Важно понимать, является ли собранный набор данных достаточным для намеченной цели проекта. Недостаточные наборы данных могут не равноправно отражать качества, которые должны быть учтены для производства оправданного результата, который соответствует желаемой цели системы ИИ. Следовательно, члены команды проекта с техническими и политическими компетенциями должны сотрудничать, чтобы определить, является ли количество данных достаточным и пригодным для цели.
  • Интегритет источника и точность измерения: Эффективное смягчение предвзятости начинается с самого начала процессов извлечения и сбора данных. И источники, и инструменты измерения могут ввести дискриминационные факторы в набор данных. Чтобы обеспечить недискриминационный вред, выборка данных должна иметь оптимальную целостность источника. Это предполагает обеспечение или подтверждение того, что процессы сбора данных включают подходящие, надежные и беспристрастные источники измерения и прочные методы сбора.
  • Своевременность и актуальность: Если наборы данных включают устаревшие данные, то изменения в основной распределении данных могут неблагоприятно повлиять на обобщаемость обученной модели. Если эти дрейфы распределения отражают изменяющиеся социальные отношения или групповую динамику, это снижение точности в отношении фактических характеристик основной популяции может ввести предвзятость в систему ИИ. При предотвращении дискриминационных результатов своевременность и актуальность всех элементов набора данных должны быть проанализированы.
  • Релевантность, уместность и знания домена: Понимание и использование наиболее подходящих источников и типов данных имеют решающее значение для построения прочной и беспристрастной системы ИИ. Твердые знания домена о распределении основной популяции и о прогностической цели проекта являются инструментальными для выбора оптимально релевантных входов измерения, которые способствуют разумному решению определенной задачи. Эксперты домена должны тесно сотрудничать с командами данных, чтобы помочь в определении оптимально подходящих категорий и источников измерения.

Хотя системы, основанные на ИИ, помогают в автоматизации процессов принятия решений и доставляют экономию средств, финансовые учреждения, рассматривающие ИИ как решение, должны быть бдительными, чтобы обеспечить, что предвзятое принятие решений не происходит. Лидеры по соблюдению требований должны быть в ладах со своей командой данных, чтобы подтвердить, что возможности ИИ являются ответственным, эффективным и свободным от предвзятости. Имея стратегию, которая поддерживает ответственный ИИ, является правильным делом, и она может также обеспечить путь к соблюдению будущих регулирований ИИ.

Дэнни Бутвиник является главным ученым по данным в NICE Actimize, обеспечивая техническое и профессиональное руководство. Дэнни является экспертом в области искусственного интеллекта и науки о данных, автором множества научных статей и работ. В своей текущей роли он управляет большой группой ученых по данным и вносит вклад в рост инноваций и интеллектуальной собственности компании, имея более 15 лет опыта исследований, разработки и управления в области науки о данных и разработки программного обеспечения.