Свяжитесь с нами:

Предвзятость и справедливость систем на основе ИИ в рамках финансовых преступлений

Лидеры мысли

Предвзятость и справедливость систем на основе ИИ в рамках финансовых преступлений

mm

Когда дело доходит до борьбы с финансовыми преступлениями, существуют проблемы, которые выходят за рамки простого пресечения мошенников или других злоумышленников.

Некоторые из новейших, передовых технологий, которые запускаются, часто имеют свои специфические проблемы, которые необходимо учитывать на этапах внедрения, чтобы успешно бороться с мошенниками без последствий со стороны регулирующих органов. При обнаружении мошенничества справедливость модели и предвзятость данных могут иметь место, когда система имеет более высокий вес или не имеет представления определенных групп или категорий данных. Теоретически прогностическая модель может ошибочно связывать фамилии из других культур с мошенническими учетными записями или ложно снижать риск в сегментах населения для определенного типа финансовой деятельности.

Предвзятые системы искусственного интеллекта могут представлять серьезную угрозу, когда может быть затронута репутация, и это происходит, когда доступные данные не являются репрезентативными для населения или явления исследования. Эти данные не включают переменные, которые должным образом отражают явление, которое мы хотим предсказать. Или, в качестве альтернативы, данные могут включать контент, созданный людьми, который может содержать предвзятое отношение к группам людей, унаследованное культурным и личным опытом, что приводит к искажениям при принятии решений. Хотя на первый взгляд данные могут показаться объективными, они по-прежнему собираются и анализируются людьми и поэтому могут быть предвзятыми.

Хотя не существует универсального решения, когда речь идет об устранении опасностей дискриминации и несправедливости в системах ИИ или постоянном решении проблемы справедливости и смягчения предвзятости при разработке модели машинного обучения и ее использовании, эти проблемы необходимо учитывать как для общества, так и для общества. деловые причины.

Делать правильные вещи в ИИ

Борьба с предвзятостью в системах на основе ИИ — это не только правильно, но и разумно для бизнеса, и ставки для бизнес-лидеров высоки. Предвзятые системы искусственного интеллекта могут увести финансовые учреждения по ложному пути, несправедливо распределяя возможности, ресурсы, информацию или качество обслуживания. Они даже могут нарушать гражданские свободы, наносить ущерб безопасности людей или влиять на благополучие человека, если воспринимаются как пренебрежительные или оскорбительные.

Для предприятий важно понимать силу и риски предвзятости ИИ. Хотя учреждение часто не знает об этом, предвзятая система на основе ИИ может использовать вредные модели или данные, которые выявляют расовую или гендерную предвзятость при принятии решения о кредитовании. Такая информация, как имена и пол, может использоваться для категоризации и идентификации заявителей незаконными способами. Даже если предвзятость является непреднамеренной, она все равно подвергает организацию риску, поскольку не соблюдает нормативные требования, и может привести к тому, что определенным группам людей будет несправедливо отказано в ссудах или кредитных линиях.

В настоящее время у организаций нет средств для успешного устранения предвзятости в системах ИИ. Но в связи с тем, что ИИ все чаще используется в компаниях для принятия обоснованных решений, жизненно важно, чтобы организации стремились уменьшить предвзятость не только по моральным соображениям, но и для соблюдения нормативных требований и увеличения доходов.

Культура «справедливости» и внедрение

Решения, ориентированные на проектирование и реализацию с учетом принципа справедливости, будут иметь самые выгодные результаты. У поставщиков должна быть аналитическая культура, которая рассматривает ответственный сбор данных, обработку и управление как необходимые компоненты алгоритмической справедливости, потому что, если результаты проекта ИИ генерируются предвзятыми, скомпрометированными или искаженными наборами данных, затронутые стороны не будут должным образом защищены от дискриминационный вред.

Вот элементы объективности данных, о которых должны помнить команды специалистов по обработке и анализу данных:

  • Представительность:В зависимости от контекста недопредставленность или чрезмерная представленность обездоленных или защищенных законом групп в выборке данных может привести к систематическому ущемлению уязвимых сторон в результатах обученной модели. Чтобы избежать такого рода систематической ошибки выборки, экспертиза предметной области будет иметь решающее значение для оценки соответствия между собранными или полученными данными и базовой совокупностью, подлежащей моделированию. Члены технической группы должны предложить средства исправления недостатков репрезентативности в выборке.
  • Соответствие назначению и достаточность: Важно понимать, достаточно ли собранных данных для намеченной цели проекта. Недостаточные наборы данных могут неадекватно отражать качества, которые следует взвешивать для получения обоснованного результата, соответствующего желаемой цели системы ИИ. Соответственно, члены проектной группы, обладающие техническими и политическими компетенциями, должны сотрудничать, чтобы определить, достаточно ли количество данных и соответствуют ли они цели.
  • Целостность источника и точность измерения:Эффективное устранение предвзятости начинается в самом начале процессов извлечения и сбора данных. Как источники, так и инструменты измерения могут вносить в набор данных дискриминационные факторы. Чтобы обеспечить дискриминационное непричинение вреда, выборка данных должна иметь оптимальную целостность источника. Это включает в себя обеспечение или подтверждение того, что в процессах сбора данных использовались подходящие, надежные и беспристрастные источники измерения и надежные методы сбора.
  • Своевременность и актуальность: если наборы данных включают устаревшие данные, то изменения в базовом распределении данных могут отрицательно повлиять на обобщаемость обученной модели. При условии, что эти дистрибутивные дрейфы отражают изменение социальных отношений или групповую динамику, эта потеря точности в отношении фактических характеристик основной популяции может внести погрешность в систему ИИ. Для предотвращения дискриминационных результатов следует тщательно проверять своевременность и новизну всех элементов набора данных.
  • Релевантность, уместность и знание предметной области: понимание и использование наиболее подходящих источников и типов данных имеет решающее значение для создания надежной и объективной системы искусственного интеллекта. Твердые знания предметной области о базовом распределении населения и прогнозирующей цели проекта играют важную роль для выбора оптимально релевантных входных данных измерений, которые способствуют разумному разрешению определенного решения. Эксперты предметной области должны тесно сотрудничать с группами специалистов по данным, чтобы помочь в определении оптимально подходящих категорий и источников измерения.

В то время как системы на основе ИИ помогают в процессах автоматизации принятия решений и обеспечивают экономию средств, финансовые учреждения, рассматривающие ИИ в качестве решения, должны проявлять бдительность, чтобы не допустить предвзятых решений. Лидеры по соблюдению требований должны идти в ногу со своей командой по анализу данных, чтобы подтвердить, что возможности ИИ ответственны, эффективны и свободны от предвзятости. Наличие стратегии, поддерживающей ответственный ИИ, — это правильно, и это также может обеспечить соблюдение будущих правил ИИ.

Дэнни Бутвиник — главный специалист по данным в NICE Активировать, обеспечивая техническое и профессиональное руководство. Дэнни — эксперт в области искусственного интеллекта и науки о данных, автор множества научных статей и статей. В своей нынешней роли он управляет большой группой специалистов по данным и способствует росту инноваций и интеллектуальной собственности компании, имея более чем 15-летний опыт исследований, разработок и управления в области науки о данных и разработки программного обеспечения.