заглушки Предвзятость ИИ и культурные стереотипы: последствия, ограничения и смягчение последствий - Unite.AI
Свяжитесь с нами:

Artificial Intelligence

Предвзятость ИИ и культурные стереотипы: последствия, ограничения и смягчение последствий

mm

опубликованный

 on

Предвзятость ИИ и культурные стереотипы: последствия, ограничения и смягчение последствий

Искусственный интеллект (ИИ), в частности Генеративный ИИ, продолжает превосходить ожидания благодаря своей способности понимать и имитировать человеческое познание и интеллект. Однако во многих случаях результаты или прогнозы систем ИИ могут отражать различные типы предвзятости ИИ, например, культурные и расовые.

«Баззфид»Барби мираБлог (который сейчас удален) ясно демонстрирует эти культурные предубеждения и неточности. Эти «барби» были созданы с использованием Середина пути – ведущий генератор изображений с искусственным интеллектом, позволяющий узнать, как будут выглядеть Барби в любой части мира. Мы поговорим об этом подробнее позже.

Но это не первый случай, когда ИИ проявляет «расизм» или дает неточные результаты. Например, в 2022 году Apple была подали в суд по поводу обвинений в том, что датчик кислорода в крови Apple Watch был настроен против цветных людей. В другом известном случае пользователи Twitter обнаружили, что Искусственный интеллект Twitter для автоматической обрезки изображений отдавал предпочтение лицам белых людей перед чернокожими и женщин перед мужчинами. Это важнейшие проблемы, и их решение является весьма сложной задачей.

В этой статье мы рассмотрим, что такое предвзятость ИИ, как она влияет на наше общество, и кратко обсудим, как практики могут смягчать это для решения таких проблем, как культурные стереотипы.

Что такое предвзятость ИИ?

Предвзятость ИИ возникает, когда модели ИИ дают дискриминационные результаты в отношении определенных демографических групп. Некоторые типы предубеждений могут проникнуть в системы ИИ и привести к неверным результатам. Вот некоторые из этих предубеждений ИИ:

  • Стереотипное предубеждение: Стереотипная предвзятость относится к явлению, когда результаты модели ИИ состоят из стереотипов или воспринимаемых представлений об определенной демографической группе.
  • Расовая предвзятость: Расовая предвзятость в ИИ возникает, когда результат модели ИИ является дискриминационным и несправедливым по отношению к отдельному человеку или группе на основе их этнической или расовой принадлежности.
  • Культурная предвзятость: Культурная предвзятость вступает в игру, когда результаты модели ИИ отдают предпочтение одной культуре над другой.

Помимо предубеждений, на результаты работы системы ИИ могут повлиять и другие проблемы, такие как:

  • Неточности: Неточности возникают, когда результаты, полученные моделью ИИ, неверны из-за противоречивых данных обучения.
  • Галлюцинации: Галлюцинации возникают, когда модели ИИ дают вымышленные и ложные результаты, не основанные на фактических данных.

Влияние предвзятости ИИ на общество

Влияние предвзятости ИИ на общество может быть пагубным. Предвзятые системы ИИ могут давать неточные результаты, которые усиливают предрассудки, уже существующие в обществе. Эти результаты могут усилить дискриминацию и нарушения прав, повлиять на процессы найма и снизить доверие к технологиям искусственного интеллекта.

Кроме того, предвзятые результаты ИИ часто приводят к неточным прогнозам, которые могут иметь серьезные последствия для невиновных людей. Например, в августе 2020 г. Роберт МакДэниел стал объектом преступного деяния из-за того, что алгоритм прогнозирования полицейского управления Чикаго назвал его «лицом, представляющим интерес».

Точно так же предвзятые системы искусственного интеллекта в здравоохранении могут привести к тяжелым последствиям для пациентов. В 2019 году Наука обнаружил, что широко используемый Медицинский алгоритм США имел расовую предвзятость по отношению к цветным людям, что привело к тому, что чернокожие пациенты получали менее опасную медицинскую помощь.

Барби мира

В июле 2023, Buzzfeed опубликовал блог Состоит из 194 созданных искусственным интеллектом Барби со всего мира. Пост стал вирусным в Твиттере. Хотя Buzzfeed написал заявление об отказе от ответственности, это не помешало пользователям сети указать на расовые и культурные неточности. Например, созданное ИИ изображение немецкой Барби было одето в униформу СС нацистский вообще.

Барби мира-image5

Аналогично, созданное ИИ изображение Барби из Южного Судана было показано с пистолетом на боку, что отражает глубоко укоренившуюся предвзятость в алгоритмах ИИ.

Барби мира-image4

Помимо этого, несколько других изображений демонстрировали культурные неточности, например, Катарская Барби в Гутра, традиционный головной убор арабских мужчин.

Барби мира-image3

Этот пост в блоге вызвал массовую реакцию из-за культурных стереотипов и предвзятости. Лондонская междисциплинарная школа (LIS) назвал это репрезентативный вред это необходимо держать под контролем путем введения стандартов качества и создания органов надзора за ИИ.

Ограничения моделей ИИ

ИИ имеет потенциал произвести революцию во многих отраслях. Но если сценарии, подобные упомянутым выше, будут распространяться, это может привести к снижению общего внедрения ИИ, что приведет к упущенным возможностям. Такие случаи обычно происходят из-за существенных ограничений в системах искусственного интеллекта, таких как:

  • Отсутствие творчества: Поскольку ИИ может принимать решения только на основе предоставленных данных обучения, ему не хватает креативности, чтобы мыслить нестандартно, что затрудняет творческое решение проблем.
  • Отсутствие контекстуального понимания: Системы искусственного интеллекта сталкиваются с трудностями в понимании контекстуальных нюансов или языковых выражений региона, что часто приводит к ошибкам в результатах.
  • Тренировочная ошибка: ИИ опирается на исторические данные, которые могут содержать всевозможные дискриминационные образцы. Во время обучения модель может легко изучить дискриминационные модели, приводящие к несправедливым и предвзятым результатам.

Как уменьшить предвзятость в моделях ИИ

Экспертов оценка что к 2026 году 90% онлайн-контента может быть создано синтетически. Следовательно, крайне важно быстро свести к минимуму проблемы, существующие в технологиях генеративного искусственного интеллекта.

Чтобы уменьшить предвзятость в моделях ИИ, можно реализовать несколько ключевых стратегий. Некоторые из них:

  • Обеспечение качества данных: Включение полных, точных и чистых данных в модель ИИ может помочь уменьшить предвзятость и получить более точные результаты.
  • Разнообразные наборы данных: Введение разнообразных наборов данных в систему ИИ может помочь смягчить предвзятость, поскольку система ИИ со временем становится более инклюзивной.
  • Увеличенные правила: Глобальные правила ИИ имеют решающее значение для поддержания качества систем ИИ за рубежом. Следовательно, международные организации должны работать вместе, чтобы обеспечить стандартизацию ИИ.
  • Расширение внедрения ответственного ИИ: Ответственные стратегии ИИ вносят положительный вклад в смягчение предвзятости ИИ, культивирование справедливости и точности в системах ИИ, а также обеспечение их обслуживания разнообразной пользовательской базы, одновременно стремясь к постоянному совершенствованию.

Объединив разнообразные наборы данных, этическую ответственность и открытые средства коммуникации, мы можем гарантировать, что ИИ станет источником позитивных изменений во всем мире.

Если вы хотите узнать больше о предвзятости и роли искусственного интеллекта в нашем обществе, прочитайте следующие блоги.