заглушки Что такое ответственный ИИ? Принципы, проблемы и преимущества - Unite.AI
Свяжитесь с нами:
Мастер-класс по ИИ:

AI 101

Что такое ответственный ИИ? Принципы, проблемы и преимущества

mm
обновленный on
Человек, держащий в руках глобус, стоя в полях.

Ответственный AI (RAI) относится к разработке и развертыванию систем искусственного интеллекта, которые являются прозрачными, беспристрастными, подотчетными и следуют этическим принципам. По мере того, как системы ИИ становятся все более надежными и распространенными, крайне важно обеспечить их ответственную разработку и соблюдение правил безопасности и этики.

Здоровье, транспорт, управление сетью и наблюдение критически важные для безопасности приложения ИИ где сбой системы может иметь серьезные последствия. Крупные фирмы осознают, что RAI необходим для снижения технологических рисков. Тем не менее, согласно отчету MIT Sloan/BCG, в котором приняли участие 1093 респондента, 54% компаний не хватало опыта и талантов в области ответственного ИИ.

Хотя идейные лидеры и организации разработали принципы ответственного ИИ, обеспечение ответственной разработки систем ИИ по-прежнему сопряжено с трудностями. Давайте рассмотрим эту идею подробно:

5 принципа ответственного ИИ

1. Справедливость

Технологи должны разрабатывать процедуры таким образом, чтобы системы ИИ относились ко всем людям и группам справедливо и без предвзятости. Следовательно, справедливость является основным требованием в приложениях для принятия решений с высоким риском.

Справедливость определяется как:

«Изучение влияния на различные демографические группы и выбор одного из нескольких математических определений групповой справедливости, которое адекватно удовлетворяет желаемому набору правовых, культурных и этических требований».

2. подотчетность

Подотчетность означает, что отдельные лица и организации, разрабатывающие и внедряющие системы ИИ, должны нести ответственность за свои решения и действия. Команда, развертывающая системы ИИ, должна убедиться, что их система ИИ прозрачна, интерпретируема, проверяема и не наносит вреда обществу.

Подотчетность включает семь компоненты:

  1. Контекст (цель, для которой требуется подотчетность)
  2. Ассортимент (предмет учета)
  3. Агент (кто несет ответственность?)
  4. Форум (кому должна отчитываться ответственная сторона)
  5. Стандарты (критерии подотчетности)
  6. Процесс (метод подотчетности)
  7. Последствия (последствия подотчетности)

3. прозрачность

Прозрачность означает, что причина принятия решений в системах ИИ ясна и понятна. Прозрачные системы ИИ объяснимы.

По Список оценок для надежного искусственного интеллекта (ALTAI), прозрачность имеет три ключевых элемента:

  1. Отслеживаемость (данные, этапы предварительной обработки и модель доступны)
  2. Объяснимость (причины принятия решений/предсказания ясны)
  3. Открытое общение (относительно ограничения системы ИИ)

4. Privacy

Конфиденциальность — один из основных принципов ответственного ИИ. Это относится к защите личной информации. Этот принцип гарантирует, что личная информация людей собирается и обрабатывается с их согласия и не попадает в руки недовольных.

Недавно был случай с Clearview, компанией, производящей модели распознавания лиц для правоохранительных органов и университетов. Британские наблюдатели за данными подала в суд на Clearview AI на 7.5 млн фунтов стерлингов за сбор изображений жителей Великобритании из социальных сетей без согласия для создания базы данных из 20 миллиардов изображений.

5. Безопасность

Безопасность означает обеспечение того, чтобы системы ИИ были безопасными и не угрожали обществу. Примером угрозы безопасности ИИ является состязательные атаки. Эти вредоносные атаки обманом заставляют модели машинного обучения принимать неверные решения. Защита систем ИИ от кибератак необходима для ответственного ИИ.

4 основные проблемы и риски ответственного ИИ

1. Смещение

Человеческие предубеждения, связанные с возрастом, полом, национальностью и расой, могут повлиять на сбор данных, что может привести к предвзятым моделям ИИ. Исследование Министерства торговли США обнаружил, что ИИ для распознавания лиц неправильно идентифицирует цветных людей. Следовательно, использование ИИ для распознавания лиц в правоохранительных органах может привести к неправомерным арестам. Кроме того, создание справедливых моделей ИИ является сложной задачей, поскольку 21 различные параметры для их определения. Итак, есть компромисс; Удовлетворение одному справедливому параметру ИИ означает принесение в жертву другого.

2. Интерпретируемость

Интерпретируемость — важнейшая задача в разработке ответственного ИИ. Это относится к пониманию того, как модель машинного обучения пришла к определенному выводу.

Глубоким нейронным сетям не хватает интерпретируемости, потому что они работают как черные ящики с несколькими слоями скрытых нейронов, что затрудняет понимание процесса принятия решений. Это может быть проблемой при принятии важных решений, таких как здравоохранение, финансы и т. д.

Более того, формализация интерпретируемости в моделях ML является сложной задачей, поскольку она субъективный и предметно-ориентированный.

3. управление

Управление относится к набору правил, политик и процедур, которые контролируют разработку и развертывание систем ИИ. В последнее время наблюдается значительный прогресс в дискурсе управления ИИ, когда организации представляют рамки и этические принципы.

Рекомендации по этике для надежный ИИ от ЕСАвстралийская система этики ИИи Принципы ИИ ОЭСР являются примерами структур управления ИИ.

Но быстрое развитие ИИ в последние годы может опередить эти структуры управления ИИ. С этой целью должна быть структура, которая оценивает справедливость, интерпретируемость и этичность систем ИИ.

4. Регулирование

По мере того, как системы ИИ становятся все более распространенными, необходимо регулирование, учитывающее этические и социальные ценности. Разработка регулирования, которое не душит инновации в области ИИ, является важнейшей задачей ответственного ИИ.

Даже с учетом Общего регламента по защите данных (GDPR), Калифорнийского закона о конфиденциальности потребителей (CCPA) и Закона о защите личной информации (PIPL) в качестве регулирующих органов исследователи ИИ обнаружили, что 97% веб-сайтов ЕС не соответствуют требованиям нормативно-правовой базы GDPR.

Кроме того, перед законодателями стоит серьезная проблема в достижении консенсуса по определению ИИ, которое включает как классические системы ИИ, так и новейшие приложения ИИ.

3 основных преимущества ответственного ИИ

1. Снижение смещения

Ответственный ИИ снижает предвзятость в процессах принятия решений, укрепляя доверие к системам ИИ. Уменьшение предвзятости в системах искусственного интеллекта может обеспечить справедливую и равноправную систему здравоохранения и уменьшить предвзятость в системах, основанных на искусственном интеллекте. финансовые услуги и так далее

2. Повышенная прозрачность

Ответственный ИИ создает прозрачные приложения ИИ, которые укрепляют доверие к системам ИИ. Прозрачные системы искусственного интеллекта уменьшить риск ошибки и неправильного использования. Повышенная прозрачность упрощает аудит систем ИИ, завоевывает доверие заинтересованных сторон и может привести к созданию подотчетных систем ИИ.

3. Улучшение безопасности

Защищенные приложения ИИ обеспечивают конфиденциальность данных, производят достоверные и безвредные результаты и защищены от кибератак.

Технические гиганты любят Microsoft и Google, которые находятся в авангарде разработки систем ИИ, разработали принципы ответственного ИИ. Ответственный ИИ гарантирует, что инновации в области ИИ не нанесут вреда отдельным людям и обществу.

Лидеры мнений, исследователи, организации и судебные органы должны постоянно пересматривать ответственную литературу по ИИ, чтобы обеспечить безопасное будущее для инноваций ИИ.

Для получения дополнительной информации, связанной с ИИ, посетите объединить.ай.