Connect with us

5 Основных Столпов для Обеспечения Ответственного ИИ

Этика

5 Основных Столпов для Обеспечения Ответственного ИИ

mm

Мы наблюдаем ошеломляющий рост систем ИИ/МЛ для обработки океанов данных, которые генерируются в новой цифровой экономике. Однако с этим ростом возникает необходимость серьезно рассмотреть этические и юридические последствия ИИ.

Когда мы все больше доверяем ИИ-системам все более сложные и важные задачи, такие как автоматическое одобрение кредитов, например, мы должны быть абсолютно уверены, что эти системы являются ответственных и заслуживающими доверия. Снижение предвзятости в ИИ стало огромной областью внимания для многих исследователей и имеет огромные этические последствия, как и количество автономности, которую мы предоставляем этим системам.

Концепция Ответственного ИИ является важной основой, которая может помочь построить доверие к вашим развертываниям ИИ. Существует пять основных столпов для Ответственного ИИ. Эта статья исследует их, чтобы помочь вам построить лучшие системы.

1. Повторяемость

Есть старая пословица в мире разработки программного обеспечения, которая гласит: “Эй, это работает на моем компьютере”. В МЛ и ИИ эта фраза может быть изменена на: “Эй, это работает на моем наборе данных”. Это значит, что модели машинного обучения могут часто быть черным ящиком. Многие наборы данных для обучения могут иметь врожденные предвзятости, такие как предвзятость выборки или предвзятость подтверждения, которые снижают точность окончательного продукта.

Чтобы сделать системы ИИ/МЛ более повторяемыми, и поэтому точными и заслуживающими доверия, первый шаг – стандартизировать конвейер MLOps. Даже самые умные специалисты по данным имеют свои любимые технологии и библиотеки, что означает, что инженерия функций и полученные модели не являются унифицированными от человека к человеку. Используя инструменты, такие как MLflow, вы можете стандартизировать конвейер MLOps и уменьшить эти различия.

Другой способ сделать системы ИИ/МЛ более повторяемыми – это использование того, что называется “золотыми наборами данных”. Это представительные наборы данных, которые по сути действуют как тесты и проверка новых моделей перед их выпуском в производство.

2. Прозрачность

Как упоминалось ранее, многие модели МЛ, особенно нейронные сети, являются черными ящиками. Чтобы сделать их более ответственными, нам нужно сделать их более интерпретируемыми. Для простых систем, таких как деревья решений, легко понять, как и почему система приняла определенное решение, но по мере увеличения точности и сложности системы ИИ ее интерпретируемость часто уменьшается.

Существует новая область исследований под названием “объяснимость”, которая пытается привнести прозрачность даже в сложные системы ИИ, такие как нейронные сети и глубокое обучение. Они используют прокси-модели для копирования производительности нейронной сети, но они также пытаются дать действительные объяснения того, какие функции являются важными.

Все это приводит к справедливости; вы хотите знать, почему было принято определенное решение, и убедиться, что это решение является справедливым. Вы также хотите обеспечить, чтобы неуместные функции не учитывались, чтобы предвзятость не проникла в вашу модель.

3. Ответственность

Возможно, наиболее важным аспектом Ответственного ИИ является ответственность. Есть много разговоров об этой теме, даже в государственном секторе, поскольку она связана с тем, какие политики будут стимулировать результаты ИИ. Этот подход, основанный на политике, определяет, на какой стадии люди должны быть в цикле.

Ответственность требует прочных мониторов и метрик, чтобы помочь политикам и контролировать системы ИИ/МЛ. Ответственность действительно объединяет повторяемость и прозрачность, но она требует эффективного надзора в виде комитетов по этике ИИ. Эти комитеты могут принимать решения по политике, решать, что важно измерить, и проводить обзоры справедливости.

4. Безопасность

Безопасность ИИ фокусируется на конфиденциальности и целостности данных. Когда системы обрабатывают данные, вы хотите, чтобы они были в безопасной среде. Вы хотите, чтобы данные были зашифрованы, как во время хранения в вашей базе данных, так и во время передачи по конвейеру, но уязвимости все еще существуют, когда они передаются в модель машинного обучения в виде простого текста. Технологии, такие как гомоморфное шифрование, решают эту проблему, позволяя обучать модели машинного обучения в зашифрованной среде.

Другой аспект – безопасность самой модели. Например, атаки на инверсию модели позволяют хакерам узнать данные, использованные для построения модели. Также существуют атаки на отравление модели, которые вставляют плохие данные в модель во время ее обучения и полностью повреждают ее производительность. Тестирование вашей модели на такие атаки, как эти, может сохранить ее безопасность.

5. Конфиденциальность

Google и OpenMined – две организации, которые недавно уделяли приоритетное внимание конфиденциальности ИИ, и OpenMined провела недавнюю конференцию на эту тему. С новыми регуляциями, такими как GDPR и CCPA, и потенциально другими, которые могут быть приняты, конфиденциальность будет играть центральную роль в том, как мы обучаем модели машинного обучения.

Одним из способов обеспечить, что вы обрабатываете данные своих клиентов в конфиденциальном порядке, является использование федеративного обучения. Этот децентрализованный метод машинного обучения обучает разные модели локально, а затем агрегирует каждую модель в центральном хабе, сохраняя данные в безопасности, безопасности и конфиденциальности. Другой метод – введение статистического шума, чтобы индивидуальные значения клиентов не были раскрыты. Это сохраняет вашу работу с агрегатом, чтобы данные отдельного человека были целыми и не были доступны алгоритму.

Сохранение Ответственного ИИ

 В конечном итоге, сохранение Ответственного ИИ зависит от каждой организации, которая проектирует системы ИИ/МЛ. Преднамеренно преследуя технологии в каждом из этих пяти аспектов Ответственного ИИ, вы можете не только извлечь выгоду из силы искусственного интеллекта, но и сделать это в заслуживающем доверия и прямом виде, который будет успокаивать вашу организацию, клиентов и регулирующие органы.

Dattaraj Rao, Chief Data Scientist в Persistent Systems, является автором книги “Keras to Kubernetes: The Journey of a Machine Learning Model to Production.” В Persistent Systems Dattaraj возглавляет лабораторию AI Research, которая исследует современные алгоритмы в области Computer Vision, Natural Language Understanding, вероятностного программирования, Reinforcement Learning, Explainable AI и т. д. и демонстрирует их применимость в области здравоохранения, банковского дела и промышленности. Dattaraj имеет 11 патентов в области Machine Learning и Computer Vision.