Connect with us

Практическое руководство по внедрению ответственного ИИ

Лидеры мнений

Практическое руководство по внедрению ответственного ИИ

mm

Развертывания искусственного интеллекта (ИИ) переходят от ранних пилотных фаз к полноценным интегрированным решениям, стимулируя производство и трансформацию на уровне всего предприятия. В этой связи перед руководителями стоит сложная задача: перевести ИИ из стадии доказательства концепции в核心 повседневных операций. Этот переход требует от них ответов на новые вопросы, начиная от того, как разработать, развернуть и использовать ИИ ответственно, и заканчивая построением достоверной основы, на которой можно масштабировать.

Ответственный ИИ заключается в обеспечении того, чтобы ИИ был полезен, не причиняя вреда людям, организациям и обществу. Хотя может показаться, что это может замедлить цикл разработки, на практике это может сделать инновации сильнее. Внедрение ответственного ИИ может помочь уменьшить количество дорогостоящих неудач, обеспечить более быструю адоптацию и доверие, предоставить системы, готовые к регулированию, и улучшить устойчивость.

Однако понимание того, как организации могут разработать, развернуть и принять ответственный ИИ, является ключом к обеспечению его основной практики и полной интеграции. Здесь мы предоставляем практическое руководство о том, как компании могут сделать это, обеспечивая человеческий надзор с ранних стадий проектирования до развертывания, мониторинга, оценки рисков и окончательного вывода из эксплуатации.

Те, кто рассматривает ответственный ИИ как после мысли, рискуют столкнуться с регулирующими последствиями, ущербом репутации и эрозией доверия клиентов. Напротив, те, кто внедряет его с самого начала, лучше подготовлены к масштабированию ИИ устойчиво.

Определение пяти принципов для интеграции ответственного ИИ

В основе любой стратегии ответственного ИИ лежит набор основных принципов, которые должны руководить разработкой, развертыванием, оценкой и управлением. Влияние этих принципов будет формировать практические методы управления, оценки рисков и соблюдения правил, которые защищают людей и сохраняют ценность бренда.

Для крупных организаций они должны работать в команде и с внешними партнерами, чтобы обеспечить его интеграцию. Таким образом, существуют пять ключевых принципов, которые бизнес может принять, чтобы направить свои инициативы ИИ к доверию, соблюдению правил и этическим результатам.

Первым является подотчетность. Кто-то должен нести ответственность за результат каждой важной системы ИИ, и должна быть человек или команда, ответственные с начала до конца. Начните с простого инвентаризации, автоматизируйте для масштабирования и начните перечислять системы ИИ, их цели, источники данных и владельцев. Также важно иметь план на случай, когда что-то пойдет не так. Необходимо знать, как приостановить и как расследовать и смягчить проблемы.

Вторым является оценка справедливости ИИ и его потенциального воздействия на людей. Не полагайтесь исключительно на технические метрики и будьте осведомлены, что результаты ИИ могут различаться в разных группах и непреднамеренно поставить кого-то в невыгодное положение. Это имеет решающее значение для высокорисковых случаев использования в таких областях, как прием на работу, кредитование или здравоохранение. Используйте тесты данных, когда это возможно, и включайте человеческий обзор и причины вывода.

Третьим является безопасность. Угрозы системам ИИ продолжают эволюционировать, теперь включая атаки, основанные на подсказках или агентах. Необходимо устранить эти риски и работать с командами безопасности, чтобы смоделировать эти потенциальные атаки. Включите безопасность в проект, ограничьте доступ ИИ к другим системам и данным и проводите постоянное тестирование, даже после запуска.

Четвертым фактором является конфиденциальность. Эта проблема выходит за рамки начальных данных обучения, и конфиденциальность должна быть защищена на каждом этапе. Рассмотрите конфиденциальность в подсказках пользователей, журналах разговоров и сгенерированных выводах ИИ, поскольку все они могут содержать конфиденциальную информацию. Разработайте системы для сбора только необходимых данных, установите строгие правила доступа и хранения, и проводите обзоры конфиденциальности для приложений с более высоким риском.

Наконец, прозрачность и предоставление контроля, адаптированного к заинтересованным сторонам, является важным. То, что нужно знать клиентам, отличается от того, что нужно знать разработчикам ИИ. Альтернативно, пользователям следует знать, когда они взаимодействуют с ИИ и понимать его ограничения. Внутренним командам необходима четкая документация о том, как был построен ИИ и как он работает. Прозрачность системы ИИ способствует совместному надзору и доверию к возможностям системы.

Понимание различий: Ответственный ИИ против управления ИИ

Хотя ответственный ИИ и управление ИИ часто используются как синонимы, между ними существуют ключевые различия. Ответственный ИИ представляет собой комплекс практик и принципов для принятия достоверных решений на протяжении всего процесса разработки, развертывания и использования ИИ. Он фокусируется на обеспечении возможностей, таких как пять принципов, упомянутых выше, для минимизации рисков и максимизации преимуществ ИИ.

Управление ИИ, с другой стороны, представляет собой набор политик, процедур и практик, направленных на обеспечение положительных результатов и снижение вероятности вреда. Он фокусируется на установлении организационных и технических контролей для обеспечения ответственного и этичного ИИ, часто с акцентом на подотчетности и соблюдении законов и политик организации.

Организации лучше подготовлены к масштабированию ИИ ответственно, сохраняя при этом доверие и готовность к регулированию, когда они понимают, что эти два аспекта различны, но связаны. Кроме того, хотя некоторые действия по ответственности и управлению требуются законом, некоторые нет. Например, законы, которые налагают ограничения на работу женщин в определенных странах. Следовательно, оба необходимы для комплексного и сбалансированного подхода к ответальному ИИ.

Важность гибкого управления

По мере того, как ИИ распространяется, регулирующие органы вводят рамки управления, которые выходят за рамки добровольных руководств. Регуляции, такие как Закон Европейского Союза об искусственном интеллекте, ставят риск-ориентированное регулирование в центр управления ИИ. Вместо того, чтобы регулировать технологию.uniformly, Закон классифицирует системы ИИ на несколько уровней риска, которые признают потенциальный вред на основе различных случаев использования. Например, система ИИ для отбора на работу против системы рекомендаций для покупок. Это подразумевает, что управление, документация и меры безопасности должны соответствовать контексту и применению ИИ.

Другие юрисдикции также определили рамки для управления ИИ. Согласно отчету IAPP, Сингапур продвигает гибкий подход с инструментами, такими как его рамка управления ИИ, подчеркивая тестирование и прозрачность над строгими директивами. Закон о базовых началах ИИ Южной Кореи также сочетает надзор с возможностью для инноваций. И внутри отраслей это различается. Финансовые услуги уже давно сталкиваются с жесткими стандартами безопасности и справедливости, в то время как ИИ в здравоохранении должен соответствовать правилам медицинских устройств. Продукты потребительской техники также подлежат законам о защите конфиденциальности и потребителей, с каждой областью, требующей регулирования, адаптированного к его профилю риска и социальным ожиданиям.

Следовательно, подход “один размер для всех” к управлению ИИ не работает, поскольку отрасли и домены стран различаются по типам вреда, затронутым заинтересованным сторонам и правовым рамкам, в которых они работают. Таким образом, необходимо обеспечить гибкость.

Управление автономным ИИ

По мере того, как ИИ входит в новую эру, переходя от узких прогностических двигателей к агентному ИИ, системам, способным планировать, адаптироваться и совершать автономные действия, это сопряжено с новыми рисками.

Например, рассмотрим агентный ИИ, который автономно выполняет финансовую транзакцию или решение по персоналу. Если он неправильно классифицирует транзакцию или делает рекомендацию по найму, которая внедряет предвзятость, последствия для бизнеса будут тяжелыми, от финансовых потерь до ущерба репутации, регулирующих штрафов и юридической ответственности.

Исследования, представленные в Экономических и системных соображениях агентных веб-систем, также объясняют новые проблемы, связанные с концепцией агентного веба, которая действует в многоагентных, трансграничных, высокоскоростных рынках. Он очерчивает некоторые предварительные, направленные рычаги управления, включая агентов-надзорных/агентов и машинно-читаемую политику, с акцентом на инклюзивном внедрении в условиях неравномерных ограничений ресурсов.

Против этого системы управления должны устанавливать пределы и контролировать, насколько система ИИ может автономно обрабатывать без одобрения человека. Они должны установить четкие ограничения, ограничить доступ к инструментам и функциям авторизации, а также обеспечить конкретные точки проектирования для обязательного человеческого обзора. Все компоненты рабочего процесса должны быть протестированы, включая соединения и взаимодействия между агентами, где часто происходят ошибки. Каждое действие должно быть зарегистрировано для отслеживания, и должны быть установлены контроли для деактивации системы, когда это необходимо для управления этим риском.

Будущее ответственного ИИ

ИИ предлагает беспрецедентные возможности для трансформации того, как работают бизнесы, инновации, создают ценность, и ответственный ИИ поддерживает это. Интеграция ответственного ИИ в проектирование, разработку и развертывание не является только тактикой смягчения юридических рисков, но также защищает и усиливает репутацию бренда, завоевывает доверие клиентов и открывает рыночное преимущество, демонстрируя приверженность этическим инновациям.

Однако, чтобы раскрыть его преимущества, компании должны внедрить ключевые ответственные практики на протяжении всего цикла жизни системы ИИ, начиная с начала и до самого конца. Это включает в себя интеграцию этических и управленческих соображений в стратегию данных, конфиденциальность и сбор, проектирование систем, разработку, прозрачность и справедливость, развертывание и мониторинг, а также пост-развертывание и вывод из эксплуатации.

Для всех, кто участвует в разработке и развертывании ИИ, мандат ясен: строить ответственно, управлять проактивно, предвидеть риски сегодня, завтра и в будущем, чтобы обеспечить успешную эволюцию ИИ в меняющемся мире.

Доктор Хитер Домин, Вице-президент и руководитель отдела Ответственного ИИ и Управления в HCLTech, является ведущим экспертом в области Ответственного ИИ, консультируя глобальные организации по этическим вопросам управления ИИ и его реализации.