Лидеры мысли
Практическое руководство по внедрению ответственного искусственного интеллекта

Внедрение искусственного интеллекта (ИИ) выходит за рамки ранних пилотных этапов и превращается в полностью интегрированные решения, стимулирующие производственный процесс и трансформацию предприятий в целом. В связи с этим перед руководителями стоит сложная задача: перевести ИИ из стадии проверки концепции в основу повседневной работы. Этот сдвиг требует от них ответа на новые вопросы, начиная от того, как ответственно разрабатывать, внедрять и использовать ИИ, и заканчивая созданием надежной основы для масштабирования.
Ответственный AI составляет около обеспечение того, чтобы ИИ был полезен, не причиняя вреда. для людей, организаций и общества. Хотя может сложиться впечатление, что это замедляет цикл развития, на практике это может усилить инновации. Внедрение ответственного ИИ может помочь уменьшить количество дорогостоящих ошибок, ускорить внедрение и укрепить доверие, обеспечить системы, готовые к регулированию, и повысить устойчивость.
Однако понимание того, как организации могут разрабатывать, внедрять и реализовывать ответственный подход к ИИ, является ключом к обеспечению его фундаментальной практики и полной интеграции. В этом руководстве мы предлагаем практическое руководство о том, как компании могут это сделать, обеспечивая человеческий контроль с самых ранних этапов проектирования до развертывания, мониторинга, оценки рисков и, в конечном итоге, вывода из эксплуатации.
Те, кто рассматривает ответственный подход к ИИ как нечто второстепенное, рискуют столкнуться с проблемами регулирования, ущербом для репутации и подрывом доверия клиентов. Напротив, те, кто внедряет его с самого начала, имеют лучшие возможности для устойчивого масштабирования ИИ.
Определение пяти принципов ответственной интеграции ИИ.
В основе любой стратегии ответственного использования ИИ лежит набор ключевых принципов, которые должны определять разработку, внедрение, оценку и управление. Влияние этих принципов будет формировать практические методы управления, управления рисками и соблюдения нормативных требований, которые обеспечивают безопасность людей и защищают ценность бренда.
Крупным организациям необходимо работать в тесном взаимодействии между командами и с внешними партнерами для обеспечения интеграции. Таким образом, существует пять ключевых принципов, которые предприятия могут принять, чтобы направить свои инициативы в области ИИ на достижение доверия, соответствия требованиям и этических результатов.
Во-первых, это ответственность. Кто-то должен нести ответственность за результат работы каждой важной системы ИИ, и должен быть человек или команда, ответственные за весь процесс от начала до конца. Начните с простой инвентаризации, автоматизируйте процесс в масштабе и начните составлять список систем ИИ, их назначение, источники данных и владельцев. Также важно иметь план действий на случай возникновения проблем. Крайне важно знать, как сделать паузу, как расследовать и устранять неполадки.
Во-вторых, важно оценить справедливость ИИ и его потенциальное влияние на людей. Не следует полагаться исключительно на технические показатели и помнить, что результаты работы ИИ могут различаться в разных группах и непреднамеренно ставить кого-то в невыгодное положение. Это крайне важно для случаев использования ИИ с высоким риском в таких областях, как найм персонала, кредитование или здравоохранение. По возможности используйте тестирование данных и включайте в него проверку человеком и обоснование полученных результатов.
В-третьих, безопасность имеет решающее значение. Угрозы системам ИИ продолжают развиваться, включая теперь и атаки, инициированные самими агентами или осуществляемые ими. Крайне важно учитывать эти риски и сотрудничать с группами безопасности для моделирования потенциальных атак. Необходимо заложить безопасность в саму конструкцию, ограничить доступ ИИ к другим системам и данным, а также проводить постоянное тестирование даже после запуска.
Четвертый фактор — конфиденциальность. Эта проблема выходит за рамки исходных обучающих данных, и конфиденциальность должна защищаться на каждом этапе. Учитывайте конфиденциальность в пользовательских подсказках, журналах переписки и результатах, генерируемых ИИ, поскольку все они могут содержать личную информацию. Разрабатывайте системы, которые собирают только необходимые данные, устанавливайте строгие правила доступа и хранения, а также проводите проверки конфиденциальности для приложений с более высоким уровнем риска.
Наконец, крайне важны прозрачность и предоставление механизмов контроля, адаптирующихся к потребностям заинтересованных сторон. Информация, необходимая клиентам, отличается от информации, необходимой разработчикам ИИ. Пользователи, в свою очередь, должны понимать, когда они взаимодействуют с ИИ, и осознавать его ограничения. Внутренним командам необходима четкая документация о том, как был создан ИИ и как он работает. Прозрачность системы ИИ способствует общему контролю и доверию к возможностям системы.
Понимание различий: Ответственный ИИ против управления ИИ
Хотя понятия «ответственный ИИ» и «управление ИИ» часто используются как синонимы, между ними существуют ключевые различия. Ответственный ИИ — это набор целостных практик и принципов для принятия заслуживающих доверия решений на протяжении всего процесса разработки, внедрения и использования ИИ. Он фокусируется на обеспечении таких возможностей, как пять вышеупомянутых принципов, для минимизации рисков и максимизации преимуществ ИИ.
С другой стороны, управление ИИ представляет собой набор политик, процедур и практик, направленных на достижение позитивных результатов и снижение вероятности причинения вреда. Оно фокусируется на внедрении соответствующих организационных и технических механизмов контроля для обеспечения ответственного и этичного использования ИИ, часто с акцентом на подотчетность и соблюдение законов и организационных политик.
Организации лучше подготовлены к ответственному масштабированию ИИ, сохраняя при этом доверие и готовность к соблюдению нормативных требований, если понимают, что эти два аспекта различны, но взаимосвязаны. Кроме того, хотя некоторые действия в области ответственности и управления требуются по закону, другие — нет. Например, законы, ограничивающие возможности женщин занимать определенные должности в некоторых странах. Поэтому для всестороннего и сбалансированного подхода к ответственному ИИ необходимы оба аспекта.
Важность гибкого управления
По мере распространения ИИ регулирующие органы вмешиваются, внедряя системы управления, выходящие за рамки добровольных рекомендаций. К таким нормативным актам относятся, например, следующие: Закон Европейского Союза об искусственном интеллекте Закон ставит регулирование на основе оценки рисков в центр управления ИИ. Вместо того чтобы регулировать технологию единообразно, закон классифицирует системы ИИ по нескольким уровням риска, которые учитывают потенциальный вред в зависимости от различных сценариев использования. Например, система отбора кандидатов на работу на основе ИИ отличается от системы рекомендаций товаров. Это означает, что управление, документация и меры защиты должны соответствовать контексту и применению ИИ.
В других юрисдикциях также разработаны рамки регулирования ИИ. В соответствии с этим Отчет IAPPСингапур продвигает гибкий подход, используя такие инструменты, как его Рамочная программа управления модельным искусственным интеллектом, делая акцент на тестировании и прозрачности, а не на строгих требованиях. Южная Корея Основной закон об ИИ Это также сочетает в себе надзор и пространство для инноваций. И внутри отраслей это различается. Финансовые услуги давно сталкиваются со строгими стандартами безопасности и справедливости, в то время как ИИ в здравоохранении должен соответствовать требованиям регулирования медицинских устройств. Потребительские технологические продукты также подпадают под действие законов о конфиденциальности и защите прав потребителей, и в каждой области требуются правила, адаптированные к ее профилю риска и ожиданиям общества.
Таким образом, универсальный подход к управлению ИИ не работает, поскольку отрасли и страны различаются по видам вреда, затрагиваемым заинтересованным сторонам и правовым рамкам, в рамках которых они действуют. Следовательно, необходима гибкость.
Как управлять автономным ИИ
По мере того как ИИ вступает в новую эру, переходя от узкоспециализированных систем прогнозирования к агентному ИИ — системам, способным планировать, адаптироваться и предпринимать автономные действия, — это влечет за собой новые риски.
Например, рассмотрим ИИ-агент, который автономно выполняет финансовую транзакцию или принимает кадровое решение. Если он неправильно классифицирует транзакцию или дает рекомендацию по найму, содержащую предвзятость, последствия для бизнеса будут серьезными: от финансовых потерь и ущерба репутации до штрафов со стороны регулирующих органов и юридических проблем.
Исследования, представленные в Экономические и системные аспекты в агентных веб-системах В статье также рассматриваются новые проблемы, возникающие в связи с появлением концепции агентной сети, которая функционирует на многоагентных, трансграничных рынках, работающих со скоростью машинного перевода. В ней изложены некоторые предварительные, направленные механизмы управления, включая агентов-хранителей/надзорные органы и машиночитаемую политику, с акцентом на инклюзивное внедрение в условиях неравномерного распределения ресурсов.
В связи с этим системы управления должны устанавливать ограничения и контролировать объем работы, которую система ИИ может выполнять автономно без участия человека. Необходимо создать четкие механизмы защиты, ограничить доступ к инструментам и функциям авторизации, а также предусмотреть конкретные этапы проектирования для обязательной проверки человеком. Следует тестировать все компоненты рабочего процесса, включая связи и взаимодействия между агентами, где часто возникают ошибки. Каждое действие должно регистрироваться для обеспечения отслеживаемости, а также должны быть внедрены механизмы деактивации системы при необходимости для управления этим риском.
Будущее ответственного искусственного интеллекта
Искусственный интеллект открывает беспрецедентные возможности для трансформации способов ведения бизнеса, внедрения инноваций и создания ценности, и ответственный подход к ИИ поддерживает это. Интеграция ответственного ИИ в проектирование, разработку и внедрение — это не просто тактика снижения юридических и финансовых рисков, она защищает и укрепляет репутацию бренда, завоевывает доверие клиентов, а также открывает рыночные преимущества, демонстрируя приверженность этическим инновациям.
Однако, чтобы в полной мере воспользоваться преимуществами ИИ, компаниям необходимо внедрить ключевые принципы ответственного управления во все аспекты своей системы, начиная с самого начала и до конца ее жизненного цикла. Это включает в себя интеграцию этических и управленческих соображений в стратегию работы с данными, вопросы конфиденциальности и сбора данных, проектирование и разработку систем, прозрачность и справедливость, развертывание и мониторинг, а также пост-развертывание и вывод из эксплуатации.
Для всех, кто занимается разработкой и внедрением ИИ, задача ясна: ответственно подходить к созданию, активно управлять, предвидеть риски сегодняшнего, завтрашнего и будущего дней, чтобы обеспечить успешное развитие ИИ в меняющемся мире.












