Connect with us

Пересечение разрыва доверия к ИИ

Лидеры мнений

Пересечение разрыва доверия к ИИ

mm

Усыновление ИИ достигает критической точки инфлексии. Бизнес с энтузиазмом принимает ИИ, движимый его обещанием достичь улучшений операционной эффективности в разы.

Недавний опрос Slack показал, что усыновление ИИ продолжает ускоряться, с использованием ИИ на рабочем месте, испытывающим недавний рост на 24%, и 96% опрошенных руководителей считают, что «срочно необходимо интегрировать ИИ во все бизнес-операции».

Однако существует расширяющийся разрыв между полезностью ИИ и растущей тревогой о его потенциальном негативном влиянии. Только 7% офисных работников считают, что выходные данные ИИ достаточно надежны, чтобы помочь им в рабочих задачах.

Этот разрыв очевиден в резком контрасте между энтузиазмом руководителей по интеграции ИИ и скептицизмом сотрудников, связанным с такими факторами, как:

Роль законодательства в построении доверия

Чтобы решить эти многофакторные проблемы доверия, законодательные меры все чаще рассматриваются как необходимый шаг. Законодательство может сыграть решающую роль в регулировании разработки и развертывания ИИ, тем самым повышая доверие. Ключевые законодательные подходы включают:

  • Законы о защите данных и конфиденциальности: реализация строгих законов о защите данных гарантирует, что системы ИИ обрабатывают личные данные ответственно. Регуляции, такие как Общий регламент по защите данных (GDPR) в Европейском Союзе, устанавливают прецедент, требуя прозрачности, минимизации данных и согласия пользователя. В частности, статья 22 GDPR защищает субъектов данных от потенциального негативного влияния автоматического принятия решений. Недавние решения Суда Европейского Союза (CJEU) подтверждают право человека не подвергаться автоматическому принятию решений. В случае Schufa Holding AG, где жителю Германии было отказано в банковском кредите на основании автоматизированной системы принятия кредитных решений, суд постановил, что статья 22 требует от организаций реализации мер по защите прав на конфиденциальность, связанных с использованием технологий ИИ.
  • Регуляции ИИ: Европейский Союз ратифицировал Закон ИИ ЕС (EU AIA), который направлен на регулирование использования систем ИИ на основе их уровня риска. Закон включает обязательные требования для систем ИИ с высоким риском, охватывающие такие области, как качество данных, документация, прозрачность и надзор человека. Одним из основных преимуществ регуляций ИИ является содействие прозрачности и объяснимости систем ИИ. Кроме того, EU AIA устанавливает четкие рамки ответственности, гарантируя, что разработчики, операторы и даже пользователи систем ИИ несут ответственность за свои действия и результаты развертывания ИИ. Это включает механизмы для возмещения ущерба, если система ИИ причиняет вред. Когда люди и организации несут ответственность, это укрепляет доверие к тому, что системы ИИ управляются ответственно.

Инициативы по стандартам для создания культуры доверия к ИИ

Компании не должны ждать, пока новые законы будут приняты, чтобы определить, соответствуют ли их процессы этическим и достоверным рекомендациям. Регуляции ИИ работают в тандеме с появляющимися инициативами по стандартам ИИ, которые позволяют организациям реализовать ответственное управление ИИ и лучшие практики на протяжении всего жизненного цикла систем ИИ, охватывающего проектирование, реализацию, развертывание и, в конечном итоге, вывод из эксплуатации.

Национальный институт стандартов и технологий (NIST) в Соединенных Штатах разработал рамку управления рисками ИИ, чтобы руководить организациями в управлении рисками, связанными с ИИ. Рамка структурирована вокруг четырех основных функций:

  • Понимание системы ИИ и контекста, в котором она работает. Это включает определение цели, заинтересованных сторон и потенциального влияния системы ИИ.
  • Количественная оценка рисков, связанных с системой ИИ, включая технические и нетехнические аспекты. Это предполагает оценку производительности системы, надежности и потенциальных предубеждений.
  • Реализация стратегий для смягчения выявленных рисков. Это включает разработку политики, процедур и контроля для обеспечения того, чтобы система ИИ работала в пределах допустимого уровня риска.
  • Установление структур управления и механизмов ответственности для надзора за системой ИИ и ее процессами управления рисками. Это предполагает регулярные обзоры и обновления стратегии управления рисками.

В ответ на достижения в области технологий генеративного ИИ NIST также опубликовал Рамку управления рисками ИИ: Профиль генеративного искусственного интеллекта, который предоставляет рекомендации по смягчению конкретных рисков, связанных с базовыми моделями. Такие меры охватывают защиту от злонамеренного использования (например, дезинформации, деградации контента, ненавистной речи) и этического использования ИИ, который фокусируется на человеческих ценностях справедливости, конфиденциальности, информационной безопасности, интеллектуальной собственности и устойчивости.

Кроме того, Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) совместно разработали ISO/IEC 23894, комплексный стандарт для управления рисками ИИ. Этот стандарт предоставляет системный подход к выявлению и управлению рисками на протяжении всего жизненного цикла ИИ, включая выявление рисков, оценку тяжести риска, смягчение или избежание его, и постоянный мониторинг и обзор.

Будущее ИИ и общественное доверие

Взглянув вперед, будущее ИИ и общественное доверие, скорее всего, будут зависеть от нескольких ключевых факторов, которые необходимы для всех организаций:

  • Проведение комплексной оценки рисков для выявления потенциальных проблем с соблюдением требований. Оцените этические последствия и потенциальные предубеждения в ваших системах ИИ.
  • Установление межфункциональной команды, включающей юристов, специалистов по соблюдению требований, ИТ и данные науки. Эта команда должна быть ответственна за мониторинг изменений в регуляторной среде и обеспечение того, чтобы ваши системы ИИ соответствовали новым регуляциям.
  • Реализация структуры управления, которая включает политику, процедуры и роли для управления инициативами ИИ. Обеспечьте прозрачность в операциях ИИ и процессах принятия решений.
  • Проведение регулярных внутренних аудитов для обеспечения соблюдения регуляций ИИ. Используйте инструменты мониторинга для отслеживания производительности системы ИИ и соблюдения регуляторных стандартов.
  • Обучение сотрудников об этике ИИ, регуляторных требованиях и лучших практиках. Предоставляйте постоянные обучающие сессии, чтобы поддерживать сотрудников в курсе изменений в регуляциях ИИ и стратегиях соблюдения требований.
  • Ведение подробных записей процессов разработки ИИ, использования данных и критериев принятия решений. Будьте готовы генерировать отчеты, которые можно представить регуляторам, если это необходимо.
  • Установление отношений с регуляторными органами и участие в публичных консультациях. Предоставляйте обратную связь по предложенным регуляциям и обращайтесь за разъяснениями, когда это необходимо.

Контекстуализация ИИ для достижения доверия

В конечном итоге, доверие к ИИ зависит от целостности данных. Зависимость генеративного ИИ от больших наборов данных не означает точность и надежность выходных данных; если что-то и противоположно, то это не соответствует стандартам. Retrieval Augmented Generation (RAG) – это инновационный метод, который «объединяет статические модели LLM с контекстно-зависимыми данными. И его можно рассматривать как очень знающего помощника. Того, который сопоставляет контекст запроса с конкретными данными из всесторонней базы знаний». RAG позволяет организациям создавать контекстно-зависимые приложения, которые соответствуют ожиданиям конфиденциальности, безопасности, точности и надежности. RAG улучшает точность сгенерированных ответов, извлекая соответствующую информацию из базы знаний или хранилища документов. Это позволяет модели основывать свое генерирование на точной и актуальной информации.

RAG позволяет организациям создавать специализированные приложения ИИ, которые являются высокоточными, контекстно-зависимыми и адаптируемыми для улучшения процессов принятия решений, повышения качества обслуживания клиентов, оптимизации операций и достижения значительных конкурентных преимуществ.

Пересечение разрыва доверия к ИИ предполагает обеспечение прозрачности, подотчетности и этического использования ИИ. Хотя нет единого ответа на поддержание этих стандартов, у бизнеса есть стратегии и инструменты в их распоряжении. Реализация надежных мер защиты данных и соблюдение регуляторных стандартов укрепляет доверие пользователей. Регулярный аудит систем ИИ на предмет предубеждений и неточностей гарантирует справедливость. Дополнение крупномасштабных языковых моделей (LLM) специализированным ИИ создает доверие, включая проприетарные базы знаний и источники данных. Вовлечение заинтересованных сторон в обсуждение возможностей и ограничений ИИ также укрепляет доверие и принятие

Доверие к ИИ не легко достижимо, но это важная приверженность нашему будущему.

Эндрю Пери является эвангелистом по этике ИИ в глобальной компании интеллектуальной автоматизации ABBYY. Он имеет степень магистра права с отличием Северо-Западного университета Пritzker School of Law и является сертифицированным специалистом по защите данных. Пери имеет более 25 лет опыта руководства программами управления технологиями для ведущих глобальных технологических компаний. Его экспертиза заключается в интеллектуальной автоматизации процессов документов и процессной интеллекте с особым опытом в технологиях ИИ, программном обеспечении, защите данных и этике ИИ.