Свяжитесь с нами:

Преодоление разрыва в доверии к ИИ

Лидеры мысли

Преодоление разрыва в доверии к ИИ

mm

Внедрение ИИ достигает критической точки. Предприятия с энтузиазмом внедряют ИИ, движимые его обещанием добиться повышения операционной эффективности на порядок.

В недавнем Слабый опрос обнаружили, что внедрение ИИ продолжает ускоряться: за последнее время использование ИИ на рабочих местах выросло на 24%, а 96% опрошенных руководителей считают, что «необходимо срочно интегрировать ИИ в свои бизнес-операции».

Однако существует расширяющийся разрыв между полезностью ИИ и растущей тревогой по поводу его потенциальных негативных последствий. Всего 7%работников офиса считают, что результаты от ИИ достаточно надежны, чтобы помочь им в выполнении задач, связанных с работой.

Этот разрыв очевиден в резком контрасте между энтузиазмом руководителей по поводу интеграции ИИ и скептицизмом сотрудников, связанным с такими факторами, как:

Роль законодательства в построении доверия

Для решения этих многогранных проблем доверия законодательные меры все чаще рассматриваются как необходимый шаг. Законодательство может сыграть ключевую роль в регулировании разработки и внедрения ИИ, тем самым повышая доверие. Ключевые законодательные подходы включают:

  • Законы о защите данных и конфиденциальности. Внедрение строгих законов о защите данных гарантирует, что системы искусственного интеллекта будут ответственно обращаться с личными данными. Такие правила, как Общий регламент по защите данных (GDPR) в Европейском Союзе, создают прецедент, требуя прозрачности, минимизации данных и согласия пользователей. В частности, Статья 22 GDPR защищает субъектов данных от потенциальных негативных последствий автоматизированного принятия решений. Недавние решения Суда Европейского Союза (CJEU) подтверждают права человека не подвергаться автоматическому принятию решений. В случае Шуфа Холдинг АГ, В случае, когда резиденту Германии было отказано в банковском кредите на основании автоматизированной системы принятия кредитных решений, суд постановил, что статья 22 требует от организаций принятия мер для защиты прав на конфиденциальность, связанных с использованием технологий искусственного интеллекта..
  • Правила ИИ: Европейский Союз ратифицировал Закон ЕС об искусственном интеллекте (АИА ЕС), целью которого является регулирование использования систем искусственного интеллекта в зависимости от уровня их риска. Закон включает обязательные требования к системам искусственного интеллекта высокого риска, охватывающие такие области, как качество данных, документация, прозрачность и человеческий надзор. Одним из основных преимуществ регулирования ИИ является повышение прозрачности и объяснимости систем ИИ. Кроме того, AIA ЕС устанавливает четкие рамки подотчетности, гарантируя, что разработчики, операторы и даже пользователи систем ИИ несут ответственность за свои действия и результаты развертывания ИИ. Это включает механизмы возмещения ущерба если система ИИ причинит вред. Когда отдельные лица и организации привлекаются к ответственности, это укрепляет уверенность в том, что системы ИИ управляются ответственно.

Инициативы по стандартизации для развития культуры заслуживающего доверия ИИ

Компаниям не нужно ждать принятия новых законов, чтобы установить, соответствуют ли их процессы этическим и заслуживающим доверия принципам. Нормативные акты в области ИИ работают в тандеме с новыми инициативами по стандартам ИИ, которые дают организациям возможность внедрять ответственное управление ИИ и передовые методы на протяжении всего жизненного цикла систем ИИ, включая проектирование, внедрение, развертывание и, в конечном итоге, вывод из эксплуатации.

Национальный институт стандартов и технологий (NIST) США разработал Структура управления рисками ИИ помогать организациям управлять рисками, связанными с ИИ. Структура структурирована вокруг четырех основных функций:

  • Понимание системы искусственного интеллекта и контекста, в котором она работает. Это включает определение цели, заинтересованных сторон и потенциального воздействия системы ИИ.
  • Количественная оценка рисков, связанных с системой ИИ, включая технические и нетехнические аспекты. Это включает в себя оценку производительности системы, ее надежности и потенциальных ошибок.
  • Реализация стратегий по смягчению выявленных рисков. Это включает в себя разработку политик, процедур и средств контроля, обеспечивающих работу системы ИИ в пределах допустимых уровней риска.
  • Создание структур управления и механизмов подотчетности для надзора за системой ИИ и ее процессами управления рисками. Это предполагает регулярные обзоры и обновления стратегии управления рисками.

В ответ на достижения в области генеративных технологий искусственного интеллекта NIST также опубликовал «Структуру управления рисками искусственного интеллекта: профиль генеративного искусственного интеллекта»., который содержит рекомендации по снижению конкретных рисков, связанных с базовыми моделями. Такие меры охватывают защиту от гнусного использования (например, дезинформации, порочащего контента, разжигания ненависти) и этического применения ИИ, ориентированного на человеческие ценности справедливости, конфиденциальности, информационной безопасности, интеллектуальной собственности и устойчивости.

Кроме того, Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) совместно разработали ИСО/МЭК 23894, комплексный стандарт управления рисками ИИ. Этот стандарт обеспечивает систематический подход к выявлению рисков и управлению ими на протяжении всего жизненного цикла ИИ, включая выявление рисков, оценку серьезности риска, меры по его смягчению или предотвращению, а также непрерывный мониторинг и анализ.

Будущее искусственного интеллекта и общественного доверия

Заглядывая в будущее, можно сказать, что будущее искусственного интеллекта и общественного доверия, скорее всего, будет зависеть от нескольких ключевых факторов, которым необходимо следовать всем организациям:

  • Проведение комплексной оценки рисков для выявления потенциальных проблем с соблюдением требований. Оцените этические последствия и потенциальные предубеждения в ваших системах ИИ.
  • Создание межфункциональной команды, включающей специалистов по правовым вопросам, соблюдению нормативных требований, ИТ и науке о данных. Эта группа должна отвечать за мониторинг изменений в нормативных актах и ​​обеспечение соответствия ваших систем искусственного интеллекта новым правилам.
  • Внедрение структуры управления, включающей политики, процедуры и роли для управления инициативами в области ИИ. Обеспечьте прозрачность операций ИИ и процессов принятия решений.
  • Проведение регулярных внутренних аудитов для обеспечения соблюдения правил ИИ. Используйте инструменты мониторинга, чтобы отслеживать производительность системы искусственного интеллекта и соблюдение нормативных стандартов.
  • Обучение сотрудников этике искусственного интеллекта, нормативным требованиям и передовому опыту. Проводите постоянные учебные занятия, чтобы держать персонал в курсе изменений в правилах ИИ и стратегиях обеспечения соответствия.
  • Ведение подробных записей процессов разработки ИИ, использования данных и критериев принятия решений. Подготовьтесь к созданию отчетов, которые при необходимости можно будет предоставить регулирующим органам.
  • Построение отношений с регулирующими органами и участие в общественных консультациях. Оставляйте отзывы о предлагаемых правилах и при необходимости обращайтесь за разъяснениями.

Контекстуализируйте ИИ для достижения надежного ИИ 

В конечном счете, надежность ИИ зависит от целостности данных. Зависимость генеративного ИИ от больших наборов данных не означает точности и надежности результатов; во всяком случае, это противоречит обоим стандартам. Поисковая дополненная генерация (RAG) — это инновационная технология, которая «объединяет статические LLM с контекстно-зависимыми данными. И его можно рассматривать как очень знающего помощника. Тот, который сопоставляет контекст запроса с конкретными данными из обширной базы знаний.». RAG позволяет организациям предоставлять контекстно-зависимые приложения, отвечающие ожиданиям конфиденциальности, безопасности, точности и надежности. RAG повышает точность генерируемых ответов за счет получения соответствующей информации из базы знаний или хранилища документов. Это позволяет модели основывать свое формирование на точной и актуальной информации.

RAG дает организациям возможность создавать специализированные приложения искусственного интеллекта, которые являются высокоточными, контекстно-зависимыми и адаптируемыми для улучшения процесса принятия решений, улучшения качества обслуживания клиентов, оптимизации операций и достижения значительных конкурентных преимуществ.

Устранение разрыва в доверии к ИИ предполагает обеспечение прозрачности, подотчетности и этичного использования ИИ. Хотя не существует единого ответа на вопрос, как поддерживать эти стандарты, у предприятий есть стратегии и инструменты. Внедрение надежных мер конфиденциальности данных и соблюдение нормативных стандартов повышает доверие пользователей. Регулярный аудит систем искусственного интеллекта на предмет предвзятости и неточностей обеспечивает справедливость. Дополнение больших языковых моделей (LLM) специальным искусственным интеллектом обеспечивает доверие за счет включения собственных баз знаний и источников данных. Привлечение заинтересованных сторон к информации о возможностях и ограничениях ИИ также способствует укреплению доверия и принятия.

Надежного ИИ добиться нелегко, но это жизненно важное обязательство для нашего будущего.

Эндрю Пери — евангелист по этике ИИ в глобальной компании по интеллектуальной автоматизации. ABBYY. Он имеет степень магистра права с отличием юридического факультета Притцкеровского университета Северо-Западного университета и является сертифицированным специалистом по конфиденциальности данных. Пери имеет более чем 25-летний опыт руководства программами управления технологиями для ведущих мировых технологических компаний. Его опыт заключается в автоматизации интеллектуальных процессов обработки документов и аналитике процессов, а также в области технологий искусственного интеллекта, прикладного программного обеспечения, конфиденциальности данных и этики искусственного интеллекта.