Лидеры мысли
Преодоление разрыва в доверии к ИИ
Внедрение ИИ достигает критической точки. Предприятия с энтузиазмом внедряют ИИ, движимые его обещанием добиться повышения операционной эффективности на порядок.
В недавнем Слабый опрос обнаружили, что внедрение ИИ продолжает ускоряться: за последнее время использование ИИ на рабочих местах выросло на 24%, а 96% опрошенных руководителей считают, что «необходимо срочно интегрировать ИИ в свои бизнес-операции».
Однако существует расширяющийся разрыв между полезностью ИИ и растущей тревогой по поводу его потенциальных негативных последствий. Всего 7% работников офиса считают, что результаты от ИИ достаточно надежны, чтобы помочь им в выполнении задач, связанных с работой.
Этот разрыв очевиден в резком контрасте между энтузиазмом руководителей по поводу интеграции ИИ и скептицизмом сотрудников, связанным с такими факторами, как:
- Предвзятость и справедливость: системы ИИ могут увековечить или даже усугубить существующие предубеждения приводящие к несправедливым результатам.
- Конфиденциальность и безопасность: сотрудники беспокоятся о том, как их личные данные собирается, хранится и используется системами искусственного интеллекта.
- Непрозрачное принятие решений. Системы искусственного интеллекта часто действуют как «черные ящики», принимая решения, которые человеку трудно понять или объяснить.
- Беспокойство по поводу автоматизации: широко распространено опасение, что ИИ заменит человеческие рабочие места, что приводит к безработице и экономической нестабильности.
Роль законодательства в построении доверия
Для решения этих многогранных проблем доверия законодательные меры все чаще рассматриваются как необходимый шаг. Законодательство может сыграть ключевую роль в регулировании разработки и внедрения ИИ, тем самым повышая доверие. Ключевые законодательные подходы включают:
- Законы о защите данных и конфиденциальности. Внедрение строгих законов о защите данных гарантирует, что системы искусственного интеллекта будут ответственно обращаться с личными данными. Такие правила, как Общий регламент по защите данных (GDPR) в Европейском Союзе, создают прецедент, требуя прозрачности, минимизации данных и согласия пользователей. В частности, Статья 22 GDPR защищает субъектов данных от потенциальных негативных последствий автоматизированного принятия решений. Недавние решения Суда Европейского Союза (CJEU) подтверждают права человека не подвергаться автоматическому принятию решений. В случае Шуфа Холдинг АГ, В случае, когда резиденту Германии было отказано в банковском кредите на основании автоматизированной системы принятия кредитных решений, суд постановил, что статья 22 требует от организаций принятия мер для защиты прав на конфиденциальность, связанных с использованием технологий искусственного интеллекта..
- Правила ИИ: Европейский Союз ратифицировал Закон ЕС об искусственном интеллекте (АИА ЕС), целью которого является регулирование использования систем искусственного интеллекта в зависимости от уровня их риска. Закон включает обязательные требования к системам искусственного интеллекта высокого риска, охватывающие такие области, как качество данных, документация, прозрачность и человеческий надзор. Одним из основных преимуществ регулирования ИИ является повышение прозрачности и объяснимости систем ИИ. Кроме того, AIA ЕС устанавливает четкие рамки подотчетности, гарантируя, что разработчики, операторы и даже пользователи систем ИИ несут ответственность за свои действия и результаты развертывания ИИ. Это включает механизмы возмещения ущерба если система ИИ причинит вред. Когда отдельные лица и организации привлекаются к ответственности, это укрепляет уверенность в том, что системы ИИ управляются ответственно.
Инициативы по стандартизации для развития культуры заслуживающего доверия ИИ
Компаниям не нужно ждать принятия новых законов, чтобы установить, соответствуют ли их процессы этическим и заслуживающим доверия принципам. Нормативные акты в области ИИ работают в тандеме с новыми инициативами по стандартам ИИ, которые дают организациям возможность внедрять ответственное управление ИИ и передовые методы на протяжении всего жизненного цикла систем ИИ, включая проектирование, внедрение, развертывание и, в конечном итоге, вывод из эксплуатации.
Национальный институт стандартов и технологий (NIST) США разработал Структура управления рисками ИИ помогать организациям управлять рисками, связанными с ИИ. Структура структурирована вокруг четырех основных функций:
- Понимание системы искусственного интеллекта и контекста, в котором она работает. Это включает определение цели, заинтересованных сторон и потенциального воздействия системы ИИ.
- Количественная оценка рисков, связанных с системой ИИ, включая технические и нетехнические аспекты. Это включает в себя оценку производительности системы, ее надежности и потенциальных ошибок.
- Реализация стратегий по смягчению выявленных рисков. Это включает в себя разработку политик, процедур и средств контроля, обеспечивающих работу системы ИИ в пределах допустимых уровней риска.
- Создание структур управления и механизмов подотчетности для надзора за системой ИИ и ее процессами управления рисками. Это предполагает регулярные обзоры и обновления стратегии управления рисками.
В ответ на достижения в области генеративных технологий искусственного интеллекта NIST также опубликовал «Структуру управления рисками искусственного интеллекта: профиль генеративного искусственного интеллекта»., который содержит рекомендации по снижению конкретных рисков, связанных с базовыми моделями. Такие меры охватывают защиту от гнусного использования (например, дезинформации, порочащего контента, разжигания ненависти) и этического применения ИИ, ориентированного на человеческие ценности справедливости, конфиденциальности, информационной безопасности, интеллектуальной собственности и устойчивости.
Кроме того, Международная организация по стандартизации (ISO) и Международная электротехническая комиссия (IEC) совместно разработали ИСО/МЭК 23894, комплексный стандарт управления рисками ИИ. Этот стандарт обеспечивает систематический подход к выявлению рисков и управлению ими на протяжении всего жизненного цикла ИИ, включая выявление рисков, оценку серьезности риска, меры по его смягчению или предотвращению, а также непрерывный мониторинг и анализ.
Будущее искусственного интеллекта и общественного доверия
Заглядывая в будущее, можно сказать, что будущее искусственного интеллекта и общественного доверия, скорее всего, будет зависеть от нескольких ключевых факторов, которым необходимо следовать всем организациям:
- Проведение комплексной оценки рисков для выявления потенциальных проблем с соблюдением требований. Оцените этические последствия и потенциальные предубеждения в ваших системах ИИ.
- Создание межфункциональной команды, включающей специалистов по правовым вопросам, соблюдению нормативных требований, ИТ и науке о данных. Эта группа должна отвечать за мониторинг изменений в нормативных актах и обеспечение соответствия ваших систем искусственного интеллекта новым правилам.
- Внедрение структуры управления, включающей политики, процедуры и роли для управления инициативами в области ИИ. Обеспечьте прозрачность операций ИИ и процессов принятия решений.
- Проведение регулярных внутренних аудитов для обеспечения соблюдения правил ИИ. Используйте инструменты мониторинга, чтобы отслеживать производительность системы искусственного интеллекта и соблюдение нормативных стандартов.
- Обучение сотрудников этике искусственного интеллекта, нормативным требованиям и передовому опыту. Проводите постоянные учебные занятия, чтобы держать персонал в курсе изменений в правилах ИИ и стратегиях обеспечения соответствия.
- Ведение подробных записей процессов разработки ИИ, использования данных и критериев принятия решений. Подготовьтесь к созданию отчетов, которые при необходимости можно будет предоставить регулирующим органам.
- Построение отношений с регулирующими органами и участие в общественных консультациях. Оставляйте отзывы о предлагаемых правилах и при необходимости обращайтесь за разъяснениями.
Контекстуализируйте ИИ для достижения надежного ИИ
В конечном счете, надежность ИИ зависит от целостности данных. Зависимость генеративного ИИ от больших наборов данных не означает точности и надежности результатов; во всяком случае, это противоречит обоим стандартам. Поисковая дополненная генерация (RAG) — это инновационная технология, которая «объединяет статические LLM с контекстно-зависимыми данными. И его можно рассматривать как очень знающего помощника. Тот, который сопоставляет контекст запроса с конкретными данными из обширной базы знаний.». RAG позволяет организациям предоставлять контекстно-зависимые приложения, отвечающие ожиданиям конфиденциальности, безопасности, точности и надежности. RAG повышает точность генерируемых ответов за счет получения соответствующей информации из базы знаний или хранилища документов. Это позволяет модели основывать свое формирование на точной и актуальной информации.
RAG дает организациям возможность создавать специализированные приложения искусственного интеллекта, которые являются высокоточными, контекстно-зависимыми и адаптируемыми для улучшения процесса принятия решений, улучшения качества обслуживания клиентов, оптимизации операций и достижения значительных конкурентных преимуществ.
Устранение разрыва в доверии к ИИ предполагает обеспечение прозрачности, подотчетности и этичного использования ИИ. Хотя не существует единого ответа на вопрос, как поддерживать эти стандарты, у предприятий есть стратегии и инструменты. Внедрение надежных мер конфиденциальности данных и соблюдение нормативных стандартов повышает доверие пользователей. Регулярный аудит систем искусственного интеллекта на предмет предвзятости и неточностей обеспечивает справедливость. Дополнение больших языковых моделей (LLM) специальным искусственным интеллектом обеспечивает доверие за счет включения собственных баз знаний и источников данных. Привлечение заинтересованных сторон к информации о возможностях и ограничениях ИИ также способствует укреплению доверия и принятия.
Надежного ИИ добиться нелегко, но это жизненно важное обязательство для нашего будущего.












