Connect with us

Создание доверия к агентам ИИ по дизайну, а не случайно

Лидеры мнений

Создание доверия к агентам ИИ по дизайну, а не случайно

mm
A photorealistic widescreen image of a compliance team overseeing an AI

Агентский ИИ не приходит с фанфарами, а скорее незаметно проникает в повседневные операции. Системы, которые раньше сидели в бездействии, ожидая человеческих сигналов, теперь берут инициативу. Эта эволюция уже происходит внутри организаций, но разговор об управлении ИИ застрял в более раннюю эпоху. Наши законы и организационные структуры никогда не были созданы с учетом автономных, нечеловеческих акторов. Для компаний, подверженных GDPR, это не является теоретической проблемой, а живой операционной задачей — и она продвигается быстрее, чем большинство команд по соблюдению требований могут комфортно справиться.

Когда инструменты ИИ начинают разговаривать

Когда мы обсуждаем управление, внимание обычно сосредоточено на соблюдении требований, управлении рисками и предотвращении вреда. Хотя эти аспекты очень важны, они были созданы для мира, где ИИ был в основном статичным: обучался, тестировался, выпускался и контролировался на предсказуемых циклах.

С включением агентов ИИ в процессы принятия решений, центральной задачей теперь становится поведение и доверие. Руководители должны задать себе вопрос: «Как мы можем гарантировать, что системы, способные действовать, также могут быть доверены?» Доверие — это выбор дизайна, который должен быть сделан намеренно, а не сконструирован через убеждение. Организации, которые следуют рекомендациям GDPR, понимают, что соблюдение требований имеет решающее значение и несет юридические последствия.

Три способа, которыми агентский ИИ нарушает сегодняшние предположения GDPR

Когда GDPR был разработан, он не был написан для автономных агентов. Однако три основных принципа GDPR — ограничение цели, минимизация данных, прозрачность и подотчетность — являются критически важными. Агентский ИИ влияет на каждый из них новыми способами, и есть три ключевых области, которые необходимо решить.

Первый риск заключается в том, как агент ИИ «думает» над задачей. Вместо выполнения одного фиксированного процесса он разбивает работу на многие небольшие шаги, часто вызывая внешние инструменты, извлекая данные из баз данных, делая предположения и обрабатывая личные данные по пути. Большая часть этого происходит вне поля зрения. Определение того, какие данные были использованы, на каком шаге и по какой причине, является трудной задачей в практике — но именно этого требует GDPR в плане прозрачности и подотчетности.

Второй риск заключается в том, как агенты используют память. Они могут хранить личные данные в краткосрочной памяти во время выполнения задачи и в долгосрочной памяти на протяжении многих сессий. Если эта память не тщательно разделена, информация из взаимодействия одного человека может просочиться в другое. Если вы не обеспечите четкие ограничения на хранение, личные данные могут оставаться после того, как они должны были быть удалены. Согласно праву на удаление GDPR, это становится очень трудной задачей, когда данные закопаны внутри памяти агента, а не сидят в базе данных, которую ваша команда по защите конфиденциальности может легко найти и запросить.

Третий риск — это инъекция подсказки — по сути, обман агента. Когда агент читает документы, просматривает веб-страницы или обрабатывает входящие сообщения, вредоносный контент в этих источниках может захватить его поведение, заставить его раскрыть личные данные или побудить его выполнить действия, которые организация никогда не одобряла. Это известный шаблон атаки, специфичный для агентских систем. Это означает, что вы можете пострадать от утечки данных не потому, что ваши основные системы были взломаны, а потому, что ваш агент ИИ встретил враждебный контент во время выполнения своей работы — и согласно GDPR, вы все равно несете ответственность.

Создание真正щего доверия, а не просто дружественного интерфейса

Важно понимать, что существует разница между сконструированным доверием и заслуженным доверием. Сконструированное доверие может помочь убедить пользователей в ключевой точке, обычно через эмоциональное отражение, антропоморфные сигналы или убедительный дизайн.

Однако прочное доверие заключается в системах, которые ведут себя так, чтобы люди могли понять, предвидеть и оценить. Обоснование, ограничения и намерения агента являются законными. Это предусловие для дизайна, соответствующего GDPR, где прозрачность должна быть осмысленной.

Что означает真正щий стек доверия?

Одна стратегия для организаций — использовать многослойный стек доверия. Это означает, что каждый слой делает ясным вопрос о подотчетности между людьми и машинами.

  • Ясные пути рассуждения: Агент должен быть в состоянии объяснить, как и почему он произвел результат — не с глубокими техническими деталями, а так, чтобы вы могли следить и проверять. Это соответствует правилам прозрачности GDPR и праву на объяснение автоматических решений в соответствии со статьей 22.
  • Ясные ограничения на полномочия: Должны быть твердые границы вокруг того, что агент может делать, решать или рекомендовать. Никакого скрытого расширения его свободы со временем. Для целей GDPR это означает, что люди все еще принимают решения; агент — это инструмент, а не контролер.
  • Открытые цели: Цели агента должны быть открыто заявлены. Люди должны знать, оптимизирует ли он точность, безопасность, скорость или коммерческую выгоду — и эта цель должна быть записана и понята.
  • Легкая возможность оспорить и остановить: Люди должны быть в состоянии вопросить, исправить или отключить решения агента без трения. Простой способ отказаться является важным для доверия — и согласно статье 22, это также является юридическим требованием.
  • Встроенное управление: Журналирование, проверки, контроль памяти и надзор должны быть встроены в систему с первого дня, а не добавлены позже. Конфиденциальность по дизайну не является опциональной; это основная структура, которая делает все остальное работоспособным.

Использование стека доверия делает автономию безопасной для масштабирования.

Когда управление встречается с реальным опытом

Управление — это не только правила и процессы. Это также о том, как системы чувствуются для людей, которые их используют. Люди должны чувствовать, что они все еще контролируют ситуацию. Они должны видеть, когда ИИ действует, понимать, почему он делает что-то, и знать, как вмешаться, когда он должен остановиться.

Системы, которые удовлетворяют требованиям соблюдения, но кажутся черным ящиком, быстро теряют доверие. Это требует очень намеренных дизайнерских решений: нет человеческих сигналов, которые бы предполагали эмпатию или моральное суждение, которых система не имеет; четкие сигналы, когда ИИ не уверен или ограничен; и нет настройки опыта для создания эмоциональной зависимости.

Руководители должны выйти за рамки вопроса: «Является ли наш ИИ ответственным?» Лучший набор вопросов: «Какое поведение эта система сделает нормальным? Что она будет тихо отталкивать людей? Как она будет формировать суждение со временем — и готовы ли мы ответить за это?»

Ivana Бartoletti - глобальный главный офицер по защите конфиденциальности и управлению ИИ в Wipro, ведущей компании, предоставляющей услуги и консалтинг в области технологий, работающих на основе ИИ. Как международно признанный лидер мнений в области защиты конфиденциальности, управления ИИ и ответственной технологии, Ivana выступает в качестве эксперта для Совета Европы, где она стала соавтором ключевого исследования, посвященного влиянию искусственного интеллекта на гендерное равенство.