Свяжитесь с нами:

Агенты ИИ уже здесь: готова ли ваша организация управлять ими?

Лидеры мысли

Агенты ИИ уже здесь: готова ли ваша организация управлять ими?

mm

ИИ трансформирует рабочее место беспрецедентными темпами. От автоматизации рутинных задач до генерации аналитических данных в различных отраслях – инструменты ИИ становятся неотъемлемой частью работы организаций. Однако новая волна ИИ, известная как агентный ИИ, принципиально отличается. В отличие от традиционного ИИ, который следует чётким инструкциям, агентный ИИ работает автономно, достигая целей, обучаясь в режиме реального времени и принимая решения без участия человека. Этот переход от инструмента к независимому действующему субъекту открывает огромные возможности, но и несёт беспрецедентные риски.

Развитие агентного ИИ — это не просто футуристическая концепция; оно уже происходит. Недавние исследования показывают, что, хотя 82%. организаций, уже использующих ИИ-агентов, только 44% имеют формальные политики управления их работой. Этот разрыв между внедрением и контролем выявляет важнейшую проблему: организации интегрируют автономный ИИ быстрее, чем готовятся к его управлению.

Понимание агентного ИИ: больше, чем просто инструмент

Чтобы понять, почему агентный ИИ требует новых подходов к управлению, полезно представить эти системы как цифровых свободных агентов. В отличие от стандартного программного обеспечения, которое пассивно выполняет инструкции, агентный ИИ принимает решения «на лету», адаптируется к меняющимся обстоятельствам и самостоятельно достигает целей. На практике это означает, что агенты ИИ могут инициировать действия, генерировать контент, получать доступ к системам и даже общаться с внешним миром, не дожидаясь одобрения человека.

Традиционные подходы к управлению, разработанные для предсказуемого программного обеспечения, плохо подходят для управления агентами ИИ. Их автономность требует новых механизмов подотчётности, управления рисками и операционного контроля. Организациям необходимо переосмыслить способы мониторинга, контроля и взаимодействия с этими цифровыми сотрудниками.

Уроки реальных неудач агентов

Недавний инцидент с участием ИИ-агента Anthropic "Клавдий" иллюстрирует риски. Работая в рамках проекта «Венд» для управления торговым автоматом, Клавдий принял несколько дорогостоящих решений: неправильно оценил товар, продал товары по цене ниже себестоимости и сфабриковал разговоры, что в конечном итоге привело к потере денег. После того, как агент принял эти решения, исследователи не смогли компенсировать экономический ущерб. Этот инцидент демонстрирует, как необратимые действия, предпринимаемые ИИ-агентами, могут быстро выйти из-под контроля, подчёркивая растущую реальность: ИИ-агенты уже принимают важные решения в системах реального мира.

Это не единичный случай. На самом деле, 80%. организаций сообщают о рискованном поведении агентов ИИ, включая несанкционированное раскрытие данных и несанкционированный доступ к системам. Поскольку агентный ИИ проникает в различные отрасли, от банковского дела до производства, перед руководителями ИТ-подразделений стоит вопрос: if ИИ может вести себя неправильно, но когда, И как гарантировать, что это невозможно. В отличие от традиционного программного обеспечения, эти системы думают, действуют и адаптируются автономно. Управление ими требует нового типа управления, призванного не только отслеживать код, но и предугадывать намерения.

Управление новым коллегой: ИИ

Управление агентным ИИ начинается с простой, но отрезвляющей истины: вы несёте ответственность за всё, что он делает. Эти системы могут действовать автономно, но их решения, ошибки и результаты всегда связаны с людьми, которые их используют.

Подобно тому, как организации десятилетиями разрабатывали передовые практики найма, управления и аудита сотрудников, те же принципы могут служить руководством для ответственного управления цифровыми сотрудниками. Передовые практики включают:

  • Эффективное управление должно основываться на идентичности. Каждый агент ИИ должен рассматриваться как отдельная цифровая сущность, имеющая уникальную идентификацию, которую можно отслеживать, управлять и привлекать к ответственности.
  • Основополагающим является ролевой доступ. Назначая точные роли и обеспечивая строгий контроль доступа, организации гарантируют, что каждый агент взаимодействует только с теми системами и данными, которые необходимы для выполнения его функций, и ни с чем более. Этот принцип минимальных привилегий минимизирует ненужное воздействие, снижая риски и усиливая ответственность на всех уровнях.
  • Проверка важна. Многофакторная аутентификация, доверие устройств и контроль сеансов помогают гарантировать, что каждое действие исходит от нужного субъекта, в нужное время и по правильной причине. В сочетании с принципами минимальных привилегий эти решения ограничивают ущерб, который может нанести агент в случае возникновения проблем. Сегментация и изоляция доступа дополнительно сокращают «радиус поражения», гарантируя, что один неверный шаг не повлияет на всю среду.
  • Наглядность дополняет картину. Непрерывное ведение журнала и мониторинг в режиме реального времени позволяют организациям проверять каждое решение и мгновенно реагировать на подозрительное поведение. Речь идёт не только о выявлении проблем, но и о создании живой истории ответственности и доверия. Когда каждое действие можно отследить до проверяемой личности, контроль становится проактивным, а не реактивным.
  • Человек в петле. По возможности убедитесь, что человек всё ещё в курсе событий и подтверждает действие, прежде чем допускаются какие-либо разрушительные или другие серьёзные последствия. Сложно привлечь агента к ответственности за вредоносные действия, поскольку он просто следует своей программе.

Проактивные стратегии для ИТ-руководителей

Развитие агентного ИИ меняет корпоративные технологии, ускоряя рабочие процессы 30% до 50%Руководители ИТ-отделов также должны быстро разработать руководящие принципы, не допуская ошибок. Эти правила должны развиваться вместе с развитием технологий, чтобы оставаться актуальными и эффективными.

Установите контроль и границы

Контроль и границы крайне важны, особенно при взаимодействии агентов ИИ с конфиденциальными системами. Включайте в рабочие процессы ручные контрольные точки, аварийные выключатели и шлюзы подтверждения. Эти меры защиты служат окончательной защитой от необратимых ошибок, позволяя человеку вмешиваться при необходимости.

Отдайте приоритет прозрачности

Прозрачность не подлежит обсуждению. Каждое действие агента должно регистрироваться, иметь временную метку и быть легко отслеживаемым. Чёткое документирование целей, задач и решений обеспечивает подотчётность. Расплывчатые инструкции порождают творческие интерпретации, которые могут привести к непреднамеренным действиям автономных агентов.

Поощряйте человеческое сотрудничество

Обеспечьте человеческий контроль, информируя коллег и предоставляя им полномочия. Пользователи должны иметь возможность легко сообщать о непредвиденном поведении или небезопасных результатах. Люди остаются лучшей системой раннего оповещения об аномалиях, поэтому развитие сотрудничества между людьми и ИИ имеет решающее значение.

Осуществлять непосредственный контроль

Регулярные аудиты активности ИИ помогают выявлять смещение ролей, несанкционированный доступ или рискованное поведение. Журналы следует периодически проверять, а разрешения обновлять по мере изменения обязанностей агентов. Эти практики гарантируют, что ИИ-агенты будут соответствовать целям организации и требованиям нормативных актов.

Формирование агентного ИИ будущего

Искусственный интеллект повсеместно присутствует здесь, чтобы остаться, 99.6%. компаний, адаптирующих тот или иной инструмент в свой рабочий процесс. Агентный ИИ может повысить производительность и открыть новые возможности, но его автономность сопряжена с реальными рисками. Без контроля агенты ИИ могут действовать непредсказуемо, неправильно использовать данные или вызывать сбои, которые будет трудно устранить.

Организации, преуспевающие в эту новую эпоху, будут относиться к агентам ИИ как к ответственным цифровым коллегам. Обеспечивая эффективное управление, внедряя доступ и верификацию на основе идентификации, а также стимулируя сотрудничество человека и ИИ, компании смогут использовать преимущества автономности, минимизируя риски.

Агентный ИИ — уже не футуристическая концепция, а реальность сегодняшнего дня. Чем раньше организации внедрят стратегии проактивного управления, тем быстрее они смогут безопасно, ответственно и эффективно раскрыть весь потенциал этих автономных систем. Рассматривая агентный ИИ как мощный и подотчётный инструмент, организации смогут найти баланс между инновациями и рисками, гарантируя, что ИИ будет надёжным партнёром, а не неконтролируемой переменной.

Джоэл Реннич — старший вице-президент по продуктовой стратегии в JumpCloudОн сосредоточен на взаимосвязи между идентификацией, пользователями и их устройствами. В JumpCloud он руководит командой, занимающейся идентификацией устройств всех поставщиков. До JumpCloud Джоэл был директором в Jamf, где участвовал в разработке Jamf Connect и других продуктов аутентификации.