Свяжитесь с нами:

Действуйте быстро, но не ломайте ситуацию: как найти баланс между ответственным внедрением ИИ и инновациями

Лидеры мысли

Действуйте быстро, но не ломайте ситуацию: как найти баланс между ответственным внедрением ИИ и инновациями

mm

Согласно недавнему глобальному исследованию, проведенному McKinsey, хотя 78% организаций теперь используют ИИ как минимум в одной бизнес-функции, только 13% наняли специалистов по обеспечению соответствия ИИ требованиям, а всего 6% имеют в штате специалистов по этике ИИ. 

Честно говоря, это безрассудное поведение.

Хотя в не столь далеком прошлом я был ярым приверженцем философии Кремниевой долины «двигайся быстро и ломай всё», мы не можем позволить себе быть столь беспечными с ИИ — технологией, которая мощнее всего, что мы видели ранее, и развивается со скоростью света.

Внедрение ИИ без значимых ограждений — это как раз тот тип быстрого срезания углов, который гарантированно в конечном итоге приведет к обратному эффекту и риску поломки многое. Достаточно одного случая предвзятости или неправильного использования ИИ, чтобы свести на нет годы создания репутации бренда. 

И хотя многие руководители ИТ и технические директора осведомлены об этих рисках, они, по-видимому, действуют, исходя из предположения, что регулирующие органы в конечном итоге вмешаются и спасут их от создания собственных структур, что приводит к многочисленным разговорам о рисках при крайне слабом реальном надзоре. 

Хотя я не сомневаюсь, что регулирование в конечном итоге появится, я не уверен, что оно будет установлено в ближайшее время. ChatGPT был представлен примерно три года назад, и мы только начинаем видеть такие вещи, как заседание Сената по вопросам правосудия. чат-боты и риски безопасности Реальность такова, что могут пройти годы, прежде чем мы увидим какое-либо значимое регулирование. 

Вместо того, чтобы использовать это как оправдание для затягивания процесса внутреннего управления, компаниям следует занять более активную позицию. Особенно учитывая, что когда правила наконец вступят в силу, компании, не имеющие собственных структур, будут в спешке перестраиваться, чтобы соответствовать требованиям. Именно это и произошло с принятием GDPR и CCPA. 

Подобно тому, как к разрозненным стартапам начала нулевых теперь предъявляются более высокие требования, чем к корпоративным технологическим гигантам, в которых они выросли, нам всем необходимо выработать более зрелый подход к ответственному внедрению ИИ. 

При ответственном развертывании ИИ нет принципа «купи сейчас, плати потом» — начните прямо сейчас

Первый шаг к более ответственному подходу к ИИ — перестать ждать регуляторов и установить собственные правила. Какую бы выгоду вы ни получали, избегая мер безопасности сегодня, это может обернуться против вас в будущем, когда вы столкнётесь с чрезвычайно дорогостоящим и разрушительным процессом модернизации. 

Конечно, для многих проблема в том, что они не знают, с чего начать. Моя компания недавно... опрошенных 500 директоров по информационным технологиям и технических директоров крупных предприятий и почти половина из них (48%) назвали «определение того, что представляет собой ответственное использование или развертывание ИИ» проблемой для обеспечения этичного использования ИИ. 

Проще всего начать с того, чтобы расширить фокус внимания за пределы функций, предоставляемых ИИ, и рассмотреть возможные риски. Например, хотя использование ИИ может сэкономить время сотрудников, оно также открывает возможность передачи огромных объёмов персональной информации (PII) или коммерческой тайны нелицензированным и несертифицированным магистрам права (LLM).

Любая современная цифровая компания знакома с жизненным циклом разработки программного обеспечения (SDLC), который обеспечивает основу для создания качественных продуктов. Передовые практики управления ИИ должны быть интегрированы в этот повседневный рабочий процесс, чтобы ответственное принятие решений стало частью повседневной работы, а не второстепенной задачей. 

Необходимо создать руководящий орган, например, комитет по этике или совет по управлению, который определит стандарты того, как должны выглядеть приложения ИИ в организации, а также метрики для мониторинга и поддержания этих стандартов. Функционально это включает в себя управление инструментами и моделями ИИ, утверждение решений, управление рисками, согласование нормативных требований и стандартов, а также прозрачную коммуникацию. Хотя технически это может быть «новым» процессом, он не сильно отличается от передовых практик работы с данными и обеспечения кибербезопасности и может быть автоматизирован для обеспечения раннего выявления любых проблем. 

Конечно, не все риски требуют одинакового уровня внимания, поэтому важно также разработать многоуровневый процесс управления рисками, чтобы ваша команда могла сосредоточить большую часть своих усилий на том, что определено как высокоприоритетное. 

Наконец, и это самое важное, чёткая и прозрачная коммуникация о практиках управления как внутри компании, так и за её пределами имеет первостепенное значение. Это включает в себя ведение актуальной документации по стандартам управления и проведение постоянного обучения для поддержания актуальности знаний сотрудников. 

Перестаньте рассматривать управление как угрозу инновациям

Вполне возможно, что реальная угроза ответственный ИИ Существует убеждение, что управление и инновации противоречат друг другу. Данные нашего опроса показали, что целых 87% ИТ-директоров и технических директоров считают, что чрезмерное регулирование ограничит инновации.

Однако к управлению следует относиться как к стратегическому партнеру, а не как к своего рода инновационной площадке. 

Одна из причин, по которой управление рассматривается как тормозящая сила, замедляющая развитие, заключается в том, что оно часто оставляется на конец разработки продукта, но защитные барьеры должны быть частью процесса. Как упоминалось выше, управление можно встроить в циклы спринтов, чтобы команда разработчиков могла быстро двигаться, одновременно выполняя автоматизированные проверки на справедливость, предвзятость и соответствие требованиям. В долгосрочной перспективе это окупается, поскольку клиенты, сотрудники и регулирующие органы чувствуют себя увереннее, видя ответственность, заложенную с самого начала.

И это, как было доказано, приносит финансовую выгоду. Исследование Исследование показало, что организации с эффективно внедренными системами управления данными и ИИ демонстрируют улучшение финансовых показателей на 21–49%. Однако отсутствие таких систем также имеет свои последствия. Согласно тому же исследованию, к 2027 году большинство организаций (60%) «не смогут реализовать ожидаемую ценность своих вариантов использования ИИ из-за разрозненности систем этического управления». 

Оговорка к аргументу о том, что управление не должно идти в ущерб инновациям, заключается в том, что участие юридических отделов в подобных обсуждениях, как правило, замедляет процесс. Однако, по моему опыту, создание команды по управлению, рискам и соблюдению нормативных требований (GRC) значительно способствует бесперебойной и быстрой работе, выступая связующим звеном между юридическими и продуктовыми командами. 

При грамотном управлении команда GRC выстраивает позитивные отношения с юридической командой, выполняя для них роль «глаза на месте» и предоставляя необходимые отчёты, а также сотрудничая с командой разработчиков для снижения будущих рисков судебных исков и штрафов. В конечном счёте, это ещё раз подтверждает, что инвестиции в управление на раннем этапе — лучший способ гарантировать, что оно не помешает инновациям. 

Создать масштабируемые системы надзора и управления 

Несмотря на то, что многие опрошенные директора по информационным технологиям (CIO) и технические директора считают, что регулирование может ограничивать инновации, столь же большой процент (84%) ожидает, что их компании усилят контроль над ИИ в течение следующих 12 месяцев. Учитывая вероятность того, что интеграция ИИ продолжит расширяться и масштабироваться с течением времени, не менее важно, чтобы системы управления могли масштабироваться вместе с ними. 

На ранних этапах внедрения ИИ на предприятиях я часто наблюдаю, как различные подразделения работают изолированно друг от друга, одновременно внедряя разные решения и имея разное представление о том, что подразумевает под собой «ответственный ИИ». Чтобы избежать подобных противоречий, компаниям было бы целесообразно создать специализированный Центр передового опыта в области ИИ, объединяющий технические, нормативные и бизнес-экспертные знания. 

Центр передового опыта в области ИИ должен установить как общекорпоративные стандарты, так и многоуровневые процессы утверждения, предусматривающие плавный переход к низкорисковым сценариям использования. Это, в свою очередь, способствует поддержанию скорости и одновременно гарантирует, что высокорисковые развертывания пройдут более формальные проверки безопасности. Аналогичным образом, Центр передового опыта должен установить ключевые показатели эффективности (KPI) безопасности ИИ для руководителей высшего звена, чтобы ответственность не терялась в повседневной работе компании. 

Но чтобы это стало реальностью, руководителям необходимо улучшить прозрачность отслеживания показателей управления. Панели мониторинга, предоставляющие данные по этим показателям в режиме реального времени, были бы гораздо эффективнее, чем нынешняя норма статических отчётов о соответствии, которые мгновенно устаревают и поэтому часто остаются непрочитанными. В идеале компаниям также следовало бы создать реестры рисков ИИ, подобно тому, как они уже отслеживают риски кибербезопасности, а также вести аудиторские журналы, отражающие, кто разработал реализацию МО/ИИ, как она проходила тестирование и как она себя ведёт с течением времени. 

Самый важный вывод заключается в том, что ответственное внедрение ИИ требует непрерывного управления. Речь идёт не только о получении одобрения при запуске, но и о постоянном мониторинге на протяжении всего жизненного цикла модели. Поэтому обучение имеет ключевое значение. Разработчики, специалисты по технологиям и руководители компаний должны быть обучены ответственным практикам внедрения ИИ, чтобы иметь возможность выявлять проблемы на ранних этапах и поддерживать высокие стандарты управления по мере развития систем. Благодаря этому внедрение ИИ, несомненно, станет более надёжным, эффективным и прибыльным, не ломая ничего в процессе.

Скайлар Робак имеет более чем 15-летний опыт работы в качестве руководителя по продукту и эксперта по цифровой трансформации в самых авторитетных компаниях мира. В настоящее время он занимает должность технического директора (CTO) в Решение, консалтинговая и цифровая инжиниринговая фирма, специализирующаяся на искусственном интеллекте.