Свяжитесь с нами:

Этическое использование ИИ — это не просто правильное решение, это еще и выгодный бизнес

Лидеры мысли

Этическое использование ИИ — это не просто правильное решение, это еще и выгодный бизнес

mm

Поскольку внедрение ИИ стремительно растет, а организации во всех отраслях начинают использовать инструменты и приложения на основе ИИ, неудивительно, что киберпреступники уже находят способы атаковать и использовать эти инструменты в своих интересах. Но хотя важно защищать ИИ от потенциальных кибератак, проблема риска ИИ выходит далеко за рамки безопасности. По всему миру правительства начинают регулировать разработку и использование ИИ, а компании могут понести значительный репутационный ущерб, если будет обнаружено, что они используют ИИ ненадлежащим образом. Сегодня компании обнаруживают, что использование ИИ этичным и ответственным образом — это не просто правильное решение, но и критически важно для укрепления доверия, поддержания соответствия и даже повышения качества своей продукции.

Реальность регулирования, окружающая ИИ

Быстро меняющаяся нормативно-правовая база должна стать серьезной проблемой для поставщиков, предлагающих решения на основе ИИ. Например, EU AI Act , принятый в 2024 году, принимает подход, основанный на оценке риска, к регулированию ИИ и считает системы, которые участвуют в таких практиках, как социальный скоринг, манипулятивное поведение и другие потенциально неэтичные действия, «неприемлемыми». Эти системы полностью запрещены, в то время как другие «высокорисковые» системы ИИ подчиняются более строгим обязательствам, касающимся оценки риска, качества данных и прозрачности. Наказания за несоблюдение строгие: компании, уличенные в использовании ИИ неприемлемыми способами, могут быть оштрафованы на сумму до 35 миллионов евро или 7% от годового оборота.

Закон ЕС об искусственном интеллекте — это всего лишь один из законодательных актов, но он наглядно иллюстрирует высокую цену несоблюдения определенных этических порогов. Такие штаты, как Калифорния, Нью-Йорк, Колорадо и другие, приняли их собственные руководящие принципы ИИ, большинство из которых сосредоточены на таких факторах, как прозрачность, конфиденциальность данных и предотвращение предвзятости. И хотя в Организации Объединенных Наций отсутствуют механизмы принуждения, которыми пользуются правительства, стоит отметить, что все 193 члена ООН единогласно подтверждено что «права человека и основные свободы должны уважаться, защищаться и поощряться на протяжении всего жизненного цикла систем искусственного интеллекта» в резолюции 2024 года. Во всем мире права человека и этические соображения все чаще становятся главными, когда речь заходит об ИИ.

Влияние плохой этики ИИ на репутацию

Хотя проблемы соответствия вполне реальны, история на этом не заканчивается. Факт в том, что приоритет этичного поведения может существенно улучшить качество решений ИИ. Если система ИИ имеет внутреннюю предвзятость, это плохо по этическим причинам, но это также означает, что продукт не работает так хорошо, как должен. Например, некоторые технологии распознавания лиц подвергались критике за неспособность идентифицировать темнокожие лица, а также светлокожие лица. Если решение по распознаванию лиц не может идентифицировать значительную часть субъектов, это представляет собой серьезную этическую проблему, но это также означает, что сама технология не обеспечивает ожидаемого преимущества, и клиенты не будут довольны. Устранение предвзятости одновременно смягчает этические проблемы и улучшает качество самого продукта.

Опасения по поводу предвзятости, дискриминации и справедливости могут привести поставщиков к конфликтам с регулирующими органами, но они также подрывают доверие клиентов. Хорошая идея — иметь определенные «красные линии», когда дело касается того, как используется ИИ и с какими поставщиками работать. Поставщики ИИ, связанные с дезинформацией, массовым наблюдением, социальным скорингом, репрессивными правительствами или даже просто общим отсутствием ответственности, могут вызывать беспокойство у клиентов, и поставщики, предоставляющие решения на основе ИИ, должны иметь это в виду, когда решают, с кем сотрудничать. Прозрачность почти всегда лучше — те, кто отказывается раскрывать, как используется ИИ или кто их партнеры, выглядят так, будто они что-то скрывают, что обычно не способствует позитивным настроениям на рынке.

Выявление и смягчение этических тревожных сигналов

Клиенты все чаще учатся искать признаки неэтичного поведения ИИ. Поставщики, которые обещают слишком много, но недостаточно объясняют свои возможности ИИ, вероятно, не совсем правдивы в отношении того, что на самом деле могут делать их решения. Неправильные методы работы с данными, такие как чрезмерное извлечение данных или невозможность отказаться от обучения модели ИИ, также могут вызывать опасения. Сегодня поставщики, которые используют ИИ в своих продуктах и ​​услугах, должны иметь четкую, общедоступную структуру управления с механизмами подотчетности. Те, кто требует принудительного арбитража или, что еще хуже, вообще не предоставляют никаких средств правовой защиты, скорее всего, не будут хорошими партнерами. То же самое касается поставщиков, которые не желают или не могут предоставить метрики, с помощью которых они оценивают и устраняют предвзятость в своих моделях ИИ. Сегодняшние клиенты не доверяют решениям типа «черный ящик» — они хотят знать, когда и как ИИ развертывается в решениях, на которые они полагаются.

Для поставщиков, использующих ИИ в своих продуктах, важно донести до клиентов, что этические соображения являются главными. Тем, кто обучает свои собственные модели ИИ, нужны серьезные процессы предотвращения предвзятости, а тем, кто полагается на внешних поставщиков ИИ, следует отдавать приоритет партнерам с репутацией добросовестного поведения. Также важно предлагать клиентам выбор: многим все еще некомфортно доверять свои данные решениям ИИ, а предоставление «отказа» от функций ИИ позволяет им экспериментировать в своем собственном темпе. Также важно быть прозрачными в отношении того, откуда берутся данные для обучения. Опять же, это этично, но это также хороший бизнес — если клиент обнаруживает, что решение, на которое он полагается, было обучено на данных, защищенных авторским правом, это открывает для него возможность регулирующих или юридических действий. Выставляя все напоказ, поставщики могут завоевать доверие своих клиентов и помочь им избежать негативных последствий.

Приоритет этики — разумное бизнес-решение

Доверие всегда было важной частью любых деловых отношений. ИИ не изменил этого, но он внес новые соображения, которые должны учитывать поставщики. Этические проблемы не всегда являются главными для руководителей бизнеса, но когда дело доходит до ИИ, неэтичное поведение может иметь серьезные последствия, включая ущерб репутации и потенциальные нарушения нормативных требований и соответствия. Что еще хуже, отсутствие внимания к этическим соображениям, таким как смягчение предвзятости, может активно вредить качеству продуктов и услуг поставщика. По мере того, как внедрение ИИ продолжает ускоряться, поставщики все больше осознают, что приоритет этического поведения — это не просто правильное решение, это еще и хороший бизнес.

Ник Катманн — директор по информационной безопасности в Логические ворота. Имея более чем 20-летний опыт работы в сфере ИТ, Ник провел 18 лет, помогая предприятиям всех размеров укреплять свои позиции в области кибербезопасности. Он создал и возглавил несколько команд, предоставляющих решения по кибербезопасности для сложных, критически важных для бизнеса сред, от малого и среднего бизнеса до компаний из списка Fortune 100, размещенных локально в традиционных центрах обработки данных или в облаке. Он также имеет опыт работы в различных отраслях, включая здравоохранение и финансовые услуги.