Лидеры мнений
Открытие черной коробки в объяснимости ИИ

Искусственный интеллект (ИИ) стал неотъемлемой частью почти всех аспектов нашей повседневной жизни, от персонализированных рекомендаций до критического принятия решений. Это данность, что ИИ будет продолжать развиваться, и вместе с этим, угрозы, связанные с ИИ, также станут более сложными. Когда компании вводят системы обороны, работающие на ИИ, в ответ на растущую сложность, следующим шагом на пути к продвижению культуры безопасности во всей организации является повышение объяснимости ИИ.
Хотя эти системы предлагают впечатляющие возможности, они часто функционируют как “черные коробки” — производя результаты без ясного понимания того, как модель пришла к такому выводу. Проблема систем ИИ, которые делают ложные заявления или совершают ложные действия, может вызвать значительные проблемы и потенциальные сбои в работе бизнеса. Когда компании совершают ошибки из-за ИИ, их клиенты и потребители требуют объяснения и вскоре после этого — решения.
Но что является причиной? Часто плохие данные используются для обучения. Например, большинство публичных технологий GenAI обучаются на данных, доступных в Интернете, которые часто являются непроверенными и неточными. Хотя ИИ может генерировать быстрые ответы, точность этих ответов зависит от качества данных, на которых он обучен.
Ошибки ИИ могут возникать в различных случаях, включая генерацию скриптов с неправильными командами и ложными решениями по безопасности, или отказ в доступе сотруднику к работе с бизнес-системами из-за ложных обвинений, выдвинутых системой ИИ. Все это имеет потенциал вызвать значительные сбои в работе бизнеса. Это только одна из многих причин, почему обеспечение прозрачности является ключом к построению доверия к системам ИИ.
Строительство доверия
Мы существуем в культуре, где мы внушаем доверие различным источникам и информации. Но в то же время мы все больше требуем доказательств и подтверждения, постоянно проверяя новости, информацию и заявления. Когда речь идет об ИИ, мы доверяем системе, которая имеет потенциал быть неточной. Более того, невозможно знать, являются ли действия систем ИИ точными, без какой-либо прозрачности в отношении основы, на которой принимаются решения. Что, если ваша киберсистема ИИ отключает машины, но она ошиблась в интерпретации сигналов? Без понимания того, какая информация привела систему к такому решению, нет способа знать, сделала ли она правильный выбор.
Хотя сбои в работе бизнеса раздражают, одной из более значительных проблем при использовании ИИ является защита данных. Системы ИИ, такие как ChatGPT, являются моделями машинного обучения, которые получают ответы из данных, которые они получают. Следовательно, если пользователи или разработчики случайно предоставляют конфиденциальную информацию, модель машинного обучения может использовать эти данные для генерации ответов другим пользователям, которые раскрывают конфиденциальную информацию. Эти ошибки имеют потенциал серьезно нарушить эффективность компании, прибыльность и, что наиболее важно, доверие клиентов. Системы ИИ предназначены для повышения эффективности и упрощения процессов, но в случае, когда постоянная проверка необходима, потому что выходные данные не могут быть доверены, организации не только тратят время, но и открывают дверь к потенциальным уязвимостям.
Обучение команд для ответственного использования ИИ
Чтобы защитить организации от потенциальных рисков использования ИИ, у ИТ-специалистов есть важная ответственность — адекватно обучать своих коллег, чтобы обеспечить ответственное использование ИИ. Делая это, они помогают сохранить свои организации в безопасности от кибератак, которые угрожают их жизнеспособности и прибыльности.
Однако до начала обучения команд ИТ-руководителям необходимо内部mente определить, какие системы ИИ будут подходящими для их организации. Спешка в ИИ только обернется негативными последствиями позже, поэтому вместо этого начните с малого, сосредоточившись на потребностях организации. Обеспечьте, чтобы стандарты и системы, которые вы выбираете, соответствовали текущей технологической базе и целям компании, и чтобы системы ИИ соответствовали тем же стандартам безопасности, что и любой другой поставщик, который вы бы выбрали.
Как только система будет выбрана, ИТ-специалисты могут начать знакомить свои команды с этими системами, чтобы обеспечить успех. Начните с использования ИИ для небольших задач и посмотрите, где он работает хорошо и где нет, и узнайте, какие потенциальные опасности или проверки необходимы. Затем представьте использование ИИ для дополнения работы, позволяя быстрее решать проблемы самостоятельно, включая простые вопросы “как”. Оттуда можно научиться устанавливать проверки. Это ценно, поскольку мы начнем видеть, как все больше работ будет связано с установлением границ и проверками, и уже видим это в работах, таких как использование ИИ для помощи в написании программного обеспечения.
Помимо этих практических шагов для обучения членов команд, инициирование и поощрение обсуждений также имеет важное значение. Поощряйте открытый, основанный на данных диалог о том, как ИИ служит потребностям пользователей — решает ли он проблемы точно и быстрее, повышает ли он производительность как для компании, так и для конечного пользователя, увеличивается ли рейтинг удовлетворенности клиентов из-за этих инструментов, работающих на ИИ? Будьте ясны в отношении возврата инвестиций (ROI) и держите это в центре внимания. Ясная коммуникация позволит осознать ответственное использование и по мере того, как члены команды лучше понимают, как работают системы ИИ, они с большей вероятностью будут использовать их ответственно.
Как достичь прозрачности в ИИ
Хотя обучение команд и повышение осведомленности важно, для достижения прозрачности в ИИ важно, чтобы было больше контекста вокруг данных, используемых для обучения моделей, обеспечивая, что используются только качественные данные. Надеюсь, в конце концов будет способ увидеть, как система рассуждает, чтобы мы могли полностью ей доверять. Но пока этого не произошло, нам нужны системы, которые могут работать с проверками и ограничениями и доказать, что они придерживаются их.
Хотя полная прозрачность неизбежно займет время на достижение, быстрый рост ИИ и его использования делает необходимым работать быстро. Поскольку модели ИИ продолжают увеличиваться в сложности, они имеют силу сделать большой вклад в человечество, но последствия их ошибок также растут. В результате понимание того, как эти системы приходят к своим решениям, чрезвычайно ценно и необходимо для того, чтобы оставаться эффективными и заслуживающими доверия. Сосредоточившись на прозрачных системах ИИ, мы можем обеспечить, что технология будет такой же полезной, какой она предназначена, оставаясь беспристрастной, этичной, эффективной и точной.












