Свяжитесь с нами:

Обеспечение устойчивой безопасности для автономного ИИ в здравоохранении

Лидеры мысли

Обеспечение устойчивой безопасности для автономного ИИ в здравоохранении

mm

Бушующая война против утечек данных представляет собой все большую проблему для организаций здравоохранения во всем мире. Согласно текущей статистике, средняя стоимость утечки данных в настоящее время составляет 4.45 миллионов долларов США по всему миру, эта цифра более чем удваивается до $9.48 млн для поставщиков медицинских услуг, обслуживающих пациентов в Соединенных Штатах. К этой и без того пугающей проблеме добавляется современный феномен меж- и внутриорганизационного распространения данных. Вызывает беспокойство 40% раскрытых нарушений подразумевают распространение информации в различных средах, что значительно расширяет поверхность атаки и открывает злоумышленникам множество путей проникновения.

Растущая автономия генеративного ИИ открывает эпоху радикальных изменений. Поэтому вместе с ней приходит и настойчивая волна дополнительных рисков безопасности, поскольку эти передовые интеллектуальные агенты выходят за рамки теории и внедряются в ряд областей, таких как здравоохранение. Понимание и смягчение этих новых угроз имеет решающее значение для ответственного масштабирования ИИ и повышения устойчивости организации к кибератакам любого характера, будь то угрозы вредоносного ПО, утечка данных или даже хорошо организованные атаки на цепочку поставок.

Устойчивость на этапе проектирования и внедрения

Организации должны принять комплексную и эволюционную стратегию проактивной защиты для устранения растущих рисков безопасности, вызванных ИИ, особенно в здравоохранении, где на карту поставлены как благополучие пациентов, так и соблюдение нормативных мер.

Это требует системного и тщательно продуманного подхода, начиная с разработки и проектирования систем ИИ и заканчивая широкомасштабным развертыванием этих систем.

  • Первый и самый важный шаг, который необходимо предпринять организациям, — это составить схему и смоделировать угрозы для всего конвейера ИИ, от приема данных до обучения модели, проверки, развертывания и вывода. Этот шаг способствует точному выявлению всех потенциальных точек воздействия и уязвимости с гранулярностью риска на основе воздействия и вероятности.
  • Во-вторых, важно создать безопасную архитектуру для развертывания систем и приложений, использующих большие языковые модели (LLM), в том числе с Агентический ИИ Возможности. Это подразумевает тщательное рассмотрение различных мер, таких как безопасность контейнера, безопасная разработка API и безопасная обработка конфиденциальных обучающих наборов данных.
  • В-третьих, организациям необходимо понимать и внедрять рекомендации различных стандартов/структур. Например, придерживаться руководящих принципов, изложенных НИСТ AI Risk Management Framework для комплексной идентификации и смягчения рисков. Они также могли бы рассмотреть Совет OWASP об уникальных уязвимостях, которые вносят приложения LLM, таких как быстрое внедрение и небезопасная обработка выходных данных.
  • Более того, классические методы моделирования угроз также должны развиваться, чтобы эффективно справляться с уникальными и сложными атаками, создаваемыми ИИ нового поколения, включая коварные атаки с отравлением данных, которые угрожают целостности модели и потенциальной возможности создания конфиденциального, предвзятого или ненадлежащим образом созданного контента в выходных данных ИИ.
  • Наконец, даже после развертывания организациям необходимо сохранять бдительность, регулярно и строго проводя проверки безопасности ИИ и специализированные аудиты безопасности, которые специально нацелены на такие факторы, как предвзятость, надежность и ясность, чтобы постоянно обнаруживать и устранять уязвимости в системах ИИ.

Примечательно, что основой создания надежных систем ИИ в здравоохранении является фундаментальная защита всего жизненного цикла ИИ, от создания до развертывания, с четким пониманием новых угроз и соблюдением установленных принципов безопасности.

Меры, принимаемые в течение жизненного цикла эксплуатации

В дополнение к изначальному безопасному проектированию и развертыванию, надежная позиция безопасности ИИ требует пристального внимания к деталям и активной защиты на протяжении всего жизненного цикла ИИ. Это требует постоянного мониторинга контента путем использования наблюдения на основе ИИ для немедленного обнаружения конфиденциальных или вредоносных выходов, при этом соблюдая политики раскрытия информации и разрешения пользователей. Во время разработки модели и в производственной среде организациям необходимо будет одновременно активно сканировать на наличие вредоносных программ, уязвимостей и враждебной активности. Все это, конечно, дополняет традиционные меры кибербезопасности.

Чтобы повысить доверие пользователей и улучшить интерпретируемость решений, принимаемых ИИ, важно осторожно использовать Объясняемый ИИ (XAI) инструменты для понимания основополагающих принципов вывода и прогнозов ИИ.

Улучшение контроля и безопасности также облегчается за счет автоматизированного обнаружения данных и интеллектуальной классификации данных с динамически изменяющимися классификаторами, которые обеспечивают критический и актуальный взгляд на постоянно меняющуюся среду данных. Эти инициативы исходят из необходимости обеспечения строгого контроля безопасности, например, методов детального управления доступом на основе ролей (RBAC), фреймворков сквозного шифрования для защиты информации при передаче и в состоянии покоя, а также эффективных методов маскировки данных для сокрытия конфиденциальных данных.

Также важно провести тщательное обучение по вопросам безопасности всех бизнес-пользователей, работающих с системами ИИ, поскольку это создает критически важный человеческий брандмауэр для обнаружения и нейтрализации возможных атак с использованием социальной инженерии и других угроз, связанных с ИИ.

Обеспечение будущего агентного ИИ

Основа устойчивой устойчивости перед лицом развивающихся угроз безопасности ИИ лежит в предлагаемом многомерном и непрерывном методе тщательного мониторинга, активного сканирования, четкого объяснения, разумной классификации и строгой защиты систем ИИ. Это, конечно, в дополнение к созданию широко распространенной культуры безопасности, ориентированной на человека, наряду со зрелыми традиционными средствами контроля кибербезопасности. Поскольку автономные агенты ИИ включаются в организационные процессы, необходимость в надежных средствах контроля безопасности возрастает. Сегодняшняя реальность такова, что утечки данных в публичных облаках случаются и обходятся в среднем в 5.17 миллионов долларов США , что явно подчеркивает угрозу финансам и репутации организации.

Помимо революционных инноваций, будущее ИИ зависит от развития устойчивости с фундаментом из встроенной безопасности, открытых операционных фреймворков и жестких процедур управления. Установление доверия к таким интеллектуальным агентам в конечном итоге определит, насколько широко и прочно они будут приняты, формируя сам курс преобразующего потенциала ИИ.

Випин Варма — старший вице-президент и руководитель направления кибербезопасности в компании СитиусТех.

Обладая более чем 35-летним опытом работы в сфере кибербезопасности и более широких областях ИКТ, Випин привносит глубокие знания и стратегическое лидерство в реализацию безопасной и устойчивой цифровой трансформации в экосистеме здравоохранения.

До CitiusTech Випин руководил бизнесом по кибербезопасности для глобальных клиентов в области естественных наук, здравоохранения, энергетики и коммунальных услуг в Tata Consultancy Services, где он провел более 12 лет, разрабатывая стратегии кибербезопасности в регулируемых отраслях. До прихода в корпоративный сектор он более 23 лет прослужил в индийской армии, где занимал ключевые должности, включая командование подразделением в активных операциях по борьбе с повстанцами, руководство ИТ и коммуникациями в миротворческой миссии ООН в Судане и управление сложными технологическими программами.