Свяжитесь с нами:

Опасность отказа от искусственного интеллекта

Лидеры мысли

Опасность отказа от искусственного интеллекта

mm

На прошлой неделе я позвонил в компанию потенциального клиента. Там были все специалисты по безопасности и сетевому взаимодействию, а также руководство. Различные докладчики освещали актуальные темы. Затем кто-то начал объяснять, как его технические специалисты используют ИИ в своей повседневной работе.

Ведущий был в восторге. Он нашёл способ сократить трёхдневную работу по ручному копированию и вставке до пары минут с помощью инструментов ИИ. Круто, правда? Понимаю, что он делает и почему. Вот что обещает ИИ!

Но как сотрудник службы безопасности в комнате я думаю: «Боже мой!» «Что это за инструмент? Кому он принадлежит?» Потому что он вносит в эти платформы информацию о клиентах — данные о ценах. Может быть, финансовую информацию? Что угодно. Всё это для ускорения рабочего процесса.

Итак, я задал очевидный вопрос: «У вас есть политика в отношении ИИ?» Мы начали искать. Нашли рекламный текст о допустимом использовании. Что-то расплывчатое про инструменты ИИ. Кто-нибудь вообще это читает? Скорее всего, нет. Подписываешь во время регистрации, и всё готово.

Ваши сотрудники уже используют ИИ

Вот что я узнал, общаясь с компаниями из всех отраслей: ИИ уже повсюду, осознаёте вы это или нет. Недавние исследования подтверждают этот факт.75% работников теперь используют ИИ на работе, увеличившись почти вдвое всего за шесть месяцев.

На прошлой неделе в Хьюстоне я встретился с парнем, чья компания занимается бурением нефтяных скважин. У них есть платформа искусственного интеллекта, которая анализирует состав почвы и погодные условия для оптимизации мест бурения. Он объяснил, как они учитывают данные об осадках: «Мы знали, что дождей было на 18 дней больше, чем в этом районе, поэтому нефтеносность, вероятно, выше, что позволяет бурить скважины глубже».

Тем временем я использую ИИ для разработки маршрута по Германии. Я общался с компаниями в сфере здравоохранения, которые используют его для платформ телемедицины. Финансовые отделы разрабатывают модели рисков. Я даже познакомился с владельцем лимонадного бизнеса, который каким-то образом использует ИИ.

Суть в том, что ИИ присутствует в каждой отрасли, в каждом рабочем процессе. Он не появится, он уже здесь. И большинство этих организаций находятся в той же ситуации, что и мы. Они знают, что их сотрудники используют его. Они просто не знают, как им управлять.

Теневые ИТ быстро становятся опасными

Знаете, что происходит, когда запрещаешь людям использовать искусственный интеллект? Это всё равно, что запретить подростку пить. Поздравляем, теперь они будут пить самыми опасными способами, потому что вы ввели запрет.

Цифры подтверждают эту реальность: 72% использования генеративного ИИ на предприятиях приходится на теневые ИТ-ресурсы, при этом сотрудники используют личные учетные записи для доступа к приложениям ИИ.

Люди берут второй ноутбук. Они используют личный телефон, не защищённый корпоративной системой безопасности. А потом всё равно используют ИИ. Внезапно вы теряете контроль и создаёте те самые бреши, которые пытались предотвратить.

Я уже видел эту закономерность раньше. Службы безопасности, которые говорят «нет» всему, в конечном итоге загоняют людей в подполье и теряют всякий контроль над тем, что происходит на самом деле.

Безопасность становится врагом

Существует мнение, что сотрудники службы безопасности — это «злые ребята из подвала». Люди думают: «Ох, охрана, скорее всего, всё равно откажет, так что не обращайте на них внимания. Я всё равно это сделаю».

Мы сами создали это недопонимание. А с появлением искусственного интеллекта люди склонны полагать, что мы их отключим, поэтому они даже не спрашивают. Это убивает то общение, которое вам действительно нужно.

После выступления на конференции ко мне подошёл разработчик. Он каждый день использует API и пытался привлечь внимание своей команды безопасности к тестированию и валидации. Но он решил не спрашивать, потому что подумал, что они просто скажут «нет».

Дефицит доверия обходится вам дорого

Вот какой разговор вам нужен: к вам подходит специалист по маркетингу и говорит: «Привет, я хочу использовать этот инструмент искусственного интеллекта. Какова наша позиция по этому вопросу? Как его безопасно использовать?» Это правильный способ сотрудничества со службой безопасности.

Мы проверим это. Мы понимаем, что ИИ станет частью бизнеса. Мы не собираемся отказываться от него — мы хотим, чтобы люди использовали его безопасно. Но сначала нам нужно обсудить это.

Когда люди думают, что система безопасности всё заблокирует, они перестают спрашивать. Они регистрируются, используя личные адреса электронной почты, начинают передавать данные компании на непроверенные платформы, и вы теряете всякую видимость и контроль. Результат предсказуем: 38% сотрудников делятся конфиденциальной рабочей информацией с инструментами ИИ без разрешения работодателя.

Организации будут использовать ИИ в любом случае. Вопрос в том, как гарантировать, что наши сотрудники смогут безопасно использовать его, не ставя под угрозу корпоративные данные, конфиденциальность или безопасность?

Начните с разумных «да», а не общих «нет»

Вот что действительно работает: проактивная коммуникация. Рассылайте информационные бюллетени или проводите 30-минутные вебинары, говоря: «Мы разрешаем использование ИИ в организации. Вот как это сделать безопасно». Записывайте сеансы для тех, кто их пропустит.

Покажите примеры сотрудников, успешно сотрудничавших со службами безопасности. Сделайте эти партнёрства заметными, а не теневыми, которые, как люди думают, могут их остановить.

Необходимо постепенно выстраивать доверие между службой безопасности и сотрудниками. В конце концов, мы все используем ИИ, как в больших, так и в малых делах. Я использовал его для планирования поездки в Германию — попросил его составить трёхдневный маршрут, и поездка получилась просто потрясающей.

С организационной точки зрения нам необходимо определить, какое место занимает ИИ в бизнесе. Приведёт ли он к увеличению выручки? Вероятно. Бизнес-кейс очевиден: ИИ перешел из разряда «эксперимента» в разряд «жизненно важных», а расходы предприятий выросли на 130%.Итак, что же нам делать? Как обеспечить защиту, одновременно повышая производительность?

Цель — не идеальный контроль, это невозможно. Цель — осознанное внедрение ИИ с ограничениями, которые действительно работают на практике. Новый риск для безопасности заключается в том, что использование ИИ, которое происходит независимо от вас, становится невозможным.

Для организаций, серьезно настроенных на то, чтобы сделать это правильно, эксперты рекомендуют разработать четкие политики управления ИИ, которые обеспечивают баланс между потребностями бизнеса и требованиями безопасности до того, как использование теневого ИИ полностью выйдет из-под контроля.