Connect with us

Если Ваш ИИ Заллусинирует, Не Обвиняйте ИИ

Лидеры мнений

Если Ваш ИИ Заллусинирует, Не Обвиняйте ИИ

mm

“Заллусинации” ИИ – те убедительные, но ложные ответы – привлекают много внимания средств массовой информации, как, например, недавняя статья в New York Times, ИИ Становится Более Мощным, Но Его Заллусинации Становятся Хуже. Заллусинации представляют реальную опасность, когда вы имеете дело с потребительским чат-ботом. В контексте бизнес-приложений ИИ это еще более серьезная проблема. К счастью, как лидер бизнес-технологий, я имею больше контроля над этим. Я могу убедиться, что агент имеет правильные данные, чтобы произвести осмысленный ответ.

Потому что это является настоящей проблемой. В бизнесе нет оправдания для заллусинаций ИИ. Перестаньте обвинять ИИ. Обвиняйте себя за то, что не используете ИИ правильно.

Когда инструменты генеративного ИИ заллусинируют, они делают то, для чего они предназначены – предоставляют лучший ответ, который они могут, основанный на доступных данных. Когда они выдумывают, производя ответ, не основанный на реальности, это потому, что они缺уют соответствующие данные, не могут найти их или не понимают вопрос. Да, новые модели, такие как o3 и o4-mini от OpenAI, заллусинируют больше, действуя еще более “креативно”, когда у них нет хорошего ответа на заданный вопрос. Да, более мощные инструменты могут заллусинировать больше – но они также могут произвести более мощные и ценные результаты, если мы настроим их для успеха.

Если вы не хотите, чтобы ваш ИИ заллусинировал, не лишайте его данных. Кормите ИИ лучшими, наиболее релевантными данными для проблемы, которую вы хотите, чтобы он решил, и он не будет соблазнен отклониться от правильного пути.

Даже тогда, когда работа с любым инструментом ИИ, я рекомендую сохранять ваши критические навыки мышления. Результаты, которые доставляют агенты ИИ, могут быть продуктивными и приятными, но смысл не в том, чтобы отключить ваш мозг и позволить программному обеспечению делать все мышление за вас. Продолжайте задавать вопросы. Когда агент ИИ дает вам ответ, вопросите этот ответ, чтобы убедиться, что он имеет смысл и подтверждается данными. Если да, это должно быть ободряющим знаком, что стоит вашего времени, чтобы задать дополнительные вопросы.

Чем больше вы вопросите, тем лучше будут ваши идеи.

Почему происходят заллусинации

Это не какая-то загадка. ИИ не пытается обмануть вас. Каждый большой языковый модель (LLM) ИИ по сути предсказывает следующее слово или число на основе вероятности.

На высоком уровне то, что происходит здесь, заключается в том, что LLMs соединяют предложения и абзацы по одному слову за раз, предсказывая следующее слово, которое должно возникнуть в предложении на основе миллиардов других примеров в его обучающих данных. Предшественники LLMs (помимо Clippy) были автозаполнением подсказок для текстовых сообщений и компьютерного кода, автоматическими инструментами перевода человеческого языка и другими вероятностными лингвистическими системами. С увеличением вычислительной мощности, плюс обучение на интернет-объеме данных, эти системы стали “умными” enough, чтобы вести полный разговор по чату, как мир узнал с введением ChatGPT.

Скептики ИИ любят указывать на то, что это не то же самое, что и настоящий “интеллект”, а только программное обеспечение, которое может извлечь и воспроизвести человеческий интеллект, который был введен в него. Задайте ему суммировать данные в письменном отчете, и он имитирует способ, которым другие писатели суммировали подобные данные.

Это кажется мне академическим спором, пока данные правильны и анализ полезен.

Что происходит, если ИИ не имеет данных? Он заполняет пробелы. Иногда это смешно. Иногда это полный беспорядок.

Когда вы строите агентов ИИ, это в 10 раз больше риска. Агенты должны предоставлять действенные идеи, но они принимают больше решений на своем пути. Они выполняют многоступенчатые задачи, где результат шага 1 информирует шаги 2, 3, 4, 5, … 10 … 20. Если результат шага 1 неверен, ошибка будет усиливаться, делая выход на шаге 20 еще хуже. Особенно, поскольку агенты могут принимать решения и пропускать шаги.

Сделано правильно, агенты достигают больше для бизнеса, который их развертывает. Однако, как менеджеры по продукту ИИ, мы должны признать больший риск, который идет вместе с большей наградой.

Что именно сделала наша команда. Мы увидели риск и справились с ним. Мы не просто построили модный робот; мы убедились, что он работает на правильных данных. Вот что, по моему мнению, мы сделали правильно:

  • Постройте агента, чтобы он задавал правильные вопросы и проверял, имеет ли он правильные данные. Убедитесь, что первоначальный процесс ввода данных агента фактически более детерминирован, менее “креативен”. Вы хотите, чтобы агент сказал, когда у него нет правильных данных и не продолжал к следующему шагу, а не выдумывал данные.
  • Структурируйте книгу рецептов для вашего агента – убедитесь, что он не изобретает новый план каждый раз, а имеет полуструктурированный подход. Структура и контекст чрезвычайно важны на этапе сбора и анализа данных. Вы можете позволить агенту расслабиться и действовать более “креативно”, когда у него есть факты и он готов написать суммирование, но сначала получите факты правильно.
  • Постройте инструмент высокого качества для извлечения данных. Это должно быть больше, чем просто вызов API. Потратьте время на написание кода (люди все еще делают это), который делает правильное количество и разнообразие данных, которые будут собраны, включая проверки качества в процесс.
  • Пусть агент покажет свою работу. Агент должен цитировать свои источники и ссылаться на то, где пользователь может проверить данные, из原始ного источника, и изучить их дальше. Никакого обмана не допускается!
  • Поручите: Подумайте о том, что может пойти не так, и постройте защиты от ошибок, которые вы абсолютно не можете допустить. В нашем случае это означает, что когда агент, ответственный за анализ рынка, не имеет данных – то есть наших данных Similarweb, а не какого-то случайного источника данных, извлеченного из сети, – убедитесь, что он не выдумывает что-то. Лучше для агента не иметь возможности ответить, чем доставить ложный или вводящий в заблуждение ответ.

Мы включили эти принципы в наш недавний выпуск трех новых агентов, с еще большим количеством, которые последуют. Например, наш агент ИИ для подготовки встречи с продажами не просто запрашивает имя целевой компании, но и детали о цели встречи и с кем она проводится, подготавливая его к предоставлению лучшего ответа. Ему не нужно угадывать, потому что он использует богатство данных компании, цифровых данных и профилей руководителей, чтобы информировать свои рекомендации.

Идеальны ли наши агенты? Нет. Никто еще не создает идеальный ИИ, даже самые большие компании в мире. Но решение проблемы намного лучше, чем игнорирование ее.

Хотите меньше заллусинаций? Дайте вашему ИИ приличный кусок высококачественных данных.

Если он заллусинирует, может быть, это не ИИ, который нуждается в исправлении. Может быть, это ваш подход к использованию этих мощных новых возможностей без траты времени и усилий на то, чтобы все сделать правильно.

Omri Shtayer является вице-президентом по данным продуктами и DaaS в Similarweb, где он возглавляет инновации во всей организации и стимулирует рост ее бизнеса с данными. Он最近 возглавил запуск AI-агентов - масштабируемых, интеллектуальных инструментов, предназначенных для того, чтобы помочь бизнесу перевести данные в реальные результаты. С опытом создания эффективных решений с данными, Omri находится на переднем крае трансформации того, как компании используют цифровую интеллектуальность.