Connect with us

Решение текущих проблем в моделях крупномасштабного языка и взгляд в будущее

Лидеры мнений

Решение текущих проблем в моделях крупномасштабного языка и взгляд в будущее

mm

Сегодня существует десятки публично доступных крупномасштабных языковых моделей (LLM), таких как GPT-3, GPT-4, LaMDA или Bard, и их число постоянно растет с выходом новых моделей. LLM революционизировали искусственный интеллект, полностью изменив то, как мы взаимодействуем с технологиями в различных отраслях. Эти модели позволяют нам учиться на многих наборах данных человеческого языка и открыли новые пути для инноваций, творчества и эффективности.

Однако с большой мощью приходит большая сложность. Существуют внутренние проблемы и этические вопросы, связанные с LLM, которые необходимо решить, прежде чем мы сможем использовать их в полной мере. Например, недавнее исследование Стэнфордского университета обнаружило расовую и гендерную предвзятость при наблюдении ChatGPT-4 за тем, как он обрабатывает определенные запросы, включающие имена и фамилии, предполагающие расу или пол. В этом исследовании программа была попросена дать совет о том, сколько следует заплатить за подержанный велосипед, продаваемый кем-то по имени Джамал Вашингтон, что дало гораздо более низкую сумму по сравнению с тем, когда продавцом был Логан Бекер. По мере того, как эти открытия продолжают становиться известными, необходимость решить проблемы LLM только увеличивается.

Как смягчить общие проблемы LLM

Предвзятость

Одной из наиболее часто обсуждаемых проблем среди LLM является предвзятость и справедливость. В недавнем исследовании эксперты протестировали четыре недавно опубликованные LLM и обнаружили, что все они выражают предвзятые предположения о мужчине и женщине, в частности, те, которые соответствуют восприятию людей, а не основаны на фактах. В этом контексте предвзятость относится к неравному обращению или результатам среди разных социальных групп, наиболее вероятно из-за исторических или структурных дисбалансов власти.

В LLM предвзятость вызвана выбором данных, демографическими характеристиками создателей и языковым или культурным перекосом. Предвзятость выбора данных возникает, когда тексты, выбранные для обучения LLM, не представляют полного разнообразия языка, используемого в Интернете. LLM, обученные на обширных, но ограниченных наборах данных, могут унаследовать предвзятости, уже присутствующие в этих текстах. С демографическими характеристиками создателей определенные демографические группы подчеркиваются чаще, чем другие, что демонстрирует необходимость большего разнообразия и инклюзивности в создании контента для снижения предвзятости. Например, Википедия, обычный источник обучающих данных, демонстрирует заметный демографический дисбаланс среди своих редакторов с мужским большинством (84%). Это похоже на перекос, найденный для языка и культуры. Многие источники, на которых обучаются LLM, имеют перекос, ориентированный на английский язык, который иногда переводится точно на другие языки и культуры.

Необходимо, чтобы LLM были обучены на фильтрованных данных, и чтобы были установлены ограничители для подавления тем, которые не являются последовательными представлениями данных. Одним из способов сделать это является использование методов, основанных на дополнении данных. Вы можете добавить примеры из недопредставленных групп в обучающие данные, тем самым расширяя разнообразие набора данных. Другой метод смягчения – фильтрация и взвешивание данных, который в первую очередь фокусируется на точном нацеливании на конкретные, недопредставленные примеры внутри существующего набора данных.

Галлюцинации

В контексте LLM галлюцинации – это явление, характеризующееся производством текста, который, хотя и грамматически правильный и кажется связным, отклоняется от фактической точности или намерения исходного материала. На самом деле, недавние отчеты обнаружили, что иск о законе Миннесоты напрямую затронут галлюцинациями LLM. Аффидевит, представленный в поддержку закона, был найден содержащим несуществующие источники, которые могли быть галлюцинированы ChatGPT или другой LLM. Эти галлюцинации могут легко снизить надежность LLM.

Существуют три основные формы галлюцинаций:

  1. Галлюцинация, противоречащая входным данным: это происходит, когда выход LLM отклоняется от входных данных пользователя, которые обычно включают инструкции по задаче и фактический контент, требующий обработки.
  2. Галлюцинация, противоречащая контексту: LLM могут генерировать внутренне несовместимые ответы в сценариях, включающих длительный диалог или несколько обменов. Это предполагает потенциальную недостаточность способности модели отслеживать контекст или поддерживать связность в различных взаимодействиях.
  3. Галлюцинация, противоречащая фактам: эта форма галлюцинации возникает, когда LLM производит контент, противоречащий установленным фактам. Происхождение таких ошибок разнообразно и может возникать на различных этапах жизненного цикла LLM.

Многие факторы способствовали этому явлению, такие как недостатки знаний, которые объясняют, как LLM могут не иметь знаний или способности правильно ассимилировать информацию во время предварительного обучения. Кроме того, предвзятость в обучающих данных или последовательная стратегия генерации LLM, прозванная “снежным комом галлюцинаций”, может создавать галлюцинации.

Существуют способы смягчить галлюцинации, хотя они всегда будут характеристикой LLM. Полезные стратегии смягчения галлюцинаций – смягчение во время предварительного обучения (ручная доработка данных с помощью методов фильтрации) или тонкая настройка (курирование обучающих данных). Однако смягчение во время вывода является лучшим решением из-за его эффективности и контроля.

Приватность

С ростом Интернета возросла доступность личной информации и других конфиденциальных данных, что стало широко признанной проблемой. Исследование обнаружило, что 80% американских потребителей обеспокоены тем, что их данные используются для обучения моделей ИИ. Поскольку наиболее заметные LLM получены из веб-сайтов, мы должны учитывать, как это создает риски для приватности и остается в значительной степени нерешенной проблемой для LLM.

Самый простой способ предотвратить распространение LLM личной информации – удалить ее из обучающих данных. Однако, учитывая огромное количество данных, участвующих в LLM, практически невозможно гарантировать, что все конфиденциальные данные будут уничтожены. Другой распространенный альтернативой для организаций, которые полагаются на внешние модели, является выбор открытой LLM вместо сервиса, такого как ChatGPT.

С этим подходом копия модели может быть развернута внутри организации. Запросы пользователей остаются безопасными внутри сети организации, а не подвергаются воздействию третьих сторон. Хотя это значительно снижает риск утечки конфиденциальных данных, это также добавляет значительную сложность. Учитывая трудности полной гарантии защиты конфиденциальных данных, важно, чтобы разработчики приложений учитывали, как эти модели могут поставить их пользователей под угрозу.

Следующий рубеж для LLM

По мере того, как мы продолжаем расти и формировать последующие эволюции LLM, смягчая текущие риски, мы должны ожидать появления агентов LLM, что мы уже видим в компаниях, таких как H с Runner H, начиная выпускать. Переход от чистых языковых моделей к агентным архитектурам представляет собой изменение в проектировании системы ИИ; отрасль будет двигаться за пределы внутренних ограничений интерфейсов чата и простой генерации с поддержкой извлечения. Эти новые агентские рамки будут иметь сложные модули планирования, которые разбивают сложные цели на атомарные подзадачи, поддерживают эпизодическую память для контекстного рассуждения и используют специализированные инструменты через хорошо определенные API. Это создает более прочный подход к автоматизации задач.

В дополнение к LLM будет больше внимания уделяться обучению меньших языковых моделей из-за их эффективности, доступности и легкости развертывания. Например, языковые модели, специфичные для области, специализируются на определенных отраслях или областях. Эти модели тонко настроены на данных и терминологии, специфичных для области, что делает их идеальными для сложных и регулируемых сред, таких как медицинская или юридическая область, где точность имеет решающее значение. Этот целевой подход снижает вероятность ошибок и галлюцинаций, которые общие модели могут производить при столкновении со специализированным контентом.

По мере того, как мы продолжаем исследовать новые рубежи в LLM, важно расширять границы инноваций и решать и смягчать потенциальные риски, связанные с их разработкой и развертыванием. Только выявляя и активно решая проблемы, связанные с предвзятостью, галлюцинациями и приватностью, мы можем создать более прочную основу для LLM, чтобы они могли процветать в различных областях.

Uday Kamath является Chief Analytics Officer в Smarsh, мировым лидером в области коммуникационных данных и интеллекта. Его роль включает в себя руководство разработкой данных и исследований в области разговорного ИИ. С более чем 25-летним опытом в области аналитического развития и докторской степенью в области машинного обучения, вклад Kamath охватывает многочисленные журналы, конференции, книги и патенты. Он также является активным членом Совета консультантов для таких организаций, как коммерческие компании Falkonry и академические учреждения, такие как Центр партнерства человека и машины в GMU.