заглушки Соединяя точки: разгадка предполагаемой модели Q-Star OpenAI - Unite.AI
Свяжитесь с нами:

Искусственный общий интеллект

Соединяя точки: разгадка предполагаемой модели Q-Star OpenAI

mm

опубликованный

 on

В последнее время в сообществе искусственного интеллекта возникло немало спекуляций вокруг предполагаемого проекта OpenAI Q-star. Несмотря на ограниченность доступной информации об этой загадочной инициативе, говорят, что она знаменует собой значительный шаг на пути к созданию общего искусственного интеллекта — уровня интеллекта, который либо соответствует человеческим возможностям, либо превосходит их. Хотя большая часть дискуссий была сосредоточена на потенциальных негативных последствиях этого развития для человечества, было приложено относительно мало усилий, направленных на раскрытие природы Q-звезды и потенциальных технологических преимуществ, которые она может принести. В этой статье я воспользуюсь исследовательским подходом, пытаясь разгадать этот проект, прежде всего, исходя из его названия, которое, как я считаю, дает достаточно информации, чтобы получить представление о нем.

Предыстория тайны

Все началось с того, что совет управляющих OpenAI внезапно свергнут Сэма Альтмана, генеральный директор и соучредитель. Хотя Альтман был позже восстановлен в должности, вопросы по поводу этих событий остаются. Некоторые видят в этом борьбу за власть, в то время как другие связывают это с тем, что Альтман сосредоточил внимание на других предприятиях, таких как Worldcoin. Однако сюжет усложняется, когда агентство Reuters сообщает, что секретный проект под названием Q-star может быть основной причиной драмы. По данным Reuters, Q-Star знаменует собой существенный шаг на пути к цели OpenAI AGI, о которой сотрудники OpenAI сообщили совету управляющих. Появление этой новости вызвало волну спекуляций и опасений.

Строительные блоки головоломки

В этом разделе я представил некоторые строительные блоки, которые помогут нам разгадать эту тайну.

  • Вопрос: Обучение: Укрепление обучения — это тип машинного обучения, при котором компьютеры учатся, взаимодействуя с окружающей средой, получая обратную связь в виде вознаграждений или наказаний. Q Learning — это особый метод обучения с подкреплением, который помогает компьютерам принимать решения, изучая качество (значение Q) различных действий в разных ситуациях. Он широко используется в таких сценариях, как игры и робототехника, позволяя компьютерам учиться принимать оптимальные решения методом проб и ошибок.
  • Поиск звезд: A-star — это алгоритм поиска, который помогает компьютерам исследовать возможности и находить лучшее решение проблемы. Алгоритм особенно примечателен своей эффективностью при поиске кратчайшего пути от начальной точки к цели на графике или сетке. Его ключевая сила заключается в разумном сопоставлении стоимости достижения узла с предполагаемой стоимостью достижения общей цели. В результате A-star широко используется для решения задач, связанных с поиском пути и оптимизацией.
  • АльфаЗеро: AlphaZero, передовая система искусственного интеллекта от DeepMind, сочетает в себе Q-обучение и поиск (например, поиск по дереву Монте-Карло) для стратегического планирования в настольных играх, таких как шахматы и го. Он изучает оптимальные стратегии посредством самостоятельной игры под руководством нейронной сети для оценки ходов и позиций. Алгоритм поиска по дереву Монте-Карло (MCTS) балансирует исследование и использование при изучении игровых возможностей. Итеративный процесс самостоятельной игры, обучения и поиска AlphaZero приводит к постоянному совершенствованию, обеспечивая сверхчеловеческие результаты и победы над чемпионами-людьми, демонстрируя свою эффективность в стратегическом планировании и решении проблем.
  • Языковые модели: Большие языковые модели (LLM), например GPT-3, представляют собой форму искусственного интеллекта, предназначенную для понимания и генерации текста, похожего на человеческий. Они проходят обучение на обширных и разнообразных интернет-данных, охватывающих широкий спектр тем и стилей письма. Отличительной особенностью LLM является их способность предсказывать следующее слово в последовательности, известная как языковое моделирование. Цель состоит в том, чтобы дать понимание того, как слова и фразы взаимосвязаны, позволяя модели создавать связный и контекстуально релевантный текст. Обширная подготовка позволяет специалистам LLM хорошо понимать грамматику, семантику и даже нюансы использования языка. После обучения эти языковые модели могут быть точно настроены для конкретных задач или приложений, что делает их универсальными инструментами для решения различных задач. обработки естественного языка, чат-боты, генерация контента и многое другое.
  • Искусственный общий интеллект: Искусственный общий интеллект (AGI) — это тип искусственного интеллекта, способный понимать, учиться и выполнять задачи, охватывающие различные области, на уровне, который соответствует или превосходит человеческие когнитивные способности. В отличие от узкого или специализированного ИИ, ОИИ обладает способностью автономно адаптироваться, рассуждать и учиться, не ограничиваясь конкретными задачами. AGI позволяет системам ИИ демонстрировать независимое принятие решений, решение проблем и творческое мышление, отражающее человеческий интеллект. По сути, AGI воплощает идею машины, способной выполнять любую интеллектуальную задачу, выполняемую человеком, подчеркивая универсальность и адаптируемость в различных областях.

Ключевые ограничения программ LLM в достижении AGI

Модели большого языка (LLM) имеют ограничения в достижении общего искусственного интеллекта (AGI). Несмотря на то, что они умеют обрабатывать и генерировать текст на основе изученных закономерностей из огромных данных, они с трудом понимают реальный мир, что препятствует эффективному использованию знаний. AGI требует здравого смысла и способностей к планированию для решения повседневных ситуаций, которые для выпускников LLM кажутся сложными. Несмотря на то, что они дают, казалось бы, правильные ответы, им не хватает способности систематически решать сложные задачи, например математические.

Новые исследования показывают, что LLM могут имитировать любые вычисления, как универсальный компьютер, но ограничены необходимостью в обширной внешней памяти. Увеличение объема данных имеет решающее значение для улучшения LLM, но оно требует значительных вычислительных ресурсов и энергии, в отличие от энергоэффективного человеческого мозга. Это создает проблемы для обеспечения широкой доступности и масштабируемости LLM для AGI. Недавние исследования показывают, что простое добавление большего количества данных не всегда повышает производительность, что ставит вопрос о том, на чем еще следует сосредоточиться на пути к AGI.

Подключение точек

Многие эксперты по искусственному интеллекту считают, что проблемы с моделями большого языка (LLM) связаны с их основной ориентацией на предсказание следующего слова. Это ограничивает их понимание языковых нюансов, рассуждений и планирования. Чтобы справиться с этим, исследователи, такие как Ян ЛеКун предложите попробовать разные методы обучения. Они предлагают, чтобы LLM активно планировали прогнозирование слов, а не только следующего токена.

Идея «Q-star», аналогичная стратегии AlphaZero, может включать в себя указание LLM активно планировать предсказание токенов, а не просто предсказывать следующее слово. Это привносит в языковую модель структурированные рассуждения и планирование, выходя за рамки обычного прогнозирования следующего токена. Используя стратегии планирования, вдохновленные AlphaZero, студенты LLM могут лучше понимать языковые нюансы, совершенствовать рассуждения и улучшать планирование, устраняя ограничения обычных методов обучения LLM.

Такая интеграция создает гибкую структуру для представления и манипулирования знаниями, помогая системе адаптироваться к новой информации и задачам. Эта адаптивность может иметь решающее значение для общего искусственного интеллекта (AGI), которому необходимо решать различные задачи и области с разными требованиями.

AGI нуждается в здравом смысле, и обучение студентов-магистров рассудительности может дать им всестороннее понимание мира. Кроме того, обучение таких LLM, как AlphaZero, может помочь им освоить абстрактные знания, улучшая перенос обучения и обобщение в различных ситуациях, что способствует высокой производительности AGI.

Помимо названия проекта, поддержка этой идеи содержится в отчете агентства Reuters, в котором подчеркивается способность Q-star успешно решать конкретные математические и логические задачи.

Выводы

Q-Star, секретный проект OpenAI, производит фурор в области искусственного интеллекта, стремясь к развитию интеллекта, превосходящего человеческий. Несмотря на разговоры о потенциальных рисках, эта статья углубляется в загадку, соединяя точки Q-обучения с AlphaZero и моделями большого языка (LLM).

Мы считаем, что «Q-star» означает разумное сочетание обучения и поиска, что дает магистрам права возможность планировать и рассуждать. Заявление агентства Reuters о том, что оно может решать сложные математические и логические задачи, означает значительный прогресс. Это требует более пристального взгляда на то, куда может направиться обучение ИИ в будущем.

Доктор Техсин Зия — штатный доцент Университета COMSATS в Исламабаде, имеет докторскую степень в области искусственного интеллекта, полученную в Венском технологическом университете, Австрия. Специализируясь на искусственном интеллекте, машинном обучении, науке о данных и компьютерном зрении, он внес значительный вклад, публикуя публикации в авторитетных научных журналах. Доктор Техсин также руководил различными промышленными проектами в качестве главного исследователя и консультанта по искусственному интеллекту.