Connect with us

Генеративный ИИ: Идея, стоящая за CHATGPT, Dall-E, Midjourney и многим другим

Искусственный интеллект

Генеративный ИИ: Идея, стоящая за CHATGPT, Dall-E, Midjourney и многим другим

mm
Generative AI - Midjourney Prompt

Мир искусства, коммуникации и того, как мы воспринимаем реальность, быстро меняется. Если мы оглянемся на историю человеческих инноваций, мы можем рассматривать изобретение колеса или открытие электричества как монументальные скачки. Сегодня происходит новая революция — мост между человеческой креативностью и машинными вычислениями. Это Генеративный ИИ.

Генеративные модели стерли границу между людьми и машинами. С появлением моделей như GPT-4, которая использует модули трансформеров, мы сделали шаг ближе к естественному и контекстно-богатому языковому поколению. Эти достижения привели к применению в создании документов, диалоговых систем чат-ботов и даже синтетическом музыкальном составе.

Недавние решения Big-Tech подчеркивают его значимость. Microsoft уже прекращает поддержку своего приложения Cortana в этом месяце, чтобы отдать приоритет новым инновациям Генеративного ИИ, таким как Bing Chat. Apple также выделила значительную часть своего $22.6 миллиарда бюджета исследований и разработок на генеративный ИИ, как указал генеральный директор Тим Кук.

Новая Эра Моделей: Генеративные против Дискриминативных

История Генеративного ИИ не только о его применении, но фундаментально о его внутренней работе. В экосистеме искусственного интеллекта существуют две модели: дискриминативные и генеративные.

Дискриминативные модели — это то, с чем большинство людей сталкиваются в повседневной жизни. Эти алгоритмы принимают входные данные, такие как текст или изображение, и сопоставляют их с целевым выходом, как перевод слова или медицинский диагноз. Они о маппинге и прогнозировании.

Генеративные модели, с другой стороны, являются создателями. Они не только интерпретируют или прогнозируют; они генерируют новые, сложные выходы из векторов чисел, которые часто не связаны с реальными значениями.

 

Типы Генеративного ИИ: Текст в Текст, Текст в Изображение (GPT, DALL-E, Midjourney)

Технологии, стоящие за Генеративными Моделями

Генеративные модели обязаны своим существованием глубоким нейронным сетям, сложным структурам, предназначенным для имитации функциональности человеческого мозга. Захватывая и обрабатывая многогранные вариации данных, эти сети служат основой для многочисленных генеративных моделей.

Как эти генеративные модели оживляют? Обычно они строятся с помощью глубоких нейронных сетей, оптимизированных для захвата многогранных вариаций данных. Примером является Генеративно-Соперническая Сеть (GAN), где две нейронные сети, генератор и дискриминатор, соревнуются и учатся друг у друга в уникальных отношениях учителя и ученика. От живописи до стильного переноса, от музыкального состава до игрового процесса, эти модели эволюционируют и расширяются способами, ранее невообразимыми.

Это не останавливается на GAN. Вариационные Автоэнкодеры (VAE), являются еще одним ключевым игроком в области генеративных моделей. VAE выделяются своей способностью создавать фотореалистичные изображения из, казалось бы, случайных чисел. Как? Обработка этих чисел через латентный вектор дает жизнь искусству, отражающему сложности человеческой эстетики.

Типы Генеративного ИИ: Текст в Текст, Текст в Изображение

Трансформеры и Большие Языковые Модели

Статья «Внимание — все, что вам нужно» от Google Brain ознаменовала сдвиг в том, как мы думаем о текстовом моделировании. Вместо сложных и последовательных архитектур, таких как Рекуррентные Нейронные Сети (RNN) или Свёрточные Нейронные Сети (CNN), модель Трансформер ввела понятие внимания, которое означало фокусировку на разных частях входного текста в зависимости от контекста. Одним из основных преимуществ было легкое параллелизация. В отличие от RNN, которые обрабатывают текст последовательно, что делает их более трудными для масштабирования, Трансформеры могут обрабатывать части текста одновременно, что делает обучение быстрее и более эффективным на больших наборах данных.

В длинном тексте не каждое слово или предложение, которое вы читаете, имеет одинаковое значение. Некоторые части требуют больше внимания на основе контекста. Это способность сдвигать наш фокус на основе актуальности, которую механизм внимания имитирует.

Чтобы понять это, подумайте о предложении: «Unite AI Публикует новости об ИИ и робототехнике». Теперь, предсказание следующего слова требует понимания того, что имеет значение в предыдущем контексте. Термин «робототехника» может предположить, что следующее слово может быть связано с конкретным прогрессом или событием в области робототехники, в то время как «Публикует» может указывать на то, что следующий контекст может углубиться в недавнюю публикацию или статью.

Механизм Самовнимания
Иллюстрация Самовнимания

Механизмы внимания в Трансформерах предназначены для достижения этого избирательного фокуса. Они оценивают важность разных частей входного текста и решают, куда «смотреть», когда генерируют ответ. Это отход от старых архитектур, таких как RNN, которые пытались втиснуть суть всего входного текста в один «состояние» или «память».

Работа внимания можно сравнить с системой извлечения ключ-значение. При попытке предсказать следующее слово в предложении каждое предыдущее слово предлагает «ключ», предполагающий его потенциальную актуальность, и на основе того, насколько хорошо эти ключи соответствуют текущему контексту (или запросу), они вносят вклад «значение» или вес в предсказание.

Эти продвинутые модели ИИ глубокого обучения безупречно интегрировались в различные приложения, от улучшений поисковой системы Google с BERT до GitHub’s Copilot, который использует возможность Больших Языковых Моделей (LLM) для преобразования простых фрагментов кода в полностью функциональные исходные коды.

Большие Языковые Модели (LLM), такие как GPT-4, Bard и LLaMA, являются огромными конструкциями, предназначенными для расшифровки и генерации человеческого языка, кода и многого другого. Их огромный размер, варьирующийся от миллиардов до триллионов параметров, является одной из определяющих особенностей. Эти LLM кормятся обильными объемами текстовых данных, что позволяет им понять нюансы человеческого языка. Характерная черта этих моделей — их способность к «малым выстрелам» обучения. В отличие от традиционных моделей, которым требуются огромные объемы конкретных обучающих данных, LLM могут обобщать из очень ограниченного количества примеров (или «выстрелов»).

Состояние Больших Языковых Моделей (LLM) на середину 2023

Название Модели Разработчик Параметры Доступность и Доступ Заметные Особенности и Примечания
GPT-4 OpenAI 1,5 Триллиона Не Открытый Источник, Доступ через API Впечатляющая производительность на различных задачах, может обрабатывать изображения и текст, максимальная длина входа — 32 768 токенов
GPT-3 OpenAI 175 миллиардов Не Открытый Источник, Доступ через API Демонстрировала возможности малых выстрелов и обучения без выстрелов. Выполняет завершение текста в естественном языке.
BLOOM BigScience 176 миллиардов Модель для Загрузки, Доступ через API Мультилингвальная LLM, разработанная глобальным сотрудничеством. Поддерживает 13 языков программирования.
LaMDA Google 173 миллиарда Не Открытый Источник, Нет API или Загрузки Обучена на диалогах, может научиться говорить практически о чем угодно
MT-NLG Nvidia/Microsoft 530 миллиардов Доступ через API по Заявке Использует архитектуру Megatron на основе трансформеров для различных задач NLP.
LLaMA Meta AI 7B до 65B) Доступна для Загрузки по Заявке Предназначена для демократизации ИИ, предлагая доступ тем, кто занимается исследованиями, правительством и академией.

Как Используются LLM?

LLM можно использовать несколькими способами, включая:

  1. Прямое Использование: Просто использовать предварительно обученную LLM для генерации текста или обработки. Например, использование GPT-4 для написания поста в блоге без дополнительной настройки.
  2. Настройка: Адаптация предварительно обученной LLM для конкретной задачи, метод, известный как перенос обучения. Примером может служить настройка T5 для генерации резюме для документов в конкретной отрасли.
  3. Извлечение Информации: Использование LLM, таких как BERT или GPT, в качестве части более крупных архитектур для разработки систем, которые могут извлекать и категоризировать информацию.
Генеративный ИИ ЧатГПТ Настройка
Архитектура Настройки ЧатГПТ

Многоголовое Внимание: Почему Один, Когда Можно Имеет Много?

Однако полагаться на один механизм внимания может быть ограничивающим. Разные слова или последовательности в тексте могут иметь различные типы актуальности или ассоциаций. Это то, где многоголовое внимание приходит на помощь. Вместо одного набора весов внимания, многоголовое внимание использует несколько наборов, что позволяет модели захватить более богатое разнообразие отношений в входном тексте. Каждая «голова» внимания может фокусироваться на разных частях или аспектах входного текста, и их объединенные знания используются для окончательного предсказания.

ЧатГПТ: Самый Популярный Инструмент Генеративного ИИ

Начиная с создания GPT в 2018 году, модель была по сути построена на основе 12 слоев, 12 голов внимания и 120 миллионов параметров, в основном обученных на наборе данных под названием BookCorpus. Это был впечатляющий старт, предлагая взгляд в будущее языковых моделей.

GPT-2, представленный в 2019 году, имел четырехкратное увеличение слоев и голов внимания. Значительно, его количество параметров взлетело до 1,5 миллиарда. Эта улучшенная версия получила свое обучение из WebText, набора данных, обогащенного 40 ГБ текста из различных ссылок Reddit.

GPT-3, запущенный в мае 2020 года, имел 96 слоев, 96 голов внимания и огромное количество параметров — 175 миллиардов. То, что отличало GPT-3, было его разнообразным обучающим набором данных, включающим CommonCrawl, WebText, английскую Википедию, корпуса книг и другие источники, в сумме составляющие 570 ГБ.

Нюансы работы ЧатГПТ остаются строго охраняемой тайной. Однако процесс, называемый «обучение с помощью обратной связи человека» (RLHF), известен как важный. Происходящий из раннего проекта ЧатГПТ, этот метод был инструментальным в совершенствовании модели GPT-3.5, чтобы она лучше соответствовала письменным инструкциям.

Обучение ЧатГПТ включает в себя трехступенчатый подход:

  1. Настройка с учителем: Включает в себя создание человеческих разговорных входов и выходов для уточнения базовой модели GPT-3.5.
  2. Моделирование наград: Люди ранжируют различные выходы модели на основе качества, помогая обучить модель наград, которая оценивает каждый выход, учитывая контекст разговора.
  3. Обучение с помощью подкрепления: Контекст разговора служит фоном, где базовая модель предлагает ответ. Этот ответ оценивается моделью наград, и процесс оптимизируется с помощью алгоритма под названием проксимальная оптимизация политики (PPO).

Для тех, кто только начинает знакомиться с ЧатГПТ, всесторонний стартовый гид можно найти здесь. Если вы хотите глубже погрузиться в инженерию подсказок с ЧатГПТ, у нас также есть продвинутый гид, который проливает свет на последние и самые передовые методы подсказок, доступные на ‘ЧатГПТ и Продвинутая Инженерия Подсказок: Двигая Эволюцию ИИ‘.

Диффузия и Мультимодальные Модели

Хотя модели, такие как VAE и GAN, генерируют свои выходы через один проход, а значит, заперты в том, что они производят, диффузионные модели ввели понятие «итеративного уточнения». С помощью этого метода они возвращаются, уточняя ошибки из предыдущих шагов, и постепенно производят более отполированный результат.

Центральным в диффузионных моделях является искусство «коррупции» и «уточнения». На этапе обучения типичное изображение прогрессивно коррумпируется добавлением различных уровней шума. Этот шумный вариант затем подается в модель, которая пытается «деноизить» или «декоррумпировать» его. Через несколько раундов этого модель становится умелой в восстановлении, понимая как тонкие, так и значительные отклонения.

Изображение, сгенерированное из Midjourney
Изображение, сгенерированное из Midjourney

Процесс генерации новых изображений после обучения интригует. Начиная с полностью рандомизированного входа, он постоянно уточняется с помощью предсказаний модели. Цель — достичь идеального изображения с минимальным количеством шагов. Контроль уровня коррупции осуществляется через «график шума», механизм, который управляет тем, сколько шума применяется на разных этапах. Планировщик, как видно в библиотеках, таких как «diffusers», диктует характер этих шумных версий на основе установленных алгоритмов.

Необходимой архитектурной основой для многих диффузионных моделей является U-Net — свёрточная нейронная сеть, адаптированная для задач, требующих выходов, отражающих пространственную размерность входов. Это смесь слоев понижения и повышения разрешения, интригантно связанных для сохранения высокоразрешающих данных, важных для выходов, связанных с изображениями.

Погружаясь глубже в область генеративных моделей, DALL-E 2 от OpenAI выходит как блестящий пример слияния текстовых и визуальных возможностей ИИ. Он использует трехслойную структуру:

DALL-E 2 демонстрирует трехслойную архитектуру:

  1. Текстовый Кодировщик: Он преобразует текстовую подсказку в концептуальное вложение в латентном пространстве. Эта модель не начинается с нуля. Она опирается на набор данных Contrastive Language–Image Pre-training (CLIP) от OpenAI в качестве основы. CLIP служит мостом между визуальными и текстовыми данными, обучая визуальные понятия с помощью естественного языка. С помощью механизма, называемого контрастным обучением, он определяет и сопоставляет изображения с их соответствующими текстовыми описаниями.
  2. Приор: Текстовое вложение, полученное из кодировщика, затем преобразуется в изображение-вложение. DALL-E 2 протестировал как автoregressive, так и диффузионные методы для этой задачи, с последним, показавшим лучшие результаты. Авторегрессивные модели, как видно в Трансформерах и PixelCNN, генерируют выходы в последовательности. С другой стороны, диффузионные модели, как та, что используется в DALL-E 2, преобразуют случайный шум в предсказанные изображение-вложения с помощью текстовых вложений.
  3. Декодировщик: Кульминация процесса, эта часть генерирует окончательный визуальный выход на основе текстовой подсказки и изображения-вложения из предыдущей фазы. Декодировщик DALL-E 2 обязан своей архитектурой другой модели, GLIDE, которая также может производить реалистичные изображения из текстовых подсказок.
Упрощенная Архитектура Модели DALL-E
Упрощенная Архитектура Модели DALL-E

Пользователи Python, интересующиеся Langchain, должны проверить наш подробный учебник, охватывающий все, от основ до продвинутых методов.

Применения Генеративного ИИ

Текстовые Области

Начиная с текста, Генеративный ИИ был фундаментально изменен чат-ботами, такими как ЧатГПТ. Полагаясь сильно на Обработку Естественного Языка (NLP) и большие языковые модели (LLM), эти сущности способны выполнять задачи, варьирующиеся от генерации кода и перевода языка до суммирования и анализа настроений. ЧатГПТ, например, увидел широкое внедрение, став основой для миллионов. Это дополнительно усиливается платформами конверсационного ИИ, основанными на LLM, таких как GPT-4, PaLM и BLOOM, которые без усилий производят текст, помогают в программировании и даже предлагают математические рассуждения.

С коммерческой точки зрения, эти модели становятся бесценными. Бизнесы используют их для множества операций, включая управление рисками, оптимизацию запасов и прогнозирование спроса. Некоторые заметные примеры включают Bing AI, Google’s BARD и ЧатГПТ API.

Искусство

Мир изображений увидел драматические трансформации с Генеративным ИИ, особенно с момента введения DALL-E 2 в 2022 году. Эта технология, которая может генерировать изображения из текстовых подсказок, имеет как художественные, так и профессиональные последствия. Например, Midjourney использовала эту технологию для производства впечатляюще реалистичных изображений. Этот недавний пост демистифицирует Midjourney в подробном гиде, разъясняя как платформу, так и ее нюансы инженерии подсказок. Кроме того, платформы, такие как Alpaca AI и Photoroom AI, используют Генеративный ИИ для продвинутых функций редактирования изображений, таких как удаление фона, удаление объектов и даже восстановление лица.

Производство Видео

Производство видео, хотя и находится на ранней стадии в области Генеративного ИИ, демонстрирует перспективные достижения. Платформы, такие как Imagen Video, Meta Make A Video и Runway Gen-2, расширяют границы того, что возможно, даже если действительно реалистичные выходы все еще находятся на горизонте. Эти модели предлагают существенную полезность для создания цифровых видео с человеческим участием, с приложениями, такими как Synthesia и SuperCreator, возглавляющими заряд. Заметно, что Tavus AI предлагает уникальное торговое предложение, персонализируя видео для отдельных членов аудитории, что является бонусом для бизнеса.

Создание Кодов

Кодирование, незаменимый аспект нашего цифрового мира, не осталось без внимания Генеративного ИИ. Хотя ЧатГПТ является любимым инструментом, несколько других приложений ИИ были разработаны для целей кодирования. Эти платформы, такие как GitHub Copilot, Alphacode и CodeComplete, служат помощниками по кодированию и могут даже производить код из текстовых подсказок. Что интригует, так это адаптивность этих инструментов. Codex, движущая сила GitHub Copilot, может быть адаптирован к индивидуальному стилю кодирования, подчеркивая потенциал персонализации Генеративного ИИ.

Заключение

Смешивая человеческую креативность с машинными вычислениями, Генеративный ИИ эволюционировал в бесценный инструмент, с платформами, такими как ЧатГПТ и DALL-E 2, расширяющими границы того, что возможно. От создания текстового контента до создания визуальных шедевров, их применения разнообразны и обширны.

Как и с любой технологией, этические последствия имеют первостепенное значение. Хотя Генеративный ИИ обещает безграничную креативность, важно использовать его ответственно, осознавая потенциальные предубеждения и силу манипуляции данными.

С инструментами, такими как ЧатГПТ, становящимися более доступными, сейчас идеальное время, чтобы проверить воды и экспериментировать. Будете ли вы художником, кодером или энтузиастом технологий, область Генеративного ИИ полна возможностей, ожидающих исследования. Революция не на горизонте; она здесь и сейчас. Итак, Погрузитесь!

Я провел последние пять лет, погружаясь в увлекательный мир Machine Learning и Deep Learning. Моя страсть и экспертиза привели меня к участию в более чем 50 различных проектах по разработке программного обеспечения, с особым акцентом на AI/ML. Мое непрекращающееся любопытство также привело меня к Natural Language Processing, области, которую я с нетерпением жду возможности изучить более подробно.

Раскрытие информации о рекламе: Unite.AI придерживается строгих редакционных стандартов, чтобы предоставлять читателям точную информацию и новости. Мы можем получать вознаграждение, если вы переходите по ссылкам на продукты, которые мы рассмотрели.