заглушки Полная версия текстового генератора искусственного интеллекта GPT-2 - Unite.AI
Свяжитесь с нами:

Artificial Intelligence

GPT-2, текстовый генератор искусственного интеллекта, выпускается в полном объеме

mm
обновленный on

As TheNextWeb (ТНВ) сообщает, OpenAI, некоммерческая организация, стоящая за рядом проектов искусственного интеллекта, только что опубликовала окончательную модель в запланированном поэтапном выпуске для GPT-2, текстового генератора, который вызвал настоящая дискуссия с момента его анонсированного выпуска в феврале.

Основано на исследовательской работе OpenAI под названием Языковые модели — это неконтролируемые многозадачные учащиеся"GPT-2 использует машинное обучение для создания нового текста на основе ограниченного ввода». Это означает, что пользователь может ввести одно или два предложения на любую тему, и генератор ИИ выдаст текст, имеющий некоторое отношение к исходному вводу. По сути, как отмечает TNW, в отличие от большинства «генераторов текста» он не выводит заранее написанные строки. GPT-2 составляет текст, которого раньше не существовало».

В своем твите Скотт Б. Вайнгарт, программный директор библиотек Университета Карнеги-Меллона, приводит конкретный пример:

 

Первоначально OpenAI была обеспокоена возможным злонамеренным использованием своей системы, поэтому еще в Февраль 2019 было принято решение о выпуске ГПТ-2 в четырех частях в течение восьми месяцев. Как они объяснили в своем блоге, «Из-за нашей обеспокоенности по поводу вредоносных приложений технологии мы не выпускаем обученную модель. В качестве эксперимента по ответственному раскрытию информации мы вместо этого выпускаем гораздо меньшую модель для экспериментов исследователей, а также технический документ».

Как объяснено, полная модель содержит 1.5 миллиарда параметров. «Чем больше параметров используется для обучения модели, тем «умнее» она кажется — как и люди, практика совершенствует».

ТНВ отмечает, что изначально OpenAI выпустила модель со 124 миллионами параметров, за которыми последовали выпуски с 355 и 774 миллионами. По их словам, после тестирования выпущенных моделей «каждая итерация показала значительное улучшение возможностей по сравнению с предыдущими итерациями».

Чтобы предотвратить неправомерное использование, OpenAI выпустила модели обнаружения GPT-2, которые должны «упреждающе бороться с неправомерным использованием». К их собственному признанию в блоге, эти модели обнаружения все еще нуждаются в дополнительной доработке, чтобы достичь уровня качества, достигнутого до сих пор в самой GPT-2.

Желающие могут скачать модель GPT-2 здесь на Github, посмотрите карточку модели здесь, и прочитайте сообщение в блоге OpenAI здесь.

Бывший дипломат и переводчик ООН, в настоящее время независимый журналист/писатель/исследователь, специализирующийся на современных технологиях, искусственном интеллекте и современной культуре.