никулец GPT-2, генератор на текст за вештачка интелигенција се објавува целосно - Unite.AI
Поврзете се со нас

Вештачка интелигенција

GPT-2, генератор на текст за вештачка интелигенција се објавува целосно

mm
Ажурирани on

As Следниот Веб (TNW) извештаи, OpenAI, непрофитната организација зад голем број проекти за вештачка интелигенција штотуку го објави конечниот модел во планираното етапно издание за GPT-2, генератор на текст што предизвика доста дебата од неговото најавено објавување во февруари.

Врз основа на истражувачки труд на OpenAI со наслов Јазичните модели се ненадгледувани ученици со повеќе задачи"GPT-2 користи машинско учење за да генерира нов текст заснован на ограничен влез“. Тоа значи дека корисникот може да напише реченица или две за која било тема и генераторот на вештачката интелигенција ќе излезе со текст што има некаква врска со оригиналниот влез. Во суштина, како што забележува TNW, за разлика од повеќето „генератори на текст“ не излегува однапред напишани низи. GPT-2 создава текст што претходно не постоел“.

Во својот твит, Скот Б. Вајнгарт, програмски директор на библиотеките на Универзитетот Карнеги Мелон дава конкретен пример:

 

OpenAI првично беше загрижен за можните злонамерни употреби на нивниот систем, па повторно влезе 2019 февруари одлучи да го објави GPT-2 во четири дела во текот на осум месеци. Како што објаснија на нивниот блог, „Поради нашата загриженост за злонамерните апликации на технологијата, не го објавуваме обучениот модел. Како експеримент за одговорно откривање, наместо тоа, објавуваме многу помал модел со кој истражувачите треба да експериментираат, како и технички труд“.

Како што е објаснето, целосниот модел содржи 1.5 милијарди параметри. „Колку повеќе параметри е обучен моделот, толку „попаметен“ изгледа тој – исто како и луѓето, практиката го прави совршениот“.

TNW забележува дека првично OpenAI објави модел со 124 милиони параметри, а потоа следеа изданија со 355 и 774 милиони. Според нив, по тестирањето на објавените модели, „секоја повторување покажа значително подобрување во способноста во однос на претходните повторувања“.

За да се спречи злоупотреба, OpenAI објави модели за откривање GPT-2 кои треба „превентивно да се борат против злоупотребата“. На сопствен прием во а блог пост, на овие модели за откривање сè уште им треба дополнителна работа за да го достигнат нивото на квалитет постигнато досега во самиот GPT-2.

Заинтересираните можат преземете го моделот GPT-2 овде на Github, проверете ја картичката за моделот овде, и прочитајте го блогот на OpenAI овде.

Поранешен дипломат и преведувач за ОН, моментално слободен новинар/писател/истражувач, фокусиран на модерната технологија, вештачката интелигенција и модерната култура.