Sztuczna inteligencja
GPT-2, sztuczna inteligencja generator tekstu jest wydawana w pełni

Jak donosi TheNextWeb (TNW), OpenAI, organizacja non-profit założona przez szereg projektów sztucznej inteligencji, właśnie opublikowała ostateczny model w planowanej stopniowej publikacji dla GPT-2, generatora tekstu, który wywołał spore kontrowersje od momentu ogłoszenia jego wydania w lutym.
W oparciu o badanie naukowe Language Models are Unsupervised Multitask Learners , „GPT-2 wykorzystuje uczenie maszynowe do generowania nowych tekstów na podstawie ograniczonego wprowadzenia.” To oznacza, że użytkownik może wpisać zdanie lub dwa na dowolny temat, a generator AI wygeneruje tekst, który ma jakiś związek z oryginalnym wprowadzeniem. W istocie, jak zauważa TNW, w przeciwieństwie do większości „generatorów tekstu”, nie wyprowadza on pre-wpisanych ciągów. GPT-2 tworzy tekst, który wcześniej nie istniał.”
W swoim tweecie, Scott B. Weingart, dyrektor programu w Carnegie Mellon University Libraries, podaje konkretny przykład:
What is a Panther but a young lion?
An entire corridor filled entirely with people screaming.
How’s this for a happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) August 20, 2019
If death, in some obscure and distant hour,
Strikes me still as I slept, if I yet dream:
Is that my peace with an eternity spent?
[…]
But I fear it will be no peace or rest
Until the stars give me the full glow of their light
To see all my cares and woes in an instant.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) August 20, 2019
OpenAI początkowo obawiało się możliwych niepożądanych zastosowań swojego systemu, więc w lutym 2019 zdecydowało się opublikować GPT-2 w czterech częściach przez osiem miesięcy. Jak wyjaśnili w swoim blogu, „Ze względu na nasze obawy dotyczące niepożądanych zastosowań tej technologii, nie publikujemy wytrenowanego modelu. Jako eksperyment w odpowiedzialnym ujawnianiu, publikujemy znacznie mniejszy model dla badaczy do eksperymentowania, a także pracę naukową.”
Jak wyjaśniono, pełny model zawiera 1,5 miliarda parametrów. „Im więcej parametrów model jest wytrenowany, tym „mądrzejszy” wydaje się – tak jak ludzie, ćwiczenie czyni doskonałym.”
TNW zauważa, że początkowo OpenAI opublikowało model z 124 milionami parametrów, a następnie opublikowano modele z 355 i 774 milionami. Według nich, po przetestowaniu opublikowanych modeli, „każda iteracja wykazała znaczną poprawę możliwości w porównaniu z poprzednimi iteracjami.”
Aby zapobiec nadużyciom, OpenAI opublikowało modele wykrywania GPT-2, które mają „zapobiec nadużyciom.” W swoim poście na blogu przyznają, że te modele wykrywania wymagają jeszcze dodatkowej pracy, aby osiągnąć poziom jakości osiągnięty dotąd w samym GPT-2.
Zainteresowani mogą pobrać model GPT-2 tutaj na Github, sprawdzić kartę modelu tutaj, i przeczytać post na blogu OpenAI tutaj.
