Yapay Zekâ
GPT-2, Yapay Zeka Metin Oluşturucu Tamamen Yayınlanıyor

TheNextWeb’in (TNW) raporlarına göre, bir dizi yapay zeka projesinin arkasındaki kâr amacı gütmeyen kuruluş olan OpenAI, GPT-2 için planlanan aşama tarafından yayınlanan son modeli yayınladı. GPT-2, Şubat ayında duyurulduğu günden bu yana büyük bir tartışmaya neden oldu.
OpenAI’nin Dil Modelleri Gözetimsiz Çoklu Görev Öğrencileridir adlı araştırma raporuna dayanarak, GPT-2, sınırlı girdi temelinde yeni metinler oluşturmak için makine öğrenimini kullanıyor. Bunun anlamı, bir kullanıcı herhangi bir konu hakkında bir veya iki cümle yazabilir ve AI oluşturucu, orijinal girdiyle ilgili bir metin oluşturur. Aslında, TNW’nin belirttiği gibi, çoğu ‘metin oluşturucu’ gibi önceden yazılmış dizeleri çıktılamıyor. GPT-2, daha önce var olmayan metinler oluşturuyor.”
Carnegie Mellon Üniversitesi Kütüphanelerinin program direktörü Scott B. Weingart, bir tweet’inde somut bir örnek veriyor:
What is a Panther but a young lion?
An entire corridor filled entirely with people screaming.
How’s this for a happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) August 20, 2019
If death, in some obscure and distant hour,
Strikes me still as I slept, if I yet dream:
Is that my peace with an eternity spent?
[…]
But I fear it will be no peace or rest
Until the stars give me the full glow of their light
To see all my cares and woes in an instant.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) August 20, 2019
OpenAI, sistemlerinin olası kötüye kullanımından endişe duyduğu için Şubat 2019’da GPT-2’yi sekiz ayda dört parçada yayınlamaya karar verdi. Bloglarında açıkladıkları gibi, “Teknolojinin kötüye kullanımına ilişkin endişelerimiz nedeniyle eğitilmiş modeli yayınlamıyoruz. Sorumlu açıklamanın bir deneyimi olarak, araştırmacıların deneysel çalışması için çok daha küçük bir modeli ve bir teknik makaleyi yayınlıyoruz.”
Açıklamaya göre, tam model 1,5 milyar parametre içeriyor. “Bir model ne kadar çok parametre ile eğitilirse, o kadar ‘zeki’ görünür – insanlarda olduğu gibi, pratik yapmak mükemmel yapar.”
TNW, OpenAI’nin ilk olarak 124 milyon parametreli bir model yayınladığını, daha sonra 355 ve 774 milyon parametreli modelleri yayınladığını belirtiyor. Onlara göre, yayımlanan modeller test edildikten sonra, “her bir iterasyonun önceki iterasyonlardan önemli bir şekilde yetenek bakımından iyileşme gösterdiği” görülüyor.
Kötüye kullanımın önlenmesi için OpenAI, kötüye kullanımın önüne geçmek amacıyla GPT-2 algılama modellerini yayınladı. Kendi blog yazılarında kabul ettikleri gibi, bu algılama modelleri hala GPT-2’de elde edilen kalite seviyesine ulaşmak için ek çalışmaya ihtiyaç duyuyor.
İlgilenenler, GPT-2 modelini burada Github’da indirebilir, model kartını burada kontrol edebilir ve OpenAI’nin blog yazısını burada okuyabilir.
