Connect with us

Yapay Zekâ

GPT-2, Yapay Zeka Metin Oluşturucu Tamamen Yayınlanıyor

mm

TheNextWeb’in (TNW) raporlarına göre, bir dizi yapay zeka projesinin arkasındaki kâr amacı gütmeyen kuruluş olan OpenAI, GPT-2 için planlanan aşama tarafından yayınlanan son modeli yayınladı. GPT-2, Şubat ayında duyurulduğu günden bu yana büyük bir tartışmaya neden oldu.

OpenAI’nin Dil Modelleri Gözetimsiz Çoklu Görev Öğrencileridir adlı araştırma raporuna dayanarak, GPT-2, sınırlı girdi temelinde yeni metinler oluşturmak için makine öğrenimini kullanıyor. Bunun anlamı, bir kullanıcı herhangi bir konu hakkında bir veya iki cümle yazabilir ve AI oluşturucu, orijinal girdiyle ilgili bir metin oluşturur. Aslında, TNW’nin belirttiği gibi, çoğu ‘metin oluşturucu’ gibi önceden yazılmış dizeleri çıktılamıyor. GPT-2, daha önce var olmayan metinler oluşturuyor.”

Carnegie Mellon Üniversitesi Kütüphanelerinin program direktörü Scott B. Weingart, bir tweet’inde somut bir örnek veriyor:

 

OpenAI, sistemlerinin olası kötüye kullanımından endişe duyduğu için Şubat 2019’da GPT-2’yi sekiz ayda dört parçada yayınlamaya karar verdi. Bloglarında açıkladıkları gibi, “Teknolojinin kötüye kullanımına ilişkin endişelerimiz nedeniyle eğitilmiş modeli yayınlamıyoruz. Sorumlu açıklamanın bir deneyimi olarak, araştırmacıların deneysel çalışması için çok daha küçük bir modeli ve bir teknik makaleyi yayınlıyoruz.”

Açıklamaya göre, tam model 1,5 milyar parametre içeriyor. “Bir model ne kadar çok parametre ile eğitilirse, o kadar ‘zeki’ görünür – insanlarda olduğu gibi, pratik yapmak mükemmel yapar.”

TNW, OpenAI’nin ilk olarak 124 milyon parametreli bir model yayınladığını, daha sonra 355 ve 774 milyon parametreli modelleri yayınladığını belirtiyor. Onlara göre, yayımlanan modeller test edildikten sonra, “her bir iterasyonun önceki iterasyonlardan önemli bir şekilde yetenek bakımından iyileşme gösterdiği” görülüyor.

Kötüye kullanımın önlenmesi için OpenAI, kötüye kullanımın önüne geçmek amacıyla GPT-2 algılama modellerini yayınladı. Kendi blog yazılarında kabul ettikleri gibi, bu algılama modelleri hala GPT-2’de elde edilen kalite seviyesine ulaşmak için ek çalışmaya ihtiyaç duyuyor.

İlgilenenler, GPT-2 modelini burada Github’da indirebilir, model kartını burada kontrol edebilir ve OpenAI’nin blog yazısını burada okuyabilir.

Eski bir diplomat ve BM için çevirmen, şu anda serbest gazeteci/yazar/araştırmacı, modern teknoloji, yapay zeka ve modern kültür üzerine odaklanıyor.