tunggul GPT-2, Artificial Intelligence Text-Generator Dileupaskeun sacara lengkep - Unite.AI
Connect with kami

Kacerdasan buatan

GPT-2, Artificial Intelligence Text-Generator Dileupaskeun

mm
diropéa on

As TheNextWeb (TNW) laporan, OpenAI, organisasi nirlaba tukangeun sajumlah proyék intelijen buatan nembé nyebarkeun modél ahir dina sékrési tahapan anu direncanakeun pikeun GPT-2, generator téks anu nyababkeun lumayan debat saprak release na ngumumkeun dina bulan Pebruari.

Dumasar makalah panalungtikan OpenAI anu judulna Modél Basa téh Unsupervised Multitask Learners"GPT-2 ngagunakeun pembelajaran mesin pikeun ngahasilkeun téks novel dumasar kana input kawates. Naon hartosna nyaéta yén pangguna tiasa ngetik dina kalimat atanapi dua ngeunaan subjek naon waé sareng generator AI bakal ngahasilkeun téks anu aya hubunganana sareng input asli. Intina, sakumaha catetan TNW, teu siga sabagéan ageung 'generator téks' éta henteu ngaluarkeun senar anu tos ditulis. GPT-2 nyusun téks anu samemehna teu aya.

Dina tweet-Na, Scott B. Weingart, diréktur program Carnegie Mellon University Libraries méré conto konkret:

 

OpenAI mimitina prihatin ngeunaan kamungkinan pamakean jahat tina sistem na Pébruari 2019 eta mutuskeun pikeun ngaleupaskeun GPT-2 dina opat bagian leuwih dalapan bulan. Sakumaha anu dijelaskeun dina blog na, "Kusabab kasalempang kami ngeunaan aplikasi jahat tina téknologi, kami henteu ngaluarkeun modél anu dilatih. Salaku ékspérimén dina panyingkepan anu tanggung jawab, kami malah ngaluarkeun modél anu langkung alit pikeun panaliti pikeun ékspérimén, ogé kertas téknis.

Sakumaha anu dijelaskeun, model pinuh ngandung 1.5 milyar parameter. "Langkung seueur parameter modél anu dilatih, langkung 'pinter' sigana - sapertos manusa, prakték ngajadikeun sampurna."

TNW catetan éta mimitina OpenAI ngarilis modél kalayan 124 juta parameter saterasna dileupaskeun ku 355 sareng 774 juta. Numutkeun aranjeunna, saatos nguji modél anu dileupaskeun, "unggal iterasi nunjukkeun paningkatan kamampuan anu signifikan tibatan iterasi sateuacana."

Pikeun nyegah nyalahgunakeun OpenAI ngaluarkeun modél deteksi GPT-2 anu sakuduna "pikeun preemptively merangan nyalahgunakeun." Pikeun pangakuan sorangan dina a post blog, model deteksi ieu masih perlu gawé tambahan pikeun ngahontal tingkat kualitas kahontal jadi jauh di GPT-2 sorangan.

Anu minat tiasa ngundeur model GPT-2 Ieuh on Github, pariksa kaluar kartu modél Ieuh, sareng baca tulisan blog OpenAI Ieuh.

Tilas diplomat sareng penerjemah PBB, ayeuna wartawan bébas / panulis / panalungtik, museurkeun kana téknologi modéren, intelijen buatan, sareng budaya modéren.