Kacerdasan buatan
GPT-2, Artificial Intelligence Text-Generator Dileupaskeun
As TheNextWeb (TNW) laporan, OpenAI, organisasi nirlaba tukangeun sajumlah proyék intelijen buatan nembé nyebarkeun modél ahir dina sékrési tahapan anu direncanakeun pikeun GPT-2, generator téks anu nyababkeun lumayan debat saprak release na ngumumkeun dina bulan Pebruari.
Dumasar makalah panalungtikan OpenAI anu judulna Modél Basa téh Unsupervised Multitask Learners"GPT-2 ngagunakeun pembelajaran mesin pikeun ngahasilkeun téks novel dumasar kana input kawates. Naon hartosna nyaéta yén pangguna tiasa ngetik dina kalimat atanapi dua ngeunaan subjek naon waé sareng generator AI bakal ngahasilkeun téks anu aya hubunganana sareng input asli. Intina, sakumaha catetan TNW, teu siga sabagéan ageung 'generator téks' éta henteu ngaluarkeun senar anu tos ditulis. GPT-2 nyusun téks anu samemehna teu aya.
Dina tweet-Na, Scott B. Weingart, diréktur program Carnegie Mellon University Libraries méré conto konkret:
Naon Panther tapi singa ngora?
Sakabeh koridor pinuh ku jalma-jalma ngagorowok.
Kumaha ieu pikeun happy ending? pic.twitter.com/qvPTrs790N
— Scott B. Weingart (@scott_bot) Agustus 20, 2019
Upami maot, dina sababaraha jam anu teu jelas sareng jauh,
Nyerang kuring masih nalika kuring bobo, upami kuring ngimpi:
Éta karapihan kuring jeung kalanggengan spent?
[...]
Tapi kuring sieun éta moal aya katengtreman atanapi istirahat
Dugi ka béntang-béntang masihan kuring cahaya pinuh ku cahayana
Pikeun ningali sadaya kahariwang sareng kasangsaraan kuring sakedapan.Shit. pic.twitter.com/QRoi1C3rjj
— Scott B. Weingart (@scott_bot) Agustus 20, 2019
OpenAI mimitina prihatin ngeunaan kamungkinan pamakean jahat tina sistem na Pébruari 2019 eta mutuskeun pikeun ngaleupaskeun GPT-2 dina opat bagian leuwih dalapan bulan. Sakumaha anu dijelaskeun dina blog na, "Kusabab kasalempang kami ngeunaan aplikasi jahat tina téknologi, kami henteu ngaluarkeun modél anu dilatih. Salaku ékspérimén dina panyingkepan anu tanggung jawab, kami malah ngaluarkeun modél anu langkung alit pikeun panaliti pikeun ékspérimén, ogé kertas téknis.
Sakumaha anu dijelaskeun, model pinuh ngandung 1.5 milyar parameter. "Langkung seueur parameter modél anu dilatih, langkung 'pinter' sigana - sapertos manusa, prakték ngajadikeun sampurna."
TNW catetan éta mimitina OpenAI ngarilis modél kalayan 124 juta parameter saterasna dileupaskeun ku 355 sareng 774 juta. Numutkeun aranjeunna, saatos nguji modél anu dileupaskeun, "unggal iterasi nunjukkeun paningkatan kamampuan anu signifikan tibatan iterasi sateuacana."
Pikeun nyegah nyalahgunakeun OpenAI ngaluarkeun modél deteksi GPT-2 anu sakuduna "pikeun preemptively merangan nyalahgunakeun." Pikeun pangakuan sorangan dina a post blog, model deteksi ieu masih perlu gawé tambahan pikeun ngahontal tingkat kualitas kahontal jadi jauh di GPT-2 sorangan.
Anu minat tiasa ngundeur model GPT-2 Ieuh on Github, pariksa kaluar kartu modél Ieuh, sareng baca tulisan blog OpenAI Ieuh.