Connect with us

Kecerdasan buatan

Generator Bahasa OpenAI GPT-3 Mendapatkan Perhatian Banyak

mm

Perusahaan riset kecerdasan buatan (AI) non-profit OpenAI, yang didukung oleh nama-nama seperti Peter Thiel, Elon Musk, Reid Hoffman, Marc Benioff, dan Sam Altman, telah merilis GPT-3, model prediksi bahasa generasi ketiga perusahaan. Rilis GPT-3 telah disambut dengan hype ekstrem dari beberapa pengguna awal. 

Apa itu GPT-3

GPT-3 adalah model bahasa terbesar yang pernah dibuat dan dapat menghasilkan teks yang tidak dapat dibedakan dari teks manusia dalam banyak kasus. OpenAI menjelaskan teknologi prediksi bahasa untuk pertama kalinya dalam sebuah makalah penelitian pada bulan Mei. Pekan lalu, beberapa orang diberi akses awal ke perangkat lunak melalui beta pribadi. 

OpenAI mengandalkan pengembang luar untuk mempelajari lebih lanjut tentang teknologi dan apa yang dapat dilakukannya, dan perusahaan memiliki rencana untuk masuk ke pasar komersial pada akhir tahun ini. Bisnis akan dapat membayar langganan untuk menggunakan AI.

Model Bahasa Paling Kuat

GPT-3 telah terbukti sebagai model bahasa paling kuat yang pernah dibuat. Berkembang dari model GPT-2 sebelumnya, GPT-3 dirilis tahun lalu. GPT-2 juga sangat mengesankan, dapat membuat string teks yang kompeten setelah diberikan kalimat pembuka.

GPT-3 memiliki 175 miliar parameter, yang meningkat dari 1,5 miliar GPT-2, dan AI telah didemonstrasikan dapat membuat cerita pendek, lagu, rilis pers, dan manual teknis. Tidak hanya teknologi dapat membuat cerita, tetapi juga dapat melakukannya dengan menggunakan bahasa yang relatif dengan penulis tertentu. Teknologi hanya memerlukan judul, nama penulis, dan kata awal. GPT-3 juga dapat menghasilkan teks lain seperti tab gitar dan kode komputer. 

Pengembang web Sharif Shameem dapat menggunakan GPT-3 untuk membuat tata letak halaman web, sedangkan pengkode terkenal John Carmach, CTO di Oculus VR dan pengaruh besar dalam grafis komputer, mengatakan ini tentang teknologi baru: “Penemuan baru-baru ini, hampir tidak sengaja, bahwa GPT-3 dapat menulis kode membuat sedikit menggigil.”

Kekhawatiran tentang Bias dan Kecerdasan

Masih ada beberapa kekhawatiran tentang GPT-3 dan tingkat bias atau bahasa seksis dan rasisme yang dapat dihasilkannya. Masalah jenis ini telah ditangani di model GPT-2, sehingga bukanlah masalah baru. 

GPT-3 tidak cerdas dan membuat banyak kesalahan yang tidak akan dilakukan manusia, tetapi rekayasa sangat luar biasa. Teknologi sangat baik dalam mensintesis teks di internet dan mengambil jutaan potongan teks yang dapat disatukan. 

Oleh karena itu, orang seperti Sam Altman, co-pendiri OpenAI dengan Elon Musk, cepat untuk mengurangi beberapa perhatian yang diterima teknologi. 

“Hype GPT-3 terlalu banyak. Ini mengesankan (terima kasih atas pujian yang baik!) tetapi masih memiliki kelemahan serius dan terkadang membuat kesalahan yang sangat bodoh. AI akan mengubah dunia, tetapi GPT-3 hanya sekilas awal. Kami masih memiliki banyak hal untuk dipelajari,” dia tweet pada 19 Juli. 

OpenAI masih jauh dari selesai, tetapi GPT-3 adalah langkah besar ke depan dalam kecerdasan buatan dan teknologi prediksi bahasa.

Alex McFarland adalah seorang jurnalis dan penulis AI yang menjelajahi perkembangan terbaru dalam kecerdasan buatan. Ia telah berkolaborasi dengan berbagai startup dan publikasi AI di seluruh dunia.