Pemimpin pemikiran
Kekhawatiran Mengenai Risiko Potensial ChatGPT Semakin Meningkat, Tapi Apakah Menghentikan AI Adalah Langkah yang Tepat?

Sementara Elon Musk dan pemimpin teknologi global lainnya telah meminta penghentian sementara pada AI setelah peluncuran ChatGPT, beberapa kritikus percaya bahwa penghentian pengembangan bukanlah jawabannya. Andrew Pery, evangelis AI dari perusahaan automasi cerdas ABBYY, percaya bahwa mengambil jeda seperti memasukkan pasta gigi kembali ke dalam tabung. Di sini, dia menjelaskan mengapa…
Aplikasi AI telah merambah hampir setiap aspek kehidupan kita. Sementara itu patut dipuji, menghentikan laju perkembangan AI sekarang mungkin tidak realistis.
Tentu ada kekhawatiran yang nyata yang meminta peningkatan pengawasan regulasi untuk mengendalikan dampak berbahaya potensialnya.
Baru-baru ini, Otoritas Perlindungan Data Italia secara sementara memblokir penggunaan ChatGPT di seluruh negeri karena kekhawatiran privasi terkait dengan cara pengumpulan dan pengolahan data pribadi yang digunakan untuk melatih model, serta kurangnya perlindungan, yang membuat anak-anak terpapar pada respons “absolut tidak sesuai dengan usia dan kesadaran mereka.”
Organisasi Konsumen Eropa (BEUC) mendesak UE untuk menyelidiki dampak berbahaya potensial dari model bahasa besar karena “kekhawatiran yang meningkat tentang bagaimana ChatGPT dan chatbot serupa dapat menipu dan memanipulasi orang. Sistem AI ini memerlukan pengawasan publik yang lebih besar, dan otoritas publik harus mengambil alih kendali atas mereka.”
Di AS, Pusat Kebijakan AI dan Digital telah mengajukan keluhan kepada Komisi Perdagangan Federal bahwa ChatGPT melanggar bagian 5 dari Undang-Undang Komisi Perdagangan Federal (FTC Act) (15 USC 45). Dasar keluhan adalah bahwa ChatGPT diduga tidak memenuhi pedoman yang ditetapkan oleh FTC untuk transparansi dan keterjelasan sistem AI. Referensi dibuat ke pengakuan ChatGPT tentang beberapa risiko yang diketahui, termasuk pelanggaran hak privasi, menghasilkan konten berbahaya, dan menyebarkan disinformasi.
Utilitas model bahasa besar seperti ChatGPT, tidak mengherankan, penelitian menunjukkan sisi gelapnya. Terbukti bahwa ChatGPT dapat menghasilkan jawaban yang salah, karena model ChatGPT yang mendasarinya menggunakan algoritma pembelajaran dalam yang memanfaatkan set data pelatihan besar dari internet. Tidak seperti chatbot lainnya, ChatGPT menggunakan model bahasa yang berbasis pada teknik pembelajaran dalam yang menghasilkan teks serupa dengan percakapan manusia, dan platform “menghasilkan jawaban dengan membuat serangkaian tebakan, yang merupakan bagian dari alasan mengapa dapat membela jawaban yang salah seolah-olah benar.”
Lebih lanjut, ChatGPT terbukti memperkuat dan memperbesar bias, menghasilkan “jawaban yang diskriminatif terhadap gender, ras, dan kelompok minoritas, sesuatu yang perusahaan coba kurangi.” ChatGPT juga dapat menjadi ladang emas bagi aktor jahat untuk mengeksploitasi pengguna yang tidak curiga, mengompromikan privasi mereka dan memaparkan mereka pada serangan scam.
Kekhawatiran ini memicu Parlemen Eropa untuk menerbitkan komentar yang memperkuat kebutuhan untuk lebih memperkuat ketentuan saat ini dari draft Undang-Undang AI UE, (AIA) yang masih menunggu ratifikasi. Komentar tersebut menunjukkan bahwa draft regulasi yang diusulkan saat ini berfokus pada apa yang disebut aplikasi AI sempit, yang terdiri dari kategori tertentu dari sistem AI berisiko tinggi seperti perekrutan, kelayakan kredit, pekerjaan, penegakan hukum, dan kelayakan untuk layanan sosial. Namun, draft regulasi AIA UE tidak mencakup AI tujuan umum, seperti model bahasa besar yang menyediakan kemampuan kognitif yang lebih maju dan yang dapat “melakukan berbagai tugas cerdas.” Ada seruan untuk memperluas cakupan draft regulasi untuk mencakup kategori terpisah dari sistem AI tujuan umum berisiko tinggi, yang memerlukan pengembang untuk melakukan pengujian konformitas ex ante yang ketat sebelum meletakkan sistem tersebut di pasar dan terus memantau kinerjanya untuk output berbahaya yang tidak terduga.
Sebuah penelitian yang sangat membantu menarik perhatian pada kesenjangan bahwa regulasi AIA UE “terutama berfokus pada model AI konvensional, dan tidak pada generasi baru yang kita saksikan hari ini.”
Penelitian tersebut merekomendasikan empat strategi yang harus dipertimbangkan oleh regulator.
- Memerlukan pengembang sistem tersebut untuk secara teratur melaporkan efikasi proses manajemen risiko mereka untuk mengurangi output berbahaya.
- Perusahaan yang menggunakan model bahasa besar harus diwajibkan untuk mengungkapkan kepada pelanggan bahwa konten tersebut dihasilkan oleh AI.
- Pengembang harus berlangganan proses pelepasan bertahap, sebagai bagian dari kerangka manajemen risiko, yang dirancang untuk melindungi terhadap hasil berbahaya yang tidak terduga.
- Meletakkan beban pada pengembang untuk “mengurangi risiko dari akarnya” dengan harus “mengaudit proaktif set data pelatihan untuk kesalahpahaman.”
Faktor yang memperburuk risiko yang terkait dengan teknologi disruptif adalah dorongan inovator untuk mencapai keunggulan pertama dengan mengadopsi model bisnis “kirim dulu dan perbaiki nanti.” Sementara OpenAI cukup transparan tentang risiko potensial ChatGPT, mereka telah merilisnya untuk penggunaan komersial yang luas dengan beban “pembeli waspada” pada pengguna untuk menimbang dan mengasumsikan risiko mereka sendiri. Itu mungkin merupakan pendekatan yang tidak dapat dipertahankan mengingat dampak pervasif dari sistem AI percakapan. Regulasi proaktif yang dikombinasikan dengan tindakan penegakan yang kuat harus menjadi yang utama ketika menangani teknologi disruptif seperti ini.
Kecerdasan buatan sudah merambah hampir setiap bagian kehidupan kita, yang berarti penghentian sementara pada pengembangan AI dapat mengimplikasikan banyak hambatan dan konsekuensi yang tidak terduga. Alih-alih menghentikan laju perkembangan AI secara tiba-tiba, pemain industri dan legislatif harus bekerja sama dengan itikad baik untuk menghasilkan regulasi yang dapat diambil tindakan yang berakar pada nilai-nilai yang berorientasi pada manusia seperti transparansi, akuntabilitas, dan keadilan. Dengan merujuk pada legislasi yang ada seperti AIA, pemimpin di sektor swasta dan publik dapat merancang kebijakan yang menyeluruh dan standar global yang akan mencegah penggunaan yang tidak bertanggung jawab dan mengurangi hasil yang tidak diinginkan, sehingga menjaga kecerdasan buatan dalam batas-batas yang memperbaiki pengalaman manusia.












