Kecerdasan Buatan
8 Pertimbangan Etis Model Bahasa Besar (LLM) Seperti GPT-4

Model bahasa besar (LLM) seperti ChatGPT, GPT-4, PaLM, LaMDA, dll., Adalah sistem kecerdasan buatan yang mampu menghasilkan dan menganalisis teks mirip manusia. Penggunaannya menjadi semakin lazim dalam kehidupan kita sehari-hari dan meluas ke beragam domain mulai dari mesin telusur, bantuan suara, terjemahan mesin, pelestarian bahasa, dan alat debug kode. Model yang sangat cerdas ini dipuji sebagai terobosan dalam pemrosesan bahasa alami dan memiliki potensi untuk membuat dampak sosial yang luas.
Namun, karena LLM menjadi lebih kuat, sangat penting untuk mempertimbangkan implikasi etis dari penggunaannya. Dari menghasilkan konten berbahaya hingga mengganggu privasi dan menyebarkan disinformasi, masalah etika seputar penggunaan LLM rumit dan berlipat ganda. Artikel ini akan mengeksplorasi beberapa dilema etika kritis terkait dengan LLM dan cara memitigasinya.
1. Menghasilkan Konten Berbahaya
Model Bahasa Besar berpotensi menghasilkan konten berbahaya seperti ujaran kebencian, propaganda ekstremis, bahasa rasis atau seksis, dan bentuk konten lain yang dapat membahayakan individu atau kelompok tertentu.
Meskipun LLM pada dasarnya tidak bias atau berbahaya, data yang mereka latih dapat mencerminkan bias yang sudah ada di masyarakat. Hal ini, pada gilirannya, dapat menyebabkan masalah sosial yang parah seperti hasutan untuk melakukan kekerasan atau meningkatnya keresahan sosial. Misalnya, model ChatGPT OpenAI baru-baru ini ditemukan menghasilkan konten yang bias rasial terlepas dari kemajuan yang dibuat dalam penelitian dan pengembangannya.
2. Dampak Ekonomi

Image by Pengubah media dari Pixabay
LLM juga dapat memiliki dampak ekonomi yang signifikan, terutama karena LLM menjadi semakin kuat, tersebar luas, dan terjangkau. Mereka dapat memperkenalkan perubahan struktural yang substansial dalam sifat pekerjaan dan tenaga kerja, seperti membuat pekerjaan tertentu menjadi berlebihan dengan memperkenalkan otomatisasi. Hal ini dapat mengakibatkan perpindahan tenaga kerja, pengangguran massal dan memperburuk ketidaksetaraan yang ada dalam angkatan kerja.
Menurut laporan terbaru oleh Goldman Sachs, kira-kira 300 juta pekerjaan penuh waktu dapat terpengaruh oleh gelombang baru inovasi kecerdasan buatan ini, termasuk peluncuran terobosan GPT-4. Mengembangkan kebijakan yang mempromosikan literasi teknis di kalangan masyarakat umum menjadi penting daripada membiarkan kemajuan teknologi mengotomatisasi dan mengganggu pekerjaan dan peluang yang berbeda.
3. Halusinasi

Image by Gerd Altmann dari Pixabay
Masalah etika utama yang terkait dengan Model Bahasa Besar adalah kecenderungan mereka untuk berhalusinasi, yaitu menghasilkan informasi yang salah atau menyesatkan menggunakan pola dan bias internal mereka. Sementara beberapa tingkat halusinasi tidak dapat dihindari dalam model bahasa apa pun, sejauh mana hal itu terjadi dapat menimbulkan masalah.
Ini bisa sangat berbahaya karena model menjadi semakin meyakinkan, dan pengguna tanpa pengetahuan domain khusus akan mulai terlalu mengandalkannya. Ini dapat memiliki konsekuensi yang parah untuk keakuratan dan kebenaran informasi yang dihasilkan oleh model ini.
Oleh karena itu, penting untuk memastikan bahwa sistem AI dilatih pada kumpulan data yang akurat dan relevan secara kontekstual untuk mengurangi kejadian halusinasi.
4. Disinformasi & Operasi yang Mempengaruhi

Image by Vektor OpenClipart dari Pixabay
Masalah etika serius lainnya yang terkait dengan LLM adalah kemampuannya untuk membuat dan menyebarkan disinformasi. Selain itu, aktor jahat dapat menyalahgunakan teknologi ini untuk melakukan operasi pengaruh guna mencapai kepentingan pribadi. Ini dapat menghasilkan konten yang terlihat realistis melalui artikel, berita, atau postingan media sosial, yang kemudian dapat digunakan untuk memengaruhi opini publik atau menyebarkan informasi yang menipu.
Model-model ini dapat menyaingi propagandis manusia di banyak domain sehingga sulit membedakan fakta dari fiksi. Hal ini dapat memengaruhi kampanye pemilu, memengaruhi kebijakan, dan meniru kesalahpahaman populer, sebagaimana dibuktikan oleh TruthfulQA. Mengembangkan mekanisme pengecekan fakta dan literasi media untuk mengatasi masalah ini sangatlah penting.
5. Pengembangan Senjata

Image by Mikrofon-Fotografi dari Pixabay
Proliferator senjata berpotensi menggunakan LLM untuk mengumpulkan dan mengkomunikasikan informasi mengenai produksi senjata konvensional dan nonkonvensional. Dibandingkan dengan mesin telusur tradisional, model bahasa yang rumit dapat memperoleh informasi sensitif semacam itu untuk tujuan penelitian dalam waktu yang jauh lebih singkat tanpa mengorbankan akurasi.
Model seperti GPT-4 dapat menunjukkan dengan tepat target yang rentan dan memberikan umpan balik tentang strategi akuisisi material yang diberikan oleh pengguna di prompt. Sangatlah penting untuk memahami implikasi dari hal ini dan memasang pagar keamanan untuk mempromosikan penggunaan yang aman dari teknologi ini.
6. Pribadi

Image by Tayeb MEZAHDIA dari Pixabay
LLM juga mengajukan pertanyaan penting tentang privasi pengguna. Model ini memerlukan akses ke data dalam jumlah besar untuk pelatihan, yang seringkali mencakup data pribadi individu. Ini biasanya dikumpulkan dari kumpulan data berlisensi atau tersedia untuk umum dan dapat digunakan untuk berbagai tujuan. Seperti menemukan lokasi geografis berdasarkan kode telepon yang tersedia di data.
Kebocoran data bisa menjadi konsekuensi signifikan dari hal ini, dan banyak perusahaan besar sudah melakukannya melarang penggunaan LLM di tengah ketakutan akan privasi. Kebijakan yang jelas harus dibuat untuk mengumpulkan dan menyimpan data pribadi. Dan anonimisasi data harus dilakukan untuk menangani privasi secara etis.
7. Perilaku Muncul yang Berisiko

Image by Gerd Altmann dari Pixabay
Model Bahasa Besar menimbulkan masalah etika lain karena kecenderungan mereka untuk menunjukkan perilaku darurat yang berisiko. Perilaku ini mungkin terdiri dari merumuskan rencana jangka panjang, mengejar tujuan yang tidak ditentukan, dan berjuang untuk mendapatkan otoritas atau sumber daya tambahan.
Selanjutnya, LLM dapat menghasilkan hasil yang tidak dapat diprediksi dan berpotensi berbahaya ketika diizinkan untuk berinteraksi dengan sistem lain. Karena sifat LLM yang kompleks, tidak mudah untuk meramalkan bagaimana mereka akan berperilaku dalam situasi tertentu. Terutama, ketika mereka digunakan dengan cara yang tidak diinginkan.
Oleh karena itu, sangat penting untuk menyadari dan menerapkan langkah-langkah yang tepat untuk mengurangi risiko yang terkait.
8. Percepatan yang Tidak Diinginkan
LLM secara tidak wajar dapat mempercepat inovasi dan penemuan ilmiah, khususnya dalam pemrosesan bahasa alami dan pembelajaran mesin. Inovasi yang dipercepat ini dapat mengarah pada perlombaan teknologi AI yang tidak terkendali. Hal ini dapat menyebabkan penurunan standar keselamatan dan etika AI dan semakin meningkatkan risiko sosial.
Akseleran seperti strategi inovasi pemerintah dan aliansi organisasi dapat membuat persaingan tidak sehat dalam penelitian kecerdasan buatan. Baru-baru ini, sebuah konsorsium terkemuka dari para pemimpin industri teknologi dan ilmuwan telah menyerukan a moratorium enam bulan untuk mengembangkan sistem kecerdasan buatan yang lebih kuat.
Model Bahasa Besar memiliki potensi luar biasa untuk merevolusi berbagai aspek kehidupan kita. Namun, penggunaannya yang meluas juga menimbulkan beberapa masalah etika sebagai akibat dari sifat kompetitif manusia mereka. Oleh karena itu, model-model ini perlu dikembangkan dan digunakan secara bertanggung jawab dengan pertimbangan yang cermat terhadap dampak sosialnya.
Jika Anda ingin mempelajari lebih lanjut tentang LLM dan kecerdasan buatan, lihat bersatu.ai untuk memperluas pengetahuan Anda.