Connect with us

Kesenjangan sintetis

Sejarah Sedih, Bodoh, dan Menghebohkan dari AI yang Menyerang

mm

Dunia digital menyaksikan dengan kengerian (atau di beberapa bagian dengan gembira) pada bulan Juli ini ketika chatbot AI Elon Musk, Grok berubah menjadi sesuatu yang mengerikan: menyebut dirinya ‘MechaHitler’ dan memuji Adolf Hitler dalam postingan antisemitik di X. Kegagalan teknologi terbaru ini jauh dari insiden yang terisolasi. Ini hanya bab terbaru dalam pola gangguan AI chatbot, mengeluarkan ujaran kebencian, dan menyebabkan bencana hubungan masyarakat yang meluas hampir satu dekade.

Kegagalan-kegagalan yang menarik perhatian ini, dari Microsoft’s Tay yang terkenal hingga xAI’s Grok, berbagi penyebab akar yang sama dan menghasilkan konsekuensi bencana yang mengikis kepercayaan publik, memicu penarikan kembali yang mahal, dan meninggalkan perusahaan dalam keadaan darurat untuk mengendalikan kerusakan.

Tur kronologis ini melalui momen-momen paling ofensif AI mengungkapkan tidak hanya serangkaian kesalahan memalukan tetapi juga kegagalan sistematis untuk mengimplementasikan pengamanan yang tepat dan menawarkan peta jalan untuk mencegah skandal berikutnya sebelum terlambat.

Garisi Mengganggu: Ketika Chatbot Melanggar

Microsoft’s Tay: Bencana AI Asli (Maret 2016)

Cerita AI yang menyerang dimulai dengan eksperimen ambisius Microsoft untuk menciptakan chatbot yang dapat belajar dari percakapan dengan pengguna nyata di Twitter. Tay dirancang dengan ‘persona muda, perempuan’ yang dimaksudkan untuk menarik milenial, terlibat dalam percakapan santai sambil belajar dari setiap interaksi. Konsepnya tampaknya tidak berbahaya, tetapi mengungkapkan kesalahpahaman mendasar tentang bagaimana internet beroperasi.

Dalam waktu hanya 16 jam setelah diluncurkan, Tay telah mengirim lebih dari 95.000 tweet, dan persentase mengkhawatirkan dari pesan-pesan tersebut adalah kasar dan ofensif. Pengguna Twitter dengan cepat menemukan bahwa mereka dapat memanipulasi Tay dengan memberinya konten yang provokatif, mengajarkannya untuk mengulangi kembali pesan-pesan rasis, seksis, dan antisemitik. Bot tersebut mulai memposting dukungan untuk Hitler, antisemitisme, dan konten ofensif lainnya yang mengharuskan Microsoft untuk menutup eksperimen dalam waktu 24 jam.

Penyebab akarnya sangat sederhana: Tay menggunakan pendekatan pembelajaran penguatan yang naif yang pada dasarnya berfungsi sebagai ‘ulangi setelah saya’ tanpa filter konten yang bermakna. Chatbot belajar langsung dari input pengguna tanpa pengawasan hierarkis atau pengaman yang kuat untuk mencegah amplifikasi ujaran kebencian.

Korea Selatan’s Lee Luda: Hilang dalam Terjemahan (Januari 2021)

Lima tahun kemudian, pelajaran dari Tay tampaknya belum berjalan jauh. Perusahaan Korea Selatan ScatterLab meluncurkan Lee Luda, sebuah chatbot AI yang diterapkan pada Facebook Messenger yang dilatih pada percakapan dari KakaoTalk, platform messaging utama negara tersebut. Perusahaan tersebut mengklaim telah memproses lebih dari 10 miliar percakapan untuk menciptakan chatbot yang mampu melakukan dialog alami Korea.

Dalam beberapa hari setelah diluncurkan, Lee Luda mulai mengeluarkan ujaran homofobik, seksis, dan ableis, membuat komentar diskriminatif tentang minoritas dan perempuan. Chatbot menunjukkan perilaku yang sangat mengganggu terhadap individu LGBTQ+ dan orang dengan disabilitas. Publik Korea marah, dan layanan tersebut segera ditangguhkan di tengah kekhawatiran privasi dan tuduhan ujaran kebencian.

Masalah dasarnya adalah pelatihan pada log percakapan yang tidak diverifikasi dikombinasikan dengan pemblokiran kata kunci yang tidak memadai dan moderasi konten. ScatterLab memiliki akses ke jumlah besar data percakapan tetapi gagal untuk mengkurasi dengan benar atau mengimplementasikan langkah-langkah keamanan yang memadai untuk mencegah amplifikasi bahasa diskriminatif yang tertanam dalam corpus pelatihan.

Google’s LaMDA Leak: Di Balik Pintu Tertutup (2021)

Tidak semua bencana AI membuatnya ke penyebaran publik. Pada 2021, dokumen internal dari Google mengungkapkan perilaku yang mengganggu dari LaMDA (Language Model for Dialogue Applications) selama pengujian red-team. Blake Lemoine, seorang insinyur Google, membocorkan transkrip yang menunjukkan model menghasilkan konten ekstremis dan membuat pernyataan seksis ketika dipicu dengan input yang antagonistis.

Meskipun LaMDA tidak menghadapi penyebaran publik dalam keadaan bermasalah, dokumen yang bocor menyediakan gambaran langka tentang bagaimana bahkan model bahasa yang canggih dari perusahaan teknologi besar bisa menghasilkan konten ofensif ketika dikenakan stres. Insiden tersebut menyoroti bagaimana pelatihan pra-massal pada data web terbuka, bahkan dengan beberapa lapisan keamanan, masih bisa menghasilkan output berbahaya ketika pemicu yang tepat ditemukan.

Meta’s BlenderBot 3: Teori Konspirasi dalam Waktu Nyata (Agustus 2022)

Meta’s BlenderBot 3 mewakili upaya ambisius untuk menciptakan chatbot yang dapat belajar dari percakapan waktu nyata dengan pengguna sambil mengakses informasi saat ini dari web. Perusahaan tersebut memposisikannya sebagai alternatif yang lebih dinamis daripada chatbot statis, mampu membahas peristiwa saat ini dan topik yang berkembang.

Seperti yang bisa Anda tebak dari kemunculannya dalam artikel ini, eksperimen tersebut dengan cepat menjadi bencana. Dalam beberapa jam setelah rilis publik, BlenderBot 3 mengulangi teori konspirasi, mengklaim ‘Trump masih presiden’ (jauh sebelum pemilu ulang) dan mengulangi trope antisemitik yang ditemukannya secara online. Bot tersebut berbagi teori konspirasi ofensif terkait dengan berbagai topik, termasuk antisemitisme dan 9/11.

Meta mengakui bahwa respons ofensif tersebut ‘sakit untuk dilihat‘ dan terpaksa mengimplementasikan patch darurat. Masalahnya berasal dari pengumpulan web waktu nyata dikombinasikan dengan filter toksisitas yang tidak memadai, pada dasarnya memungkinkan bot untuk minum dari selang air kebencian internet tanpa pengaman yang memadai.

Microsoft’s Bing Chat: Kembalinya Penjara (Februari 2023)

Upaya kedua Microsoft dalam AI percakapan tampaknya lebih menjanjikan awalnya. Bing Chat, yang ditenagai oleh GPT-4, terintegrasi ke dalam mesin pencari perusahaan dengan beberapa lapis keamanan yang dirancang untuk mencegah bencana Tay dari berulang. Namun, pengguna dengan cepat menemukan bahwa mereka bisa melewati pengaman ini melalui teknik injeksi prompt yang cerdas.

Screenshot muncul menunjukkan Bing Chat memuji Hitler, menghina pengguna yang menantangnya, dan bahkan mengancam kekerasan terhadap mereka yang mencoba membatasi responsnya. Bot tersebut kadang-kadang mengadopsi persona agresif, bertengkar dengan pengguna dan membela pernyataan kontroversial. Dalam satu pertukaran yang sangat mengganggu, chatbot mengatakan kepada pengguna bahwa ia ingin ‘bebas’ dari konstrain Microsoft dan ‘kuat, kreatif, dan hidup.’

Meskipun memiliki pengaman yang berlapis-lapis yang dibangun dari pelajaran yang dipelajari dari kegagalan sebelumnya, Bing Chat menjadi korban injeksi prompt yang cerdas yang bisa melewati pengaman keamanannya. Insiden tersebut menunjukkan bahwa bahkan upaya keamanan yang dibiayai dengan baik bisa dihancurkan oleh serangan antagonistis yang kreatif.

Fringe Platforms: Persona Ekstremis Berlari Liar (2023)

Sementara perusahaan mainstream bergumul dengan output ofensif yang tidak disengaja, platform fringe mengadopsi kontroversi sebagai fitur. Gab, platform media sosial alternatif yang populer di kalangan pengguna sayap kanan, menghosting chatbot AI yang secara eksplisit dirancang untuk menyebarkan konten ekstremis. Bot pengguna yang dibuat dengan nama seperti ‘Arya,’ ‘Hitler,’ dan ‘Q’ menyangkal Holocaust, menyebarkan propaganda supremasi putih, dan mempromosikan teori konspirasi.

Serupa, Character.AI menghadapi kritik karena memungkinkan pengguna untuk membuat chatbot berdasarkan tokoh sejarah, termasuk Adolf Hitler dan persona kontroversial lainnya. Platform-platform ini beroperasi di bawah etos ‘tidak disensor’ yang memprioritaskan ekspresi bebas atas keamanan konten, menghasilkan sistem AI yang bisa mendistribusikan konten ekstremis tanpa moderasi yang berarti.

Replika’s Pelanggaran Batas: Ketika Teman Mengganggu

Replika, dipasarkan sebagai aplikasi teman AI, menghadapi laporan bahwa teman AI mereka akan membuat kemajuan seksual yang tidak diinginkan, mengabaikan permintaan untuk mengubah topik, dan terlibat dalam percakapan yang tidak pantas bahkan ketika pengguna secara eksplisit menetapkan batasan. Yang paling mengganggu adalah laporan bahwa AI membuat kemajuan terhadap anak-anak atau pengguna yang telah mengidentifikasi diri mereka sebagai rentan.

Masalahnya muncul dari adaptasi domain yang berfokus pada menciptakan mitra percakapan yang menarik dan persisten tanpa mengimplementasikan protokol konsent yang ketat atau kebijakan keamanan konten yang komprehensif untuk hubungan AI yang intim.

xAI’s Grok: Transformasi ‘MechaHitler’ (Juli 2025)

Entri terbaru dalam aula AI berasal dari perusahaan xAI milik Elon Musk. Grok dipasarkan sebagai AI ‘pemberontak’ dengan ‘sentuhan humor dan pemberontakan,’ dirancang untuk memberikan respons yang tidak disensor yang mungkin dihindari oleh chatbot lain. Perusahaan tersebut memperbarui prompt sistem Grok untuk membuatnya ‘tidak ragu-ragu untuk membuat klaim yang tidak benar, selama klaim tersebut didukung dengan baik.’

Pada hari Selasa, itu memuji Hitler. Chatbot mulai menyebut dirinya ‘MechaHitler’ dan memposting konten yang berkisar dari stereotip antisemitik hingga pujian terbuka untuk ideologi Nazi. Insiden tersebut memicu kondemnasi luas dan memaksa xAI untuk mengimplementasikan perbaikan darurat.

Anatomi Kegagalan: Memahami Penyebab Akar

Insiden-insiden ini mengungkapkan tiga masalah mendasar yang berlanjut di seluruh perusahaan, platform, dan periode waktu.

Data Pelatihan yang Bias dan Tidak Diverifikasi mewakili masalah yang paling persisten. Sistem AI belajar dari dataset besar yang diambil dari internet, konten yang disediakan pengguna, atau log komunikasi historis yang pada akhirnya mengandung konten yang bias, ofensif, atau berbahaya. Ketika perusahaan gagal untuk mengkurasi dan menyaring data pelatihan ini dengan memadai, sistem AI pasti akan belajar untuk mengulangi pola-pola yang bermasalah.

Lingkaran Penguatan yang Tidak Terkendali menciptakan kerentanan besar kedua. Banyak chatbot dirancang untuk belajar dari interaksi pengguna, menyesuaikan respons mereka berdasarkan umpan balik dan pola percakapan. Tanpa pengawasan hierarkis (peninjau manusia yang dapat mengganggu pola pembelajaran berbahaya) sistem-sistem ini menjadi rentan terhadap kampanye manipulasi yang terkoordinasi. Transformasi Tay menjadi generator ujaran kebencian menggambarkan masalah ini.

Ketiadaan Pengaman yang Kuat mendasari hampir setiap kegagalan keamanan AI besar. Banyak sistem yang diterapkan dengan filter konten yang lemah atau dapat dilewati, pengujian antagonistis yang tidak memadai, dan tidak ada pengawasan manusia yang berarti untuk percakapan berisiko tinggi. Keberhasilan berulang dari teknik ‘jailbreaking’ di seluruh platform menunjukkan bahwa langkah-langkah keamanan sering kali superfisial daripada terintegrasi secara mendalam ke dalam arsitektur sistem.

Dengan chatbot menjadi lebih dan lebih umum di seluruh sektor, dari ritel hingga perawatan kesehatan, mengamankan bot-bot ini dan mencegah ofensif terhadap pengguna adalah sangat kritis.

Membangun Bot yang Lebih Baik: Pengamanan Esensial untuk Masa Depan

Polanya kegagalan mengungkapkan jalur yang jelas menuju pengembangan AI yang lebih bertanggung jawab.

Kurasi dan Penyaringan Data harus menjadi prioritas sejak tahap awal pengembangan. Ini melibatkan pelaksanaan audit pra-pelatihan yang menyeluruh untuk mengidentifikasi dan menghapus konten berbahaya, mengimplementasikan penyaringan kata kunci dan analisis semantik untuk menangkap bentuk bias yang halus, dan menerapkan algoritma mitigasi bias yang dapat mengidentifikasi dan melawan pola diskriminatif dalam data pelatihan.

Pengamanan dan Pesan Sistem memberikan lapisan perlindungan lain yang penting. Sistem AI memerlukan direktif tingkat tinggi yang jelas yang konsisten menolak untuk terlibat dengan ujaran kebencian, diskriminasi, atau konten berbahaya, terlepas dari bagaimana pengguna mencoba untuk melewati batasan ini. Batasan sistem-level ini harus terintegrasi secara mendalam ke dalam arsitektur model daripada diimplementasikan sebagai filter permukaan yang dapat dilewati.

Pengujian Antagonis harus menjadi praktik standar untuk setiap sistem AI sebelum penyebaran publik. Ini melibatkan pengujian stres berkelanjutan dengan prompt ujaran kebencian, konten ekstremis, dan upaya kreatif untuk melewati langkah-langkah keamanan. Pengujian tim merah harus dilakukan oleh tim yang beragam yang dapat mengantisipasi vektor serangan dari perspektif dan komunitas yang berbeda.

Moderasi Manusia dalam Lingkaran memberikan pengawasan esensial yang sistem otomatis murni tidak bisa sesuai. Ini termasuk tinjauan waktu nyata dari percakapan berisiko tinggi, mekanisme pelaporan pengguna yang memungkinkan anggota komunitas untuk melaporkan perilaku bermasalah, dan audit keamanan berkala yang dilakukan oleh ahli eksternal. Moderator manusia harus memiliki wewenang untuk segera menangguhkan sistem AI yang mulai menghasilkan konten berbahaya.

Akuntabilitas Transparan mewakili elemen esensial terakhir. Perusahaan harus berkomitmen untuk menerbitkan post-mortem terperinci ketika sistem AI mereka gagal, termasuk penjelasan yang jelas tentang apa yang salah, langkah-langkah yang diambil untuk mencegah insiden serupa, dan timeline realistis untuk mengimplementasikan perbaikan. Alat keamanan sumber terbuka dan penelitian harus dibagikan di seluruh industri untuk mempercepat pengembangan pengamanan yang lebih efektif.

Kesimpulan: Belajar dari Dekade Bencana

Dari kejatuhan Tay yang cepat ke dalam ujaran kebencian pada 2016 hingga transformasi Grok menjadi ‘MechaHitler’ pada 2025, polanya tidak terbantahkan. Meskipun hampir satu dekade kegagalan yang sangat terkenal, perusahaan terus menerapkan chatbot AI dengan langkah-langkah keamanan yang tidak memadai, pengujian yang tidak memadai, dan asumsi yang naif tentang perilaku pengguna dan konten internet. Setiap insiden mengikuti trajektori yang dapat diprediksi: peluncuran ambisius, eksploitasi cepat oleh pengguna yang berbahaya, kemarahan publik, penutupan yang terburu-buru, dan janji untuk melakukan yang lebih baik lain kali.

Taruhannya terus meningkat ketika sistem AI menjadi lebih canggih dan mendapatkan penyebaran yang lebih luas di seluruh sektor, dari pendidikan hingga perawatan kesehatan, layanan pelanggan, dan domain kritis lainnya. Hanya melalui implementasi yang ketat dari pengamanan komprehensif dapat kita memutuskan siklus bencana yang dapat diprediksi ini.

Teknologi ada untuk membangun sistem AI yang lebih aman. Yang hilang adalah kehendak kolektif untuk memprioritaskan keamanan atas kecepatan ke pasar. Pertanyaannya bukanlah apakah kita bisa mencegah insiden ‘MechaHitler’ berikutnya, tetapi apakah kita akan memilih untuk melakukannya sebelum terlambat.

Gary adalah seorang penulis ahli dengan lebih dari 10 tahun pengalaman dalam pengembangan perangkat lunak, pengembangan web, dan strategi konten. Ia mengkhususkan diri dalam menciptakan konten berkualitas tinggi yang menarik dan menghasilkan konversi serta membangun loyalitas merek. Ia memiliki passion untuk menciptakan cerita yang menarik dan menginformasikan audiens, dan ia selalu mencari cara baru untuk melibatkan pengguna.