Pemimpin Pikiran
Bahaya AI Chatbots – Dan Cara Mengatasinya

Pernah dianggap hanya sebagai program bicara otomatis, AI chatbot sekarang dapat mempelajari dan mengadakan percakapan yang hampir tidak dapat dibedakan dari manusia. Namun, bahaya AI chatbots juga beragam.
Ini dapat berkisar dari orang yang menyalahgunakannya hingga risiko keamanan siber yang sebenarnya. Karena manusia semakin bergantung pada teknologi AI, mengetahui dampak potensial dari penggunaan program ini sangatlah penting. Tapi apakah bot berbahaya?
1. Bias dan Diskriminasi
Salah satu bahaya terbesar chatbot AI adalah kecenderungan mereka terhadap bias yang berbahaya. Karena AI menghubungkan antara poin data yang sering dilewatkan manusia, AI dapat menangkap bias yang halus dan implisit dalam data pelatihannya untuk mengajarkan dirinya sendiri untuk menjadi diskriminatif. Akibatnya, chatbots dapat dengan cepat belajar memuntahkan konten rasis, seksis, atau diskriminatif, meskipun tidak ada yang ekstrim dalam data pelatihannya.
Contoh utama adalah bot perekrutan Amazon yang dibatalkan. Pada 2018, terungkap bahwa Amazon telah meninggalkan proyek AI dimaksudkan untuk menilai lebih awal resume pelamar karena itu menghukum aplikasi dari perempuan. Karena sebagian besar resume yang dilatih oleh bot adalah laki-laki, itu mengajarkan dirinya sendiri bahwa pelamar laki-laki lebih disukai, bahkan jika data pelatihan tidak secara eksplisit mengatakannya.
Chatbots yang menggunakan konten internet untuk mengajari diri mereka sendiri cara berkomunikasi secara alami cenderung menunjukkan bias yang lebih ekstrem. Pada 2016, Microsoft meluncurkan chatbot bernama Tay yang belajar meniru postingan media sosial. Dalam beberapa jam, itu mulai men-tweet konten yang sangat ofensif, menyebabkan Microsoft untuk menangguhkan akun tidak lama kemudian.
Jika perusahaan tidak berhati-hati saat membuat dan menerapkan bot ini, mereka mungkin secara tidak sengaja mengarah ke situasi serupa. Chatbots dapat menganiaya pelanggan atau menyebarkan konten bias berbahaya yang seharusnya mereka cegah.
2. Risiko Keamanan Siber
Bahaya teknologi chatbot AI juga dapat menimbulkan ancaman keamanan siber yang lebih langsung bagi orang dan bisnis. Salah satu bentuk serangan dunia maya yang paling produktif adalah penipuan phishing dan vishing. Ini melibatkan penyerang dunia maya meniru organisasi tepercaya seperti bank atau badan pemerintah.
Penipuan phishing biasanya beroperasi melalui email dan pesan teks — mengeklik tautan memungkinkan malware untuk memasuki sistem komputer. Begitu masuk, virus dapat melakukan apa saja mulai dari mencuri informasi pribadi hingga menahan sistem untuk mendapatkan uang tebusan.
Tingkat serangan phishing terus meningkat selama dan setelah pandemi COVID-19. Badan Keamanan Cybersecurity & Infrastruktur ditemukan 84% individu membalas pesan phishing dengan informasi sensitif atau mengklik tautan.
Phisher menggunakan teknologi AI chatbot untuk mengotomatiskan pencarian korban, meyakinkan mereka untuk mengklik tautan dan memberikan informasi pribadi. Chatbots digunakan oleh banyak lembaga keuangan — seperti bank — untuk merampingkan pengalaman layanan pelanggan.
Phisher chatbots dapat meniru perintah otomatis yang sama yang digunakan bank untuk mengelabui korban. Mereka juga dapat menghubungi nomor telepon secara otomatis atau menghubungi korban secara langsung di platform obrolan interaktif.
3. Keracunan Data
Keracunan data adalah serangan dunia maya baru yang secara langsung menargetkan kecerdasan buatan. Teknologi AI belajar dari kumpulan data dan menggunakan informasi tersebut untuk menyelesaikan tugas. Ini berlaku untuk semua program AI, apa pun tujuan atau fungsinya.
Untuk AI chatbot, ini berarti mempelajari beberapa respons terhadap kemungkinan pertanyaan yang dapat diberikan pengguna kepada mereka. Namun, ini juga salah satu bahaya AI.
Kumpulan data ini seringkali merupakan alat dan sumber sumber terbuka yang tersedia bagi siapa saja. Meskipun perusahaan AI biasanya menjaga kerahasiaan sumber data mereka, penyerang dunia maya dapat menentukan mana yang mereka gunakan dan memanipulasi data.
Penyerang dunia maya dapat menemukan cara untuk melakukannya mengutak-atik kumpulan data digunakan untuk melatih AI, memungkinkan mereka untuk memanipulasi keputusan dan tanggapan mereka. AI akan menggunakan informasi dari data yang diubah dan melakukan tindakan yang diinginkan penyerang.
Misalnya, salah satu sumber yang paling sering digunakan untuk kumpulan data adalah sumber daya Wiki seperti Wikipedia. Meskipun data tersebut tidak berasal dari artikel Wikipedia langsung, data tersebut berasal dari cuplikan data yang diambil pada waktu tertentu. Peretas dapat menemukan cara untuk mengedit data agar menguntungkan mereka.
Dalam kasus chatbot AI, peretas dapat merusak kumpulan data yang digunakan untuk melatih chatbot yang berfungsi untuk institusi medis atau keuangan. Mereka dapat memanipulasi program chatbot untuk memberikan informasi palsu kepada pelanggan yang dapat mengarahkan mereka untuk mengklik tautan yang berisi malware atau situs web palsu. Begitu AI mulai menarik data yang diracuni, sulit untuk dideteksi dan dapat menyebabkan pelanggaran signifikan dalam keamanan siber yang tidak diketahui untuk waktu yang lama.
Cara Mengatasi Bahaya AI Chatbots
Risiko ini memprihatinkan, tetapi bukan berarti bot pada dasarnya berbahaya. Sebaliknya, Anda harus mendekati mereka dengan hati-hati dan mempertimbangkan bahaya ini saat membuat dan menggunakan chatbot.
Kunci untuk mencegah bias AI adalah mencarinya selama pelatihan. Pastikan untuk melatihnya pada kumpulan data yang beragam dan secara khusus memprogramnya untuk menghindari faktor faktor seperti ras, jenis kelamin, atau orientasi seksual dalam pengambilan keputusannya. Sebaiknya juga memiliki tim ilmuwan data yang beragam untuk meninjau cara kerja chatbots dan memastikan mereka tidak menunjukkan bias, betapapun halusnya.
Pertahanan terbaik melawan phishing adalah pelatihan. Latih semua karyawan untuk melihat tanda-tanda umum upaya phishing sehingga mereka tidak jatuh untuk serangan ini. Menyebarkan kesadaran konsumen seputar masalah ini juga akan membantu.
Anda dapat mencegah keracunan data dengan membatasi akses ke data pelatihan chatbots. Hanya orang yang membutuhkan akses ke data ini untuk melakukan pekerjaannya dengan benar yang harus memiliki otorisasi — sebuah konsep yang disebut prinsip hak istimewa terkecil. Setelah menerapkan pembatasan tersebut, gunakan langkah verifikasi yang kuat seperti autentikasi multifaktor atau biometrik untuk mencegah risiko peretasan penjahat dunia maya ke akun resmi.
Tetap Waspada Terhadap Bahaya Ketergantungan AI
Kecerdasan buatan adalah teknologi yang sungguh menakjubkan dengan aplikasi yang hampir tak terbatas. Namun, bahaya AI mungkin masih samar. Apakah bot berbahaya? Tidak secara inheren, tetapi penjahat siber dapat menggunakannya dengan berbagai cara yang mengganggu. Terserah pengguna untuk memutuskan apa saja aplikasi dari teknologi baru ini.