Connect with us

Kecerdasan buatan

Ahli AI Menilai Deepfakes dan 19 Kejahatan Berbasis AI Lainnya Berdasarkan Tingkat Bahaya

mm

Laporan baru yang diterbitkan oleh University College London bertujuan untuk mengidentifikasi berbagai cara bahwa AI dapat membantu penjahat dalam 15 tahun mendatang. Laporan tersebut memiliki 31 ahli AI yang mengambil 20 metode berbeda untuk menggunakan AI untuk melakukan kejahatan dan menilai metode-metode tersebut berdasarkan faktor-faktor yang berbeda. Ahli AI menilai kejahatan tersebut berdasarkan variabel seperti seberapa mudah kejahatan dapat dilakukan, kerusakan sosial yang dapat dilakukan, jumlah uang yang dapat diperoleh penjahat, dan seberapa sulit kejahatan dapat dihentikan. Menurut hasil laporan, Deepfakes merupakan ancaman terbesar bagi warga yang taat hukum dan masyarakat umum, karena potensi eksploitasi oleh penjahat dan teroris sangat tinggi.

Ahli AI menilai deepfakes di atas daftar ancaman AI potensial karena deepfakes sulit diidentifikasi dan dilawan. Deepfakes terus membaik dalam menipu bahkan mata ahli deepfakes dan metode deteksi deepfakes berbasis AI lainnya sering tidak dapat diandalkan. Dalam hal kapasitas kerusakan, deepfakes dapat dengan mudah digunakan oleh aktor jahat untuk merusak reputasi tokoh terpercaya atau mencoba menipu orang dengan berpura-pura sebagai orang yang dipercaya atau individu lain yang dipercaya. Jika deepfakes melimpah, orang bisa mulai kehilangan kepercayaan pada media audio atau video, yang dapat membuat mereka kehilangan kepercayaan pada validitas peristiwa dan fakta yang sebenarnya.

Dr. Matthew Caldwell, dari UCL Computer Science, adalah penulis pertama dalam makalah tersebut. Caldwell menekankan bahaya deepfakes yang semakin meningkat karena lebih banyak aktivitas kita yang dilakukan secara online. Seperti yang dikutip oleh UCL News:

“Tidak seperti banyak kejahatan tradisional, kejahatan di ranah digital dapat dengan mudah dibagikan, diulang, dan bahkan dijual, sehingga teknik kejahatan dapat dipasarkan dan kejahatan dapat disediakan sebagai layanan. Ini berarti penjahat mungkin dapat mengoutsourcing aspek yang lebih menantang dari kejahatan berbasis AI mereka.”

Tim ahli menilai lima teknologi AI yang muncul sebagai katalis potensial untuk kejahatan baru yang sangat mengkhawatirkan: kendaraan tanpa pengemudi yang digunakan sebagai senjata, serangan peretasan pada sistem dan perangkat yang dikendalikan AI, pengumpulan data online untuk tujuan pemerasan, phishing berbasis AI dengan pesan yang disesuaikan, dan berita palsu/misinformasi pada umumnya.

Menurut Shane Johnson, Direktur Dawes Centre for Future Crimes di UCL, tujuan studi ini adalah untuk mengidentifikasi ancaman potensial yang terkait dengan teknologi yang muncul dan menghipotesiskan cara untuk mendahuluinya. Johnson mengatakan bahwa karena kecepatan perubahan teknologi meningkat, sangat penting bahwa “kita antisipasi ancaman kejahatan di masa depan sehingga pembuat kebijakan dan pemangku kepentingan lainnya dengan kompetensi untuk bertindak dapat melakukannya sebelum terjadinya ‘panen kejahatan’ baru”.

Mengenai empat belas kejahatan lainnya yang mungkin terjadi, mereka dikelompokkan ke dalam dua kategori: kekhawatiran sedang dan kekhawatiran rendah.

Kejahatan AI yang menimbulkan kekhawatiran sedang termasuk penyalahgunaan robot militer, pencemaran data, serangan drone otomatis, serangan siber berbasis pembelajaran, serangan penolakan layanan untuk aktivitas online, manipulasi pasar keuangan/saham, penjualan jasa palsu yang diselimuti istilah AI/ML, dan penipuan pengenalan wajah.

Kejahatan AI yang menimbulkan kekhawatiran rendah termasuk pemalsuan karya seni atau musik, penguntitan yang dibantu AI, ulasan palsu yang ditulis oleh AI, penghindaran metode deteksi AI, dan “burglar bots” (bot yang memecahkan rumah orang untuk mencuri barang).

Tentu saja, model AI itu sendiri dapat digunakan untuk membantu melawan beberapa kejahatan ini. Baru-baru ini, model AI telah diterapkan untuk membantu dalam pendeteksian skema pencucian uang, mendeteksi transaksi keuangan yang mencurigakan. Hasilnya dianalisis oleh operator manusia yang kemudian menyetujui atau menolak peringatan, dan umpan balik digunakan untuk melatih model lebih baik. Sepertinya, masa depan akan melibatkan AI yang saling berhadapan, dengan penjahat yang mencoba merancang alat AI yang terbaik dan keamanan, penegak hukum, dan perancang AI etis yang mencoba merancang sistem AI terbaik mereka sendiri.

Blogger dan programmer dengan spesialisasi di Machine Learning dan Deep Learning topik. Daniel berharap untuk membantu orang lain menggunakan kekuatan AI untuk kebaikan sosial.