Connect with us

Kecerdasan buatan

AI Palsu: Menyalahgunakan Model Generatif dalam Skema Kriminal

mm
Discover how generative AI, including models like GPT-3 and DALL-E, is being exploited by cybercriminals for phishing, frauds, and deepfakes

Generative AI, sebuah subset dari Artificial Intelligence, telah dengan cepat mendapatkan ketenaran karena kemampuan luar biasa untuk menghasilkan berbagai bentuk konten, termasuk teks yang mirip dengan manusia, gambar realistis, dan audio, dari dataset yang luas. Model seperti GPT-3, DALL-E, dan Generative Adversarial Networks (GANs) telah menunjukkan kemampuan luar biasa dalam hal ini.

Sebuah laporan Deloitte menyoroti sifat ganda dari Generative AI dan menekankan kebutuhan untuk waspada terhadap AI Palsu. Sementara kemajuan AI membantu dalam pencegahan kejahatan, mereka juga memberdayakan aktor jahat. Meskipun aplikasi yang sah, alat-alat kuat ini semakin dieksploitasi oleh penjahat cyber, penipu, dan aktor yang terkait dengan negara, yang menyebabkan lonjakan dalam skema yang kompleks dan menipu.

Munculnya Generative AI dalam Kegiatan Kriminal

Munculnya Generative AI telah menyebabkan peningkatan dalam kegiatan penipuan yang memengaruhi baik ruang cyber maupun kehidupan sehari-hari. Phishing, sebuah teknik untuk menipu individu agar mengungkapkan informasi sensitif, sekarang menggunakan Generative AI untuk membuat email phishing sangat meyakinkan. Ketika ChatGPT menjadi lebih populer, email phishing telah meningkat, dengan penjahat menggunakan itu untuk membuat pesan yang dipersonalisasi yang terlihat seperti komunikasi yang sah.

Email tersebut, seperti peringatan bank palsu atau penawaran yang menggoda, memanfaatkan psikologi manusia untuk menipu penerima agar memberikan data sensitif. Meskipun OpenAI melarang penggunaan ilegal dari modelnya, mengenakan ini tidaklah mudah. Prompt yang tidak berbahaya dapat dengan mudah berubah menjadi skema jahat, memerlukan baik reviewer manusia maupun sistem otomatis untuk mendeteksi dan mencegah penyalahgunaan.

Demikian pula, penipuan keuangan juga telah meningkat dengan kemajuan AI. Generative AI membantu skema penipuan, membuat konten yang menipu investor dan memanipulasi sentimen pasar. Bayangkan bertemu dengan chatbot, yang tampaknya manusia tetapi dirancang hanya untuk penipuan. Generative AI memberdayakan bot ini, terlibat dalam percakapan yang tampaknya asli dengan pengguna sambil mengumpulkan informasi sensitif. Model generatif juga meningkatkan serangan rekayasa sosial dengan membuat pesan yang dipersonalisasi yang mengeksploitasi kepercayaan, empati, dan urgensi. Korban jatuh ke dalam perangkap permintaan uang, data rahasia, atau kredensial akses.

Doxxing, yang melibatkan mengungkapkan informasi pribadi tentang individu, adalah salah satu area di mana Generative AI membantu penjahat. Apakah itu mengungkapkan persona online anonim atau mengungkapkan detail pribadi, AI memperkuat dampak, menyebabkan konsekuensi dunia nyata seperti pencurian identitas dan pelecehan.

Dan kemudian ada deepfakes, video, klip audio, atau gambar yang dihasilkan AI yang sangat mirip dengan aslinya. Ini membingungkan kenyataan, menyajikan risiko dari manipulasi politik hingga pembunuhan karakter.

Insiden Deepfake yang Terkenal dengan Dampak Kritis

Penyalahgunaan Generative AI telah menyebabkan serangkaian insiden yang tidak biasa, menyoroti risiko dan tantangan yang mendalam yang ditimbulkan oleh teknologi ini ketika jatuh ke tangan yang salah. Teknologi deepfake, khususnya, membingungkan garis antara kenyataan dan fiksi. Hasil dari gabungan GANs dan kejahatan kreatif, deepfakes menggabungkan elemen nyata dan fabrikasi. GANs terdiri dari dua jaringan neural: generator dan discriminator. Generator membuat konten yang semakin realistis, seperti wajah, sementara discriminator mencoba untuk mendeteksi palsu.

Insiden yang terkenal yang melibatkan deepfakes telah terjadi. Misalnya, Dessa menggunakan model AI untuk membuat clone suara yang meyakinkan dari Joe Rogan, menunjukkan kemampuan AI untuk menghasilkan suara palsu yang realistis. Deepfakes juga telah secara signifikan memengaruhi politik, seperti yang terlihat dalam berbagai contoh. Misalnya, robocall yang meniru Presiden AS Joe Biden menipu pemilih New Hampshire, sementara rekaman audio yang dihasilkan AI di Slovakia meniru kandidat liberal untuk memengaruhi hasil pemilihan. Beberapa insiden serupa telah dilaporkan yang memengaruhi politik banyak negara.

Penipuan keuangan juga telah menggunakan deepfakes. Sebuah perusahaan teknik Inggris bernama Arup menjadi korban penipuan deepfake sebesar £20 juta, di mana seorang pekerja keuangan ditipu untuk mentransfer dana selama panggilan video dengan penipu yang menggunakan suara dan gambar yang dihasilkan AI untuk meniru eksekutif perusahaan. Ini menyoroti potensi AI untuk penipuan keuangan.

Penjahat cyber telah semakin mengeksploitasi alat Generative AI seperti WormGPT dan FraudGPT untuk meningkatkan serangan mereka, menciptakan ancaman keamanan siber yang signifikan. WormGPT, yang berbasis pada model GPT-J, memfasilitasi kegiatan jahat tanpa batasan etika. Peneliti dari SlashNext menggunakan itu untuk membuat email tagihan penipuan yang sangat persuasif. FraudGPT, yang beredar di Saluran Telegram, dirancang untuk serangan yang kompleks dan dapat menghasilkan kode berbahaya, membuat halaman phishing yang meyakinkan, dan mengidentifikasi kerentanan sistem. Munculnya alat-alat ini menyoroti peningkatan kesophistikasian ancaman cyber dan kebutuhan mendesak untuk langkah keamanan yang ditingkatkan.

Implikasi Hukum dan Etika

Implikasi hukum dan etika dari penipuan yang didorong AI menyajikan tugas yang sangat menantang di tengah kemajuan pesat dalam model generatif. Saat ini, AI beroperasi dalam zona abu-abu regulasi, dengan pembuat kebijakan yang memerlukan bantuan untuk mengikuti perkembangan teknologi. Kerangka kerja yang kuat sangat dibutuhkan untuk membatasi penyalahgunaan dan melindungi masyarakat dari skema dan kegiatan penipuan yang didorong AI.

Selain itu, pembuat AI memiliki tanggung jawab etika. Transparansi, pengungkapan, dan kepatuhan terhadap pedoman adalah aspek penting dari pengembangan AI yang bertanggung jawab. Pengembang harus memprediksi penyalahgunaan potensial dan merancang langkah-langkah untuk model AI mereka untuk memitigasi risiko secara efektif.

Memelihara keseimbangan antara inovasi dan keamanan sangat penting dalam mengatasi tantangan yang ditimbulkan oleh penipuan yang didorong AI. Pengaturan yang terlalu ketat dapat menghambat kemajuan, sementara pengawasan yang longgar mengundang kekacauan. Oleh karena itu, peraturan yang mempromosikan inovasi tanpa mengorbankan keamanan sangat penting untuk pengembangan yang berkelanjutan.

Selain itu, model AI harus dirancang dengan mempertimbangkan keamanan dan etika. Mengintegrasikan fitur seperti deteksi bias, pengujian ketahanan, dan pelatihan lawan dapat meningkatkan ketahanan terhadap eksploitasi jahat. Ini sangat penting mengingat peningkatan kesophistikasian skema penipuan yang didorong AI, menekankan kebutuhan akan penglihatan etika dan keluwesan regulasi untuk melindungi terhadap potensi penipuan model generatif AI.

Strategi Mitigasi

Strategi mitigasi untuk mengatasi penyalahgunaan model generatif AI yang menipu memerlukan pendekatan multi-faset yang melibatkan langkah keamanan yang ditingkatkan dan kolaborasi di antara pemangku kepentingan. Organisasi harus menggunakan reviewer manusia untuk menilai konten yang dihasilkan AI, menggunakan keahlian mereka untuk mengidentifikasi pola penyalahgunaan dan memperbaiki model. Sistem otomatis yang dilengkapi dengan algoritma canggih dapat memindai bendera merah yang terkait dengan skema, kegiatan jahat, atau informasi yang salah, berfungsi sebagai sistem peringatan dini terhadap tindakan penipuan.

Selain itu, kolaborasi antara perusahaan teknologi, lembaga penegak hukum, dan pembuat kebijakan sangat penting dalam mendeteksi dan mencegah penipuan yang didorong AI. Perusahaan teknologi raksasa harus berbagi wawasan, praktik terbaik, dan intelijen ancaman, sementara lembaga penegak hukum bekerja sama dengan ahli AI untuk tetap mendahului penjahat. Pembuat kebijakan perlu berinteraksi dengan perusahaan teknologi, peneliti, dan masyarakat sipil untuk menciptakan peraturan yang efektif, menekankan pentingnya kerja sama internasional dalam melawan penipuan yang didorong AI.

Menghadap ke depan, masa depan Generative AI dan pencegahan kejahatan ditandai oleh baik tantangan maupun peluang. Ketika Generative AI berkembang, taktik kriminal juga akan berkembang, dengan kemajuan dalam quantum AI, komputasi edge, dan model terdesentralisasi yang membentuk lapangan. Oleh karena itu, pendidikan tentang pengembangan AI etis menjadi semakin mendasar, dengan sekolah dan universitas didorong untuk membuat kursus etika wajib bagi praktisi AI.

Kesimpulan

Generative AI menyajikan baik manfaat besar maupun risiko signifikan, menyoroti kebutuhan mendesak untuk kerangka regulasi yang kuat dan pengembangan AI etis. Ketika penjahat cyber mengeksploitasi alat canggih, strategi mitigasi yang efektif, seperti pengawasan manusia, algoritma deteksi canggih, dan kerja sama internasional, sangat penting.

Dengan memelihara keseimbangan antara inovasi dan keamanan, mempromosikan transparansi, dan merancang model AI dengan fitur keamanan bawaan, kita dapat secara efektif melawan ancaman penipuan yang didorong AI yang semakin meningkat dan memastikan lingkungan teknologi yang lebih aman untuk masa depan.

Dr. Assad Abbas, seorang Associate Professor Tetap di COMSATS University Islamabad, Pakistan, memperoleh gelar Ph.D. dari North Dakota State University, USA. Penelitiannya berfokus pada teknologi canggih, termasuk cloud, fog, dan edge computing, big data analytics, dan AI. Dr. Abbas telah membuat kontribusi yang signifikan dengan publikasi di jurnal ilmiah dan konferensi yang terkemuka. Ia juga merupakan pendiri dari MyFastingBuddy.