Connect with us

Keamanan siber

Apakah Bisnis Siap Menghadapi Gelombang Berikutnya dari Serangan Cyber yang Ditenagai AI?

mm

Menganalisis tren saat ini memungkinkan ahli untuk memprediksi bagaimana penjahat cyber akan menggunakan kecerdasan buatan di masa depan. Dengan informasi ini, mereka dapat mengidentifikasi ancaman terbesar yang muncul dan menentukan apakah bisnis sudah siap. Mereka bahkan mungkin dapat menemukan solusi. 

Keadaan Ancaman AI dalam Beberapa Tahun Terakhir

Meskipun teknologi AI relatif baru, sudah menjadi alat yang populer bagi peretas. Tren ini menunjukkan bahwa serangan cyber AI meningkat. 

1. Pemalsuan Model

Dengan menargetkan model bahasa besar (LLM) secara langsung, aktor ancaman dapat memanipulasi perilaku model, mengurangi akurasi output atau mengungkapkan data pelatihan yang dapat diidentifikasi secara pribadi. Pencemaran data dan teknik rekayasa prompt adalah serangan yang umum. 

Beberapa serangan dipimpin oleh aktor ancaman yang mencari untuk menyebabkan kekacauan atau mencuri informasi sensitif. Yang lain dikelola oleh seniman yang kecewa yang ingin melindungi karya seni mereka dari pengambilan AI. Dengan cara apa pun, perusahaan dan pengguna akhirnya terkena dampak.  

2. Serangan Pemalsuan

Pada 2024, seorang eksekutif Ferrari menerima beberapa pesan WhatsApp dari CEO, Benedetto Vigna. Vigna berbicara tentang akuisisi yang akan datang dan mendesak karyawannya untuk menandatangani perjanjian kerahasiaan. Dia bahkan menelepon untuk membahas pendanaan. Ada satu masalah — itu bukan dia.

Deepfake hampir sempurna, meniru aksen Italia Selatan Vigna dengan sangat baik. Namun, inkonsistensi kecil dalam suara memperingatkan eksekutif tentang penipuan. Karyawan itu bertanya tentang judul buku yang Vigna sarankan beberapa hari sebelumnya, pertanyaan yang hanya CEO yang sebenarnya tahu jawabannya. Penipu segera menggantungkan telepon. 

AI dapat mengkloning suara seseorang, perilaku browsing, gaya penulisan, dan kesamaan. Ketika teknologi ini berkembang, mengidentifikasi deepfake menjadi semakin sulit. Penipu sering memasukkan target dalam situasi yang mendesak untuk mencegah mereka mempertanyakan inkonsistensi kecil. 

3. Pemalsuan AI

Di masa lalu, seseorang dapat mengidentifikasi email pemalsuan dengan mencari tata bahasa yang buruk, tautan mencurigakan, salam generik, dan permintaan yang tidak pada tempatnya. Sekarang, dengan teknologi pemrosesan bahasa alami, peretas dapat membuat pesan yang dapat dipercaya dengan tata bahasa yang sempurna.

Peneliti menemukan bahwa email pemalsuan berbasis AI yang sepenuhnya otomatis memiliki tingkat klik 54%, yang setara dengan email pemalsuan yang ditulis oleh manusia. Karena penipuan ini lebih meyakinkan, mereka menjadi semakin umum. Studi telah menemukan bahwa lebih dari 80% email pemalsuan menunjukkan bukti keterlibatan AI. 

4. Teknik Sosial

Teknik sosial melibatkan memanipulasi seseorang untuk mengambil tindakan atau mengungkapkan informasi. AI memungkinkan peretas untuk merespons lebih cepat dan membuat pesan yang lebih meyakinkan. Setiap model pemrosesan bahasa alami dapat melakukan analisis semantik untuk mengidentifikasi keadaan emosional penerima, membuat mereka lebih mungkin untuk menyerah. 

Selain meningkatkan teknik teknik sosial, teknologi pembelajaran mesin menurunkan hambatan tradisional, memungkinkan pemula untuk meluncurkan kampanye yang canggih. Jika siapa saja dapat menjadi penjahat cyber, siapa saja dapat menjadi target. 

Gelombang Berikutnya dari Serangan Data yang Ditenagai AI

Pada awal 2026, serangan AI diperkirakan akan tetap pada tingkat kematangan yang rendah. Namun, mereka akan berkembang secara eksponensial seiring berjalannya tahun, memungkinkan penjahat cyber untuk memasuki tahap optimisasi, penerapan, dan penskalaan. Mereka segera akan dapat meluncurkan kampanye yang sepenuhnya otomatis. Contoh serangan cyber AI yang dikonfirmasi tidak akan langka untuk waktu yang lama. 

Malware polimorfik adalah virus AI yang dapat mengubah kode setiap kali bereplikasi untuk menghindari deteksi. Penyerang dapat mengirimkan payload melalui ekosistem AI, memanggil LLM pada saat runtime untuk menghasilkan perintah atau langsung menyematkan virus ke LLM. Google Threat Intelligence Group menemukan bahwa penyerang menerapkan malware ini untuk pertama kalinya pada 2025.  

Keluarga malware adalah PROMPTFLUX dan PROMPTSTEAL. Selama eksekusi, mereka menggunakan LLM untuk meminta teknik pengacakan dan penghindaran VBScript. Mereka menghindari deteksi berbasis tanda tangan dengan mengacaukan kode mereka sendiri sesuai permintaan. 

Bukti menunjukkan bahwa ancaman ini masih dalam tahap pengujian — beberapa fitur yang belum lengkap dikomentari, dan panggilan pemrograman aplikasi terbatas. Keluarga malware AI yang masih dalam pengembangan ini mungkin masih dalam tahap pengembangan, tetapi keberadaan mereka saja sudah merupakan langkah besar dalam arah teknik serangan otonom dan adaptif. 

Penelitian NYU Tandon menunjukkan bahwa LLM sudah dapat meluncurkan serangan ransomware secara otonom, yang disebut Ransomware 3.0. Mereka dapat melakukan pengintaian, menghasilkan payload, dan mempersonalisasi pemerasan tanpa keterlibatan manusia. Ini hanya memerlukan prompt bahasa alami yang disematkan dalam biner. Model tersebut menghasilkan varian polimorfik yang beradaptasi dengan lingkungan eksekusi dengan menghasilkan kode berbahaya secara dinamis pada saat runtime. 

Apakah Bisnis Siap Menghadapi Serangan AI?

Meskipun miliaran dolar dihabiskan untuk keamanan siber, perusahaan swasta terus berjuang untuk mengikuti lanskap ancaman yang berkembang. Teknologi pembelajaran mesin dapat membuat perangkat lunak deteksi dan respons yang ada menjadi usang, yang lebih mempersulit pertahanan. Tidak membantu bahwa banyak perusahaan gagal memenuhi standar keamanan dasar. 

Laporan Kematangan Keamanan Siber DIB 2024 meng survei 400 profesional teknologi informasi di basis industri pertahanan Amerika Serikat (DIB). Lebih dari setengah dari responden melaporkan bahwa mereka masih jauh dari memenuhi sertifikasi Kematangan Model Keamanan Siber (CMMC) 2.0, meskipun kesetaraan kepatuhan NIST 800-171 telah diuraikan dalam kontrak Departemen Pertahanan (DoD) sejak 2016. Banyak yang menilai postur keamanan mereka jauh lebih baik dari yang sebenarnya. 

Persyaratan CMMC baru mulai berlaku pada 10 November, 2025. Maju, semua kontrak DoD akan memerlukan beberapa tingkat kepatuhan CMMC sebagai syarat pemberian kontrak. Aturan baru ini dimaksudkan untuk memperkuat keamanan siber DIB, tetapi apakah mereka akan efektif di era AI?

Apakah AI Pertahanan Jawabannya?

Bertarung melawan api dengan api mungkin menjadi satu-satunya cara untuk melawan gelombang serangan AI yang tak terhindarkan. Dengan AI pertahanan, organisasi dapat merespons ancaman secara dinamis dalam waktu nyata. Namun, pendekatan ini memiliki kelemahan keamanan tersendiri — mengamankan model dari manipulasi akan memerlukan pengawasan dan audit terus-menerus. 

Menurut Harvard Business Review, solusi konvensional membuat bisnis rentan terhadap serangan cyber AI. Untuk mencapai ketahanan cyber, mereka harus menggunakan teknologi pembelajaran mesin untuk memprediksi dan merespons ancaman secara otomatis. 

Tidak ada jawaban sederhana untuk apakah AI pertahanan adalah solusi untuk masalah ini. Apakah perusahaan harus menginvestasikan sumber daya mereka dalam menerapkan alat pembelajaran mesin yang belum terbukti atau memperluas tim teknologi informasi mereka? Mustahil untuk memprediksi investasi mana yang akan membayar pada jangka panjang. 

Perusahaan besar mungkin melihat pengembalian yang signifikan dengan keamanan siber otomatis, sedangkan bisnis kecil mungkin berjuang untuk membenarkan biaya. Teknologi otomatisasi konvensional mungkin dapat menutup kesenjangan dengan harga yang jauh lebih rendah, tetapi tidak akan dapat merespons ancaman dinamis. 

Steve Durbin, CEO dari Forum Keamanan Informasi, menyatakan bahwa adopsi AI memiliki manfaat besar, tetapi juga memiliki kelemahan besar. Misalnya, bisnis sering mengalami peningkatan peringatan palsu, yang membuang-buang waktu tim keamanan. Selain itu, ketergantungan yang berlebihan pada AI dapat menyebabkan tim menjadi terlalu percaya diri, yang menghasilkan celah keamanan. 

Mengarungi Lanskap Ancaman AI

Mustahil untuk menentukan sejauh mana AI hadir dalam lanskap ancaman, karena penyerang dapat menggunakannya untuk membuat kode berbahaya atau menyusun email pemalsuan, bukan menggunakan saat runtime. Penjahat cyber solo dan kelompok ancaman yang didukung negara bisa menggunakan skala. 

Berdasarkan informasi yang tersedia, pemalsuan model, pemalsuan AI, dan malware polimorfik akan menjadi ancaman cyber terbesar pada 2026. Penjahat cyber kemungkinan akan terus menggunakan LLM untuk menghasilkan, mengirim, dan mengadaptasi payload berbahaya, menargetkan industri bernilai tinggi seperti keuangan serta orang biasa.

Zac Amos adalah penulis teknologi yang fokus pada kecerdasan buatan. Ia juga merupakan Features Editor di ReHack, di mana Anda dapat membaca lebih banyak karyanya.