Kecerdasan buatan
Pakar Keamanan Siber Melindungi dari Serangan Siber AI

Tidak semua orang dengan niat baik akan menggunakan kelebihan kecerdasan buatan. Keamanan siber tentu saja salah satu bidang di mana baik mereka yang mencoba melindungi sistem siber tertentu maupun mereka yang mencoba menyerangnya menggunakan teknologi paling canggih.
Dalam analisis subjek, World Economic Forum (WEF) mengutip contoh ketika pada Maret 2019, “ CEO dari sebuah perusahaan energi besar menyetujui transfer darurat sebesar €220.000 ke apa yang dia percayai sebagai akun dari sebuah pemasok baru Eropa Timur setelah menerima panggilan yang dia percayai sebagai panggilan dari CEO perusahaan induknya. Dalam beberapa jam, uang tersebut telah dipindahkan melalui jaringan akun di Amerika Latin ke tersangka kriminal yang telah menggunakan kecerdasan buatan (AI) untuk meniru suara CEO dengan meyakinkan.” Bagi mereka, Forbes mengutip contoh ketika “dua rumah sakit di Ohio dan West Virginia menolak pasien karena serangan ransomwareyang menyebabkan kegagalan sistem. Rumah sakit tidak dapat memproses permintaan pasien darurat. Oleh karena itu, mereka mengirim pasien yang datang ke rumah sakit terdekat.”
Ancaman keamanan siber ini tentu saja alasan mengapa Equifax dan World Economic Forum mengadakan Future Series: Cybercrime 2025. Ahli keamanan siber global dari akademisi, pemerintah, penegak hukum, dan sektor swasta akan bertemu di Atlanta, Georgia untuk meninjau kemampuan AI yang dapat mereka berikan dalam bidang keamanan siber. Juga, Capgemini Research Institute mengeluarkan laporan yang menyimpulkan bahwa membangun pertahanan keamanan siber dengan AI sangat penting bagi hampir semua organisasi.
Dalam analisis mereka, WEF, menunjukkan empat tantangan dalam mencegah penggunaan AI dalam kejahatan siber. Yang pertama adalah peningkatan kesulitan serangan – volume serangan akan meningkat, dan “teknologi yang ditenagai AI juga dapat meningkatkan kemampuan penyerang untuk mempertahankan anonimitas dan jarak dari korban dalam lingkungan di mana atribusi dan penyelidikan kejahatan sudah menantang.”
Yang kedua adalah asimetri dalam tujuan – sedangkan pembela harus memiliki tingkat keberhasilan 100%, penyerang hanya perlu berhasil sekali. “Sementara AI dan otomatisasi mengurangi variabilitas dan biaya, meningkatkan skala dan membatasi kesalahan, penyerang juga dapat menggunakan AI untuk mengubah keseimbangan.”
Yang ketiga adalah fakta bahwa karena “organisasi terus tumbuh, sehingga ukuran dan kompleksitas teknologi dan data mereka juga meningkat, yang berarti penyerang memiliki lebih banyak permukaan untuk dieksplorasi dan dieksploitasi. Untuk tetap mendahului penyerang, organisasi dapat mengirim teknologi canggih seperti AI dan otomatisasi untuk membantu menciptakan ‘titik leher botol’ yang dapat dipertahankan daripada menyebarkan upaya secara merata di seluruh lingkungan.”
Yang keempat adalah mencapai keseimbangan yang tepat antara risiko yang mungkin dan “pemberdayaan operasional” dari pembela. WEF berpendapat bahwa “tim keamanan dapat menggunakan pendekatan berbasis risiko, dengan mengatur proses tata kelola dan ambang batas materialitas, menginformasikan pemimpin operasional tentang postur keamanan siber mereka, dan mengidentifikasi inisiatif untuk terus meningkatkannya.” Melalui program Future Series: Cybercrime 2025, WEF, dan mitranya berusaha “untuk mengidentifikasi tindakan efektif yang diperlukan untuk memitigasi dan mengatasi risiko ini.”
Bagi mereka, Forbes telah mengidentifikasi empat langkah penggunaan langsung AI dalam keamanan siber yang disiapkan oleh kontributor mereka Naveen Joshi dan disajikan dalam grafik berikut:

Dalam hal apapun, sudah pasti bahwa baik pembela maupun penyerang dalam bidang keamanan siber akan terus mengembangkan penggunaan kecerdasan buatan mereka karena teknologi itu sendiri mencapai tahap kompleksitas baru.












