Terhubung dengan kami

Laporan

Dari Manusia ke Hibrida: Melihat Lebih Dekat Laporan Exabeam 2025 tentang Risiko Internal yang Didorong AI

mm

Exabeam's studi baru, Dari Manusia ke Hibrida: Bagaimana AI dan Kesenjangan Analisis Memicu Risiko Internal memperjelas bahwa ancaman telah berbalik: bahaya terbesar kini datang dari dalam organisasi. Empat angka menonjol—64% profesional keamanan kini memandang orang dalam sebagai risiko utama, 76% melaporkan AI bayangan sudah digunakan, hanya 44% yang memiliki analitik yang berpusat pada perilaku (UEBA), dan 74% yakin para eksekutif meremehkan masalah tersebut. Bersama-sama, keempat faktor ini mendefinisikan lanskap yang dieksplorasi laporan secara detail.

Risiko berbalik ke dalam—dan hal ini mengubah arsitekturnya

Jika ancaman utamanya ada di dalam, "lebih banyak firewall" bukanlah solusinya. Melainkan identitas, akses, dan perilaku. Bayangkan verifikasi berkelanjutan yang sedang melakukan apa, dengan yang data, dan apakah pola tersebut normal. Secara regional, sebagian besar pasar kini memperlakukan orang dalam sebagai perhatian utama; anomali utama adalah APJ (Asia-Pasifik & Jepang), di mana banyak yang masih lebih takut terhadap serangan eksternal. Bagi para pemimpin, penerapan praktisnya adalah mengalihkan pengeluaran ke:

  • Kontrol identitas yang lebih kuat (MFA yang berlaku, akses berbasis risiko, hak istimewa paling sedikit yang benar-benar ditegakkan).
  • Pemantauan yang memperhatikan data di seluruh SaaS, titik akhir, penyimpanan, dan email sehingga pergerakan abnormal dapat terlihat.
  • Analisis perilaku yang mempelajari pola normal per orang, tim, dan sistem—dan memberi peringatan pada penyimpangan yang berarti.

Implikasi organisasi: keamanan dan pemilik data harus bekerja sama. Jika Anda tidak dapat menjawab "siapa yang menyentuh data sensitif apa minggu ini dan apakah itu tipikal mereka?", Anda tidak menyadari jalur pelanggaran modern (akun yang disusupi → penyimpanan data diam-diam → pengekstraksian cepat).

AI telah mengubah definisi “orang dalam”

Bayangan AI adalah bayangan TI yang baru. Staf menempelkan kode, kontrak, daftar pelanggan, atau perintah dengan konteks sensitif ke dalam model yang tidak disetujui. Itulah sebabnya 76% Angka itu penting: artinya ini bukan masalah khusus. Perlakukan GenAI seperti akses istimewa—menyetujui alat tertentu, mencatat penggunaan jika sah, dan mencegah kelas data yang dilindungi (PII yang diatur, rahasia dagang) memasuki model pihak ketiga. Padukan kebijakan dengan pemberdayaan: berikan orang opsi AI yang disetujui agar mereka tidak merasa dipaksa untuk bertindak sewenang-wenang.

Ada juga aktor baru di dalam: Agen AITim menghubungkan agen ke dalam alur kerja dengan kredensial dan kunci API yang sebenarnya. Mereka adalah "orang dalam non-manusia". Mereka tidak lelah, dan jarang mengeluh—sampai mereka merasa bosan. Hal ini membutuhkan dua kontrol yang harus dipahami oleh para eksekutif:

  • Cakupan:setiap agen membutuhkan pemilik, pekerjaan yang jelas, dan izin minimal.
  • Observabilitas:setiap agen berhak mendapatkan jejak audit dan deteksi anomali yang sama seperti yang didapatkan manusia.

UEBA (Analisis Perilaku Pengguna & Entitas) adalah deteksi yang berfokus pada laku, bukan hanya tanda tangan dan eksekutif yang harus memahami hal ini. Hal ini membangun dasar bagi setiap pengguna atau entitas (termasuk bot, akun layanan, dan agen) dengan mempelajari:

  • Norma deret waktu: waktu login umum, volume data, atau tujuan.
  • Konteks kelompok sebaya: bagaimana seorang analis keuangan berperilaku dibandingkan dengan analis keuangan lainnya.
  • Pola urutan: urutan yang tidak biasa (misalnya, login VPN pertama kali → perubahan hak istimewa langsung → pengunduhan massal).
    Ketika aktivitas menyimpang dari pola yang dipelajari, UEBA menilai risiko dan memunculkan outlier. Secara teknis, hal ini bergantung pada statistik dan pembelajaran mesin (metode tanpa pengawasan dan semi-supervised) yang memanfaatkan data log tanpa memerlukan label yang sempurna. Sederhananya: UEBA mengubah tumpukan peristiwa menjadi "apakah ini normal untuk mereka sekarang?"

Tutup kesenjangan analitik—dan kesenjangan budaya

Berikut paparan yang sebenarnya: hanya 44% organisasi menggunakan UEBA meskipun risiko internal kini menjadi masalah utama. Pada saat yang sama, 74% Banyak praktisi mengatakan para pemimpin meremehkan ancaman internal. Kesenjangan budaya tersebut memperlambat perekrutan, penyediaan peralatan, dan kebijakan. Menutup kedua kesenjangan tersebut terlihat seperti ini:

Jadikan perilaku sebagai sinyal kelas satu. Konsolidasikan identitas, titik akhir, admin SaaS, email, dan log pergerakan data sehingga satu orang (atau agen) memiliki satu cerita di seluruh sistem. Investasikan pada korelasi sebelum dasbor. Jika SOC tidak dapat menggabungkan identitas di seluruh perangkat, mereka akan kehilangan penyalahgunaan diam-diam dan eksfiltrasi gerak lambat.

Seimbangkan privasi dengan deteksi—berdasarkan rancangannya. Kendala paling umum dalam program internal adalah resistensi privasi. Atasi hal ini dengan analitik yang dibatasi tujuan, akses berbasis peran ke telemetri, jendela retensi yang jelas, dan dokumentasi transparan tentang apa yang Anda analisis dan alasannya. Jika diterapkan dengan tepat, pembatas privasi memungkinkan deteksi yang lebih kuat karena membuka alur data yang dibutuhkan tim.

Ukur hasil, bukan jumlah alat. Para eksekutif harus meminta tiga angka setiap bulan:

  1. Saatnya untuk mendeteksi perilaku tidak normal
  2. Waktunya untuk menahan insiden orang dalam
  3. Persentase insiden tertangkap oleh analisis perilaku dibandingkan dengan keberuntungan atau audit setelah kejadian.

Sesuaikan anggaran dengan peningkatan metrik tersebut, bukan dengan berapa banyak titik produk yang “diterapkan”.

Perlakukan GenAI seperti sistem produksi. Tetapkan daftar yang diizinkan, kategori data garis merah, dan pencatatan untuk perintah dan keluaran jika sah. Berikan ruang bagi produk dan hukum agar "bergerak cepat" tidak berarti "menyemprotkan data ke kotak hitam".

Baseline untuk semua orang dan semua hal. Setiap orang, akun layanan, skrip RPA, dan agen AI memiliki baseline-nya masing-masing. Anda mencari penyimpangan—data baru yang disentuh, waktu yang tidak biasa, tujuan yang ganjil, atau urutan yang tidak sesuai dengan pekerjaan yang harus diselesaikan.

Ringkasan

Mulai dari Dari Manusia ke Hibrida: Bagaimana AI dan Kesenjangan Analisis Memicu Risiko Internal lebih dari sekadar gambaran risiko saat ini—ini adalah pratinjau arah keamanan selanjutnya. Ancaman internal, yang diperkuat oleh AI, bukan lagi pengecualian, melainkan asumsi dasar. Bagi CISO dan CEO, langkah ke depan berarti beralih dari pertahanan perimeter ke strategi yang berpusat pada identitas, memperlakukan GenAI dengan kehati-hatian yang sama seperti akun istimewa, dan memberikan dasar perilaku mereka sendiri kepada manusia dan agen AI. Organisasi yang berhasil adalah mereka yang menyatukan telemetri, mengadopsi metrik berbasis hasil, dan menyelaraskan kepemimpinan dengan operasional. Dalam hal ini, laporan Exabeam bukan sekadar peringatan, melainkan panduan untuk membangun ketahanan di masa depan yang ditentukan oleh AI.

Antoine adalah pemimpin visioner dan mitra pendiri Unite.AI, yang didorong oleh hasrat yang tak tergoyahkan untuk membentuk dan mempromosikan masa depan AI dan robotika. Sebagai pengusaha serial, ia percaya bahwa AI akan sama disruptifnya terhadap masyarakat seperti listrik, dan sering kali terlihat mengoceh tentang potensi teknologi disruptif dan AGI.

Sebagai futuris, ia berdedikasi untuk mengeksplorasi bagaimana inovasi ini akan membentuk dunia kita. Selain itu, ia adalah pendiri Sekuritas.io, sebuah platform yang berfokus pada investasi dalam teknologi mutakhir yang mendefinisikan kembali masa depan dan membentuk kembali seluruh sektor.