Pemimpin pemikiran
Hutan AI Bayangan: Mengapa Menyetujui Platform Bukanlah Hal yang Sama dengan Mengamankan Apa yang Dibangun di Atasnya

Adopsi AI perusahaan jauh dari tanpa gesekan. Kekhawatiran tentang kontrol data, kepatuhan peraturan, dan keamanan telah mengikuti setiap tahap perjalanan. Namun, ketika organisasi meningkatkan operasional mereka di platform besar seperti Microsoft, Salesforce, dan ServiceNow, ada kesadaran yang tumbuh bahwa pertanyaan tata kelola paling sulit, setidaknya sebagian, sedang diatasi. Perjanjian perusahaan telah ditandatangani. Tinjauan keamanan telah selesai. Platform telah disetujui.
Apa yang kepercayaan itu cenderung mengabaikan adalah pertanyaan yang berbeda sama sekali: bukan apakah platform itu aman, tetapi apa, dan siapa, yang sedang dibangun.
Di seluruh industri, revolusi sunyi sedang berlangsung karena karyawan non-teknis menggunakan platform AI perusahaan untuk membuat agen otonom, alur kerja otomatis, dan aplikasi terhubung data, seringkali dalam hitungan menit, tanpa menulis satu baris kode. Bebas dari timeline pengembangan tradisional dan pembatasan, para pembangun ini merupakan kemajuan bagi efisiensi organisasi. Namun, alat-alat ini tidak pernah ditinjau oleh tim keamanan. Dalam banyak kasus, tim keamanan tidak tahu mereka ada.
Alat-alat ini, apakah diklasifikasikan sebagai aplikasi, agen, atau otomatisasi, merupakan bagian dari masalah yang tumbuh yang dikenal sebagai Shadow AI, dan itu mewakili salah satu pergeseran terbesar dalam risiko perusahaan dalam satu dekade, karena ancaman telah pindah ke dalam.
Masalah Shadow IT asli relatif sederhana: karyawan menggunakan alat tidak sah dari luar organisasi, dan tugas keamanan adalah menemukan dan memblokirnya. Shadow AI adalah tantangan yang berbeda sama sekali. Alat-alat itu ada di dalam platform yang Anda setujui. Orang-orang yang membangunnya adalah karyawan Anda sendiri. Akses yang mereka gunakan sah. Dan tidak ada yang melewati proses keamanan yang dirancang untuk menangkap masalah sebelum mereka mencapai produksi.
Apa yang membuat ini khusus sulit untuk diatasi adalah skala. Kebanyakan pemimpin keamanan sangat meremehkan seberapa banyak yang sedang dibangun di dalam lingkungan mereka. Penelitian terbaru dari lebih dari 200 CISO dan pemimpin keamanan perusahaan menemukan bahwa tim keamanan rata-rata perusahaan hanya dapat menghitung 44% dari agen AI, otomatisasi, dan aplikasi yang dibuat oleh pengguna bisnis mereka. Itu bukanlah celah. Itu adalah titik buta yang menutupi sebagian besar dari apa yang sedang berjalan.
Alasannya sederhana: pengguna bisnis sekarang melebihi pengembang profesional dengan perbandingan 10 banding 1 di beberapa organisasi. Mereka terus-menerus membangun di seluruh departemen, di platform yang dirancang untuk membuat pembangunan mudah, dan kemudian didorong oleh C-suite untuk membangun. Tim keamanan berorientasi pada pipa pengembangan dan repositori kode. Mereka tidak pernah dirancang untuk memantau ini.
Kesalahpahaman paling umum adalah keyakinan bahwa menyetujui platform menyelesaikan masalah keamanan. Itu tidak, itu hanya memindahkannya. Ketika perusahaan menandatangani perjanjian dengan Microsoft, Salesforce, atau UiPath, penyedia platform mengamankan infrastruktur mereka. Apa yang dibangun oleh karyawan di atasnya, dan bagaimana mereka mengkonfigurasinya, adalah tanggung jawab perusahaan sepenuhnya.
Masalahnya adalah alat yang dibuat oleh pengguna bisnis tidak terlihat seperti perangkat lunak bagi sistem keamanan tradisional. Tidak ada kode untuk dipindai, tidak ada repositori untuk dipantau, tidak ada pipa untuk diperiksa. Agen AI yang dibangun oleh manajer HR melalui serangkaian menu dan prompt teks adalah, dari perspektif sebagian besar alat keamanan, tidak terlihat.
Dan yet alat-alat ini jauh dari sepele. Penelitian telah menemukan bahwa lebih dari setengah CISO mengkonfirmasi bahwa aplikasi yang dibangun oleh bisnis sekarang mendukung proses bisnis kritis dan memiliki akses ke data perusahaan yang sensitif. Taruhan nyata, dan pengawasan belum mengejar.
Dari Nol ke Bencana
Kasus penggunaan sangat beragam dan berasal dari hampir setiap departemen, bahkan mereka yang tidak pernah terjadi pada tim keamanan untuk memperhatikannya.
Misalnya, koordinator pemasaran membangun agen AI yang menghadap pelanggan di platform yang sepenuhnya disetujui untuk menjawab pertanyaan produk. Dalam beberapa menit, aplikasi sudah berjalan, tetapi sebagai seseorang yang tidak memiliki pelatihan keamanan, dua kesalahan konfigurasi kecil tidak terdeteksi dan meninggalkan agen dengan akses langsung ke database perusahaan seluruhnya dan tidak ada batasan pada apa yang dapat diambil. Di produksi, pengguna meminta agen untuk mengambil catatan karyawan. Itu melakukannya. Karena agen juga memiliki kemampuan email, pengguna memerintahkan untuk mengirim data tersebut ke alamat pribadi. Seluruh urutan berlangsung dalam waktu kurang dari enam puluh detik. Tidak ada akses tidak sah. Tidak ada pelanggaran platform. Tidak ada peringatan keamanan.
Ini bukanlah serangan yang canggih. Ini adalah hasil yang dapat diprediksi dari karyawan yang berintention baik yang membangun sesuatu yang tidak mereka pahami sepenuhnya, di platform yang membuat pembangunan mudah dan tata kelola opsional.
Celah Tata Kelola yang Tidak Terhargai
Bagi sebagian besar organisasi, masalah Shadow AI tetap abstrak sampai sesuatu salah. Namun, risiko bisnis lebih dalam dari respons pelanggaran.
Ketika agen yang dibangun oleh bisnis bocor data sensitif, pertanyaan yang akan ditanyakan oleh dewan bukanlah “bagaimana konfigurasi yang salah terjadi?” Itu akan menjadi “bagaimana tidak ada yang tahu alat itu sedang berjalan?” Mereka tidak akan membedakan antara pelanggaran yang disebabkan oleh penyerang eksternal dan yang disebabkan oleh alat internal yang salah konfigurasi. Jika data pribadi terungkap dan organisasi kekurangan visibilitas ke apa yang sedang berjalan, ketiadaan pengawasan itu sendiri adalah tanggung jawab. “Seorang karyawan membangunnya di platform yang disetujui” bukanlah pertahanan, itu adalah deskripsi dari celah.
Keharusan itu nyata, tetapi niat dan eksekusi tidak sama, dan bagi sebagian besar perusahaan, celah antara keduanya masih terbuka lebar.
Jawabannya bukan untuk membatasi siapa yang dapat membangun. Mengunci pengembangan warga akan mengorbankan keuntungan produktivitas yang sebenarnya dan, dalam prakteknya, tidak akan bertahan. Karyawan akan menemukan cara untuk menghindarinya. Jawabannya adalah untuk membawa apa yang sedang dibangun ke dalam pandangan, dan untuk mengaturinya pada titik di mana risiko sebenarnya muncul: runtime.
Itu berarti memahami tidak hanya apa agen yang ada, tetapi bagaimana mereka berperilaku, apa data yang mereka akses, apa sistem yang mereka sentuh, dan apakah tindakan mereka tetap dalam batas-batas yang dibangun oleh pembangunnya. Itu berarti menetapkan batasan yang beroperasi pada tingkat organisasi, bukan hanya pada titik konfigurasi. Dan itu berarti mencapai tempat di mana tim keamanan dapat menjawab pertanyaan dasar tentang setiap agen di lingkungan mereka: siapa yang membangunnya, apa yang mereka akses, dan apakah mereka berperilaku sesuai dengan yang dirancang?
Sebagian besar perusahaan tidak dapat menjawab pertanyaan-pertanyaan itu hari ini. Organisasi yang mencapai tempat itu pertama kali akan menjadi mereka yang dapat menskalakan adopsi AI dengan kepercayaan diri, karena mereka akan tahu apa yang sebenarnya mereka jalankan.












