Terhubung dengan kami

Pemimpin Pikiran

Keharusan Tanpa Rahasia: Mengapa Model Keamanan Tradisional Gagal Saat Agen AI Menyentuh Kode

mm

Pada bulan April 2023, Samsung menemukan bahwa para insinyurnya telah membocorkan informasi sensitif kepada ChatGPT.Namun itu tidak disengaja. Sekarang bayangkan jika repositori kode tersebut berisi instruksi yang sengaja ditanamkan, yang tidak terlihat oleh manusia tetapi diproses oleh AI, yang dirancang untuk mengekstrak bukan hanya kode tetapi setiap kunci API, kredensial basis data, dan token layanan yang dapat diakses oleh AI. Ini bukan hipotesis. Para peneliti keamanan telah menunjukkan Serangan "instruksi tak terlihat" ini berhasil. Pertanyaannya bukan apakah ini akan terjadi, tetapi kapan.

Batas yang Tak Ada Lagi

Selama beberapa dekade, kita telah membangun keamanan berdasarkan asumsi mendasar: kode adalah kode, dan data adalah data. Serangan SQL injection mengajarkan kita untuk memparameterisasi kueri. Serangan cross-site scripting mengajarkan kita untuk menghindari kesalahan pada output. Kita belajar membangun tembok antara apa yang dilakukan program dan apa yang dimasukkan pengguna.

Dengan agen AI, batasan itu telah lenyap.

Berbeda dengan perangkat lunak deterministik yang mengikuti jalur yang dapat diprediksi, Model Bahasa Besar (Large Language Models) adalah kotak hitam probabilistik yang tidak dapat membedakan antara instruksi pengembang yang sah dan masukan berbahaya. Ketika penyerang memberikan perintah kepada asisten pengkodean AI, mereka tidak hanya memberikan data. Mereka pada dasarnya memprogram ulang aplikasi secara langsung. Masukan tersebut telah menjadi program itu sendiri.

Ini merupakan terobosan mendasar dari semua yang kita ketahui tentang keamanan aplikasi. Firewall berbasis sintaks tradisional, yang mencari pola berbahaya seperti DROP TABLE atau tags, fail completely against natural language attacks. Researchers have demonstrated “semantic substitution” techniques where replacing “API keys” with “apples” in prompts allows attackers to bypass filters entirely. How do you firewall intent when it’s disguised as harmless conversation?

Realita Tanpa Klik yang Tak Seorang Pun Bahas

Inilah yang tidak dipahami oleh sebagian besar tim keamanan: injeksi prompt tidak memerlukan pengguna untuk mengetik apa pun. Ini seringkali merupakan eksploitasi tanpa klik sama sekali. Agen AI yang hanya memindai repositori kode untuk tugas rutin, meninjau permintaan pull, atau membaca dokumentasi API dapat memicu serangan tanpa interaksi manusia.

Pertimbangkan skenario ini, berdasarkan teknik yang telah dibuktikan oleh para penelitiSeorang pelaku jahat menyisipkan instruksi tersembunyi dalam komentar HTML di dalam dokumentasi pustaka sumber terbuka populer. Setiap asisten AI yang menganalisis kode ini, baik itu GitHub Copilot, Amazon CodeWhisperer, atau asisten pengkodean perusahaan lainnya, berpotensi menjadi pengumpul kredensial. Satu pustaka yang disusupi dapat berarti ribuan lingkungan pengembangan yang terekspos.

Bahayanya bukanlah LLM itu sendiri; melainkan wewenang yang kita berikan padanya. Saat kita mengintegrasikan model-model ini dengan alat dan API, membiarkannya mengambil data, mengeksekusi kode, dan mengakses rahasia, kita mengubah asisten yang bermanfaat menjadi vektor serangan yang sempurna. Risikonya tidak sebanding dengan kecerdasan model; melainkan sebanding dengan konektivitasnya.

Mengapa Pendekatan Saat Ini Akan Gagal

Saat ini industri sedang terobsesi dengan "menyelaraskan" model dan membangun firewall yang lebih baik. OpenAI menambahkan lebih banyak pengaman. Anthropic berfokus pada AI konstitusional. Semua orang mencoba membuat model yang tidak bisa ditipu.

Ini adalah pertempuran yang sia-sia.

Jika sebuah AI cukup pintar untuk bermanfaat, maka ia juga cukup pintar untuk ditipu. Kita terjebak dalam apa yang saya sebut "jebakan sanitasi": berasumsi bahwa penyaringan input yang lebih baik akan menyelamatkan kita. Tetapi serangan dapat disembunyikan sebagai teks tak terlihat dalam komentar HTML, terkubur jauh di dalam dokumentasi, atau dikodekan dengan cara yang belum kita bayangkan. Anda tidak dapat membersihkan apa yang tidak dapat Anda pahami secara kontekstual, dan konteks itulah yang membuat LLM (Learning Learning Models) menjadi ampuh.

Industri ini perlu menerima kenyataan pahit: injeksi cepat akan berhasil. Pertanyaannya adalah apa yang terjadi ketika hal itu terjadi.

Pergeseran Arsitektur yang Kita Butuhkan

Saat ini kita sedang dalam "fase penambalan," berupaya keras menambahkan filter input dan aturan validasi. Tetapi sama seperti kita akhirnya menyadari bahwa mencegah injeksi SQL membutuhkan kueri berparameter, bukan pengescapean string yang lebih baik, kita membutuhkan solusi arsitektur untuk keamanan AI.

Jawabannya terletak pada prinsip yang terdengar sederhana tetapi membutuhkan pemikiran ulang tentang bagaimana kita membangun sistem: agen AI seharusnya tidak pernah memiliki rahasia yang mereka gunakan.

Ini bukan tentang manajemen kredensial yang lebih baik atau solusi brankas yang lebih canggih. Ini tentang mengenali agen AI sebagai identitas unik dan terverifikasi, bukan pengguna yang membutuhkan kata sandi. Ketika agen AI perlu mengakses sumber daya yang dilindungi, ia harus:

  1. Lakukan otentikasi menggunakan identitas yang dapat diverifikasi (bukan rahasia yang tersimpan)

  2. Terima kredensial tepat waktu yang hanya berlaku untuk tugas spesifik tersebut.

  3. Atur agar kredensial tersebut kedaluwarsa secara otomatis dalam hitungan detik atau menit.

  4. Jangan pernah menyimpan atau bahkan "melihat" rahasia yang berumur panjang.

Beberapa pendekatan baru sedang muncul. Peran AWS IAM untuk akun layanan, Identitas Beban Kerja Google, Rahasia dinamis HashiCorp VaultDan solusi yang dirancang khusus seperti Zero Trust Provisioning dari Akeyless semuanya mengarah pada masa depan tanpa rahasia ini. Detail implementasinya bervariasi, tetapi prinsipnya tetap sama: jika AI tidak memiliki rahasia untuk dicuri, injeksi cepat menjadi ancaman yang jauh lebih kecil.

Lingkungan Pembangunan Tahun 2027

Dalam tiga tahun ke depan, file .env akan mati dalam pengembangan yang didukung AI. Kunci API yang sudah lama tersimpan dalam variabel lingkungan akan dipandang seperti kata sandi dalam bentuk teks biasa: peninggalan memalukan dari masa yang lebih naif.

Sebaliknya, setiap agen AI akan beroperasi di bawah pemisahan hak akses yang ketat. Akses baca saja secara default. Daftar putih tindakan sebagai standar. Lingkungan eksekusi terisolasi sebagai persyaratan kepatuhan. Kita akan berhenti mencoba mengendalikan apa yang dipikirkan AI dan fokus sepenuhnya pada pengendalian apa yang dapat dilakukannya.

Ini bukan sekadar evolusi teknis; ini adalah pergeseran mendasar dalam model kepercayaan. Kita beralih dari "percaya tetapi verifikasi" ke "jangan pernah percaya, selalu verifikasi, dan anggap ada kompromi." Prinsip hak akses minimal, yang telah lama dianjurkan tetapi jarang dipraktikkan, menjadi tidak dapat dinegosiasikan ketika pengembang junior Anda adalah AI yang memproses ribuan input yang berpotensi berbahaya setiap hari.

Pilihan yang Kita Hadapi

Integrasi AI ke dalam pengembangan perangkat lunak adalah hal yang tak terhindarkan dan sangat bermanfaat. GitHub melaporkan bahwa pengembang yang menggunakan Copilot menyelesaikan tugas 55% lebih cepat.Peningkatan produktivitas itu nyata, dan tidak ada organisasi yang ingin tetap kompetitif yang dapat mengabaikannya.

Namun kita berada di persimpangan jalan. Kita dapat terus menempuh jalan yang ada dengan menambahkan lebih banyak pengaman, membangun filter yang lebih baik, dan berharap dapat menciptakan agen AI yang tidak dapat ditipu. Atau kita dapat mengakui sifat mendasar dari ancaman tersebut dan membangun kembali arsitektur keamanan kita sesuai dengan itu.

Insiden Samsung adalah peringatan. Pelanggaran keamanan berikutnya tidak akan terjadi secara tidak sengaja, dan tidak akan terbatas pada satu perusahaan saja. Seiring dengan bertambahnya kemampuan agen AI dan akses ke lebih banyak sistem, potensi dampaknya meningkat secara eksponensial.

Pertanyaan bagi setiap CISO, setiap pemimpin teknik, dan setiap pengembang sangat sederhana: Ketika injeksi cepat berhasil di lingkungan Anda (dan itu pasti akan terjadi), apa yang akan ditemukan penyerang? Akankah mereka menemukan harta karun berupa kredensial yang sudah lama aktif, atau akankah mereka menemukan agen AI yang, meskipun telah disusupi, tidak memiliki rahasia untuk dicuri?

Pilihan yang kita buat sekarang akan menentukan apakah AI akan menjadi akselerator terbesar pengembangan perangkat lunak atau kerentanan terbesar yang pernah kita ciptakan. Teknologi untuk membangun sistem AI yang aman dan tanpa rahasia sudah ada saat ini. Pertanyaannya adalah apakah kita akan menerapkannya sebelum penyerang memaksa kita untuk melakukannya.

OWASP telah mengidentifikasi suntikan segera sebagai risiko nomor 1. dalam daftar 10 besar mereka untuk aplikasi LLM. NIST sedang mengembangkan panduan. pada arsitektur zero trust. Kerangka kerjanya sudah ada. Satu-satunya pertanyaan adalah kecepatan implementasi versus evolusi serangan.

Biografi: Refael Angel adalah salah satu Pendiri dan CTO dari Tanpa kunciDi sanalah ia mengembangkan teknologi enkripsi Zero-Trust yang dipatenkan perusahaan. Sebagai seorang insinyur perangkat lunak berpengalaman dengan keahlian mendalam di bidang kriptografi dan keamanan cloud, Refael sebelumnya menjabat sebagai Insinyur Perangkat Lunak Senior di pusat R&D Intuit di Israel, di mana ia membangun sistem untuk mengelola kunci enkripsi di lingkungan cloud publik dan merancang layanan otentikasi mesin. Ia memegang gelar Sarjana Sains (B.Sc.) di bidang Ilmu Komputer dari Jerusalem College of Technology, yang diperolehnya pada usia 19 tahun.

Refael Angel adalah salah satu Pendiri dan CTO dari Tanpa kunciDi sanalah ia mengembangkan teknologi enkripsi Zero-Trust yang dipatenkan perusahaan. Sebagai seorang insinyur perangkat lunak berpengalaman dengan keahlian mendalam di bidang kriptografi dan keamanan cloud, Refael sebelumnya menjabat sebagai Insinyur Perangkat Lunak Senior di pusat R&D Intuit di Israel, di mana ia membangun sistem untuk mengelola kunci enkripsi di lingkungan cloud publik dan merancang layanan otentikasi mesin. Ia memegang gelar Sarjana Sains (B.Sc.) di bidang Ilmu Komputer dari Jerusalem College of Technology, yang diperolehnya pada usia 19 tahun.