Terhubung dengan kami

Pemimpin Pikiran

Agen Anda Bukan Sekadar Chatbot Lagi—Jadi Mengapa Anda Masih Memperlakukannya Seperti Itu?

mm

Diterbitkan

 on

Pada masa-masa awal AI generatif, skenario terburuk bagi chatbot yang berperilaku buruk seringkali hanya berupa rasa malu di depan umum. chatbot mungkin berhalusinasi fakta, melontarkan pesan yang bias, atau bahkan memaki-maki. Itu sudah cukup buruk. Tapi sekarang, kami sudah menyerahkan kuncinya.

Selamat datang di era agen.

Dari Chatbot ke Agen: Pergeseran Otonomi

Chatbot bersifat reaktif. Mereka tetap pada jalurnya. Ajukan pertanyaan, dapatkan jawaban. Namun, agen AI—terutama yang dibangun dengan penggunaan alat, eksekusi kode, dan memori persisten—dapat melakukan tugas multi-langkah, memanggil API, menjalankan perintah, serta menulis dan menerapkan kode secara mandiri.

Dengan kata lain, mereka tidak hanya merespons perintah—mereka membuat keputusan. Dan seperti yang akan dikatakan oleh pakar keamanan mana pun, begitu sistem mulai bertindak di dunia, Anda sebaiknya serius memperhatikan keamanan dan kendali.

Apa yang Kami Peringatkan di Tahun 2023

Di OWASP, kami mulai memperingatkan tentang pergeseran ini lebih dari dua tahun yang lalu. Dalam rilis pertama OWASP Top 10 untuk Aplikasi LLM, kami menciptakan istilah: Agensi Berlebihan.

Idenya sederhana: ketika Anda memberi sebuah model terlalu banyak otonomi—terlalu banyak alat, terlalu banyak otoritas, terlalu sedikit pengawasan—model tersebut mulai bertindak lebih seperti agen bebas daripada asisten yang terikat. Mungkin model tersebut menjadwalkan rapat Anda. Mungkin model tersebut menghapus berkas. Mungkin model tersebut menyediakan infrastruktur cloud yang berlebihan dan mahal.

Jika Anda tidak hati-hati, ia akan berperilaku seperti deputi yang kebingungan… atau lebih buruk lagi, agen musuh yang sedang menunggu untuk dieksploitasi dalam insiden keamanan siber. Dalam contoh dunia nyata baru-baru ini, agen dari produk perangkat lunak besar seperti Kopilot Microsoft, Produk Slack Salesforce keduanya terbukti rentan terhadap penipuan agar menggunakan hak istimewa mereka yang meningkat untuk mengekstraksi data sensitif.

Dan kini, hipotesis itu tampak kurang seperti fiksi ilmiah dan lebih seperti peta jalan Q3 mendatang.

Temui MCP: Lapisan Kontrol Agen (atau Bukan?)

Melompat ke tahun 2025, kita melihat gelombang standar dan protokol baru yang dirancang untuk menangani ledakan fungsionalitas agen ini. Yang paling menonjol adalah Model Context Protocol (MCP) dari Anthropic—sebuah mekanisme untuk mempertahankan memori bersama, struktur tugas, dan akses alat di seluruh sesi agen AI yang berumur panjang.

Anggap MCP sebagai perekat yang menyatukan konteks agen lintas perangkat dan waktu. Ini adalah cara untuk memberi tahu asisten pemrograman Anda: "Inilah yang telah Anda lakukan sejauh ini. Inilah yang boleh Anda lakukan. Inilah yang harus Anda ingat."

Ini langkah yang sangat dibutuhkan. Namun, langkah ini juga memunculkan pertanyaan baru.

MCP adalah Pemberdaya Kapabilitas. Di Mana Batasannya?

Sejauh ini, fokus MCP adalah memperluas apa yang dapat dilakukan agen—bukan mengendalikan mereka.

Meskipun protokol membantu mengoordinasikan penggunaan alat dan menjaga memori di seluruh tugas agen, protokol tersebut belum mengatasi masalah penting seperti:

  • Resistensi injeksi cepat:Apa yang terjadi jika penyerang memanipulasi memori bersama?
  • Cakupan perintah:Dapatkah agen ditipu agar melampaui izinnya?
  • Penyalahgunaan Token: Mungkinkah Blob Memori yang Bocor Mengekspos Kredensial API atau Data Pengguna?

Ini bukan masalah teoretis. Pemeriksaan implikasi keamanan baru-baru ini mengungkapkan bahwa arsitektur bergaya MCP rentan terhadap injeksi cepat, penyalahgunaan perintah, dan bahkan keracunan memori, terutama ketika memori bersama tidak memiliki cakupan atau enkripsi yang memadai.

Ini masalah klasik "kekuasaan tanpa pengawasan". Kita sudah membangun rangka luarnya, tapi belum menemukan letak tombol matinya.

Mengapa CISO Harus Memperhatikan—Sekarang

Kita tidak sedang membicarakan teknologi masa depan. Kita sedang membicarakan perangkat yang sudah digunakan oleh para pengembang Anda, dan itu baru permulaan dari peluncuran besar-besaran yang akan kita saksikan di perusahaan.

Agen pengkodean seperti Claude Code dan Cursor semakin populer di alur kerja perusahaan. Riset internal GitHub menunjukkan bahwa Copilot dapat mempercepat tugas hingga 55%. Baru-baru ini, Anthropic melaporkan bahwa 79% penggunaan Claude Code difokuskan pada eksekusi tugas otomatis, bukan sekadar saran kode.

Itulah produktivitas yang sesungguhnya. Tapi itu juga otomatisasi yang sesungguhnya. Mereka bukan lagi kopilot. Mereka semakin sering terbang solo. Dan kokpitnya? Kosong.

CEO Microsoft Satya Nadella baru-baru ini mengatakan bahwa AI kini menulis hingga 30% kode Microsoft. CEO Anthropic, Dario Amodei, bahkan melangkah lebih jauh, memprediksi bahwa AI akan menghasilkan 90% kode baru dalam enam bulan.

Dan ini bukan hanya tentang pengembangan perangkat lunak. Model Context Protocol (MCP) kini diintegrasikan ke dalam perangkat yang melampaui pengodean, mencakup triase email, persiapan rapat, perencanaan penjualan, peringkasan dokumen, dan tugas-tugas produktivitas berperforma tinggi lainnya untuk pengguna umum. Meskipun banyak dari kasus penggunaan ini masih dalam tahap awal, mereka berkembang pesat. Hal ini mengubah taruhannya. Ini bukan lagi sekadar diskusi untuk CTO atau VP Teknik Anda. Ini menuntut perhatian dari para pemimpin unit bisnis, CIO, CISO, dan Chief AI Officer. Ketika agen-agen ini mulai berinteraksi dengan data sensitif dan menjalankan alur kerja lintas fungsi, organisasi harus memastikan bahwa tata kelola, manajemen risiko, dan perencanaan strategis menjadi bagian integral dari percakapan sejak awal.

Apa yang Perlu Dilakukan Selanjutnya

Sudah saatnya kita berhenti menganggap agen-agen ini sebagai chatbot dan mulai menganggapnya sebagai sistem otonom dengan persyaratan keamanan yang nyata. Artinya:

  • Batasan hak istimewa agen:Sama seperti Anda tidak menjalankan setiap proses sebagai root, agen memerlukan akses terbatas ke alat dan perintah.
  • Tata kelola memori bersama: Ketahanan konteks harus diaudit, diberi versi, dan dienkripsi—terutama saat dibagikan di seluruh sesi atau tim.
  • Simulasi serangan dan tim merah:Penyindikan cepat, keracunan memori, dan penyalahgunaan perintah harus diperlakukan sebagai ancaman keamanan tingkat atas.
  • Pelatihan karyawanPenggunaan agen AI yang aman dan efektif merupakan keterampilan baru, dan orang-orang membutuhkan pelatihan. Ini akan membantu mereka menjadi lebih produktif dan menjaga kekayaan intelektual Anda tetap aman.

Saat organisasi Anda mendalami agen cerdas, seringkali lebih baik berjalan dulu sebelum berlari. Dapatkan pengalaman dengan agen yang memiliki cakupan, data, dan izin terbatas. Pelajari sambil membangun batasan organisasi dan rasakan pengalamannya, lalu tingkatkan ke kasus penggunaan yang lebih kompleks, otonom, dan ambisius.

Anda Tidak Bisa Mengabaikan Ini

Baik Anda Chief AI Officer maupun Chief Information Officer, Anda mungkin memiliki kekhawatiran awal yang berbeda, tetapi langkah Anda ke depan tetap sama. Peningkatan produktivitas dari agen pengkodean dan sistem AI otonom terlalu menarik untuk diabaikan. Jika Anda masih mengambil pendekatan "tunggu dan lihat", Anda sudah tertinggal.

Alat-alat ini bukan lagi sekadar eksperimental—mereka dengan cepat menjadi kebutuhan pokok. Perusahaan seperti Microsoft menghasilkan sebagian besar kode melalui AI dan sebagai hasilnya, meningkatkan posisi kompetitif mereka. Alat-alat seperti Claude Code memangkas waktu pengembangan dan mengotomatiskan alur kerja yang kompleks di berbagai perusahaan di seluruh dunia. Perusahaan yang mempelajari cara memanfaatkan agen-agen ini dengan aman akan mengirimkan produk lebih cepat, beradaptasi lebih cepat, dan mengungguli pesaing mereka.

Namun, kecepatan tanpa keamanan adalah jebakan. Mengintegrasikan agen otonom ke dalam bisnis Anda tanpa kontrol yang tepat dapat mengakibatkan pemadaman, kebocoran data, dan reaksi balik regulasi.

Inilah saatnya untuk bertindak—namun bertindaklah dengan cerdas:

  • Peluncuran program percontohan agen, tetapi memerlukan tinjauan kode, izin alat, dan sandboxing.
  • Batasi otonomi pada hal-hal yang diperlukan—tidak semua agen memerlukan akses root atau memori jangka panjang.
  • Audit memori bersama dan panggilan alat, terutama pada sesi yang berlangsung lama atau konteks kolaboratif.
  • Simulasikan serangan menggunakan injeksi cepat dan penyalahgunaan perintah untuk mengungkap risiko dunia nyata sebelum penyerang melakukannya.
  • Latih pengembang dan tim produk Anda pada pola penggunaan yang aman, termasuk kontrol cakupan, perilaku fallback, dan jalur eskalasi.

Keamanan dan kecepatan tidak saling eksklusif—jika Anda membangun dengan niat.

Bisnis yang memperlakukan agen AI sebagai infrastruktur inti, bukan mainan atau mainan yang berubah menjadi ancaman, akan berkembang pesat. Sisanya akan membereskan kekacauan—atau lebih buruk lagi, hanya menonton dari pinggir lapangan.

Era agen telah tiba. Jangan hanya bereaksi. Bersiap. Integrasikan. Amankan.

Steve Wilson adalah Chief AI Officer di Exabeam, di mana ia memimpin pengembangan solusi keamanan siber canggih berbasis AI untuk perusahaan global. Sebagai eksekutif teknologi berpengalaman, Wilson telah menghabiskan kariernya merancang platform cloud berskala besar dan sistem keamanan untuk organisasi Global 2000. Ia sangat dihormati di komunitas AI dan keamanan karena menjembatani keahlian teknis yang mendalam dengan aplikasi perusahaan di dunia nyata. Wilson juga merupakan penulis Buku Panduan Pengembang untuk Keamanan Model Bahasa Besar (O'Reilly Media), panduan praktis untuk mengamankan sistem GenAI dalam tumpukan perangkat lunak modern.