Connect with us

Kecerdasan buatan

Pemelihan Multi-Agen: Frontier Baru dalam Keamanan AI

mm

Bidang pemelihan AI telah lama fokus pada pemelihan model AI individu ke nilai dan niat manusia. Namun, dengan munculnya sistem multi-agen, fokus ini sekarang bergeser. Alih-alih satu model yang bekerja sendiri, kita sekarang merancang ekosistem agen khusus yang berinteraksi, bekerja sama, bersaing, dan belajar dari satu sama lain. Interaksi ini memperkenalkan dinamika baru yang meredefinisi makna “pemelihan.” Tantangan ini tidak lagi hanya tentang perilaku satu sistem, tetapi tentang bagaimana beberapa agen otonom dapat bekerja sama dengan aman dan dapat diandalkan tanpa menciptakan risiko baru. Artikel ini memeriksa mengapa pemelihan multi-agen muncul sebagai isu sentral dalam keamanan AI. Ini mengeksplorasi faktor-faktor risiko kunci, menyoroti kesenjangan yang semakin besar antara kemampuan dan tata kelola, dan membahas bagaimana konsep pemelihan harus berkembang untuk mengatasi tantangan sistem AI yang terhubung.

Munculnya Sistem Multi-Agen dan Batasan Pemelihan Tradisional

Sistem multi-agen dengan cepat mendapatkan momentum sebagai perusahaan teknologi besar mengintegrasikan agen AI otonom di seluruh operasional mereka. Agen-agen ini membuat keputusan, melaksanakan tugas, dan berinteraksi dengan satu sama lain dengan pengawasan manusia minimal. Baru-baru ini, OpenAI memperkenalkan Operator, sebuah sistem AI agenik yang dirancang untuk mengelola transaksi di internet. Google, Amazon, Microsoft, dan lain-lain mengintegrasikan sistem agenik serupa ke dalam platform mereka. Sementara organisasi dengan cepat mengadopsi sistem ini untuk mendapatkan keunggulan kompetitif, banyak yang melakukannya tanpa sepenuhnya memahami risiko keamanan yang muncul ketika beberapa agen beroperasi dan berinteraksi dengan satu sama lain.

Kompleksitas yang berkembang ini mengungkapkan batasan pendekatan pemelihan AI yang ada. Pendekatan ini dirancang untuk memastikan bahwa model AI individu berperilaku sesuai dengan nilai dan niat manusia. Sementara teknik seperti reinforcement learning dari umpan balik manusia dan konstitusi AI telah mencapai kemajuan signifikan, mereka tidak pernah dirancang untuk mengelola kompleksitas sistem multi-agen.

Memahami Faktor-Faktor Risiko

Penelitian terbaru menunjukkan betapa seriusnya masalah ini dapat menjadi. Studi telah menemukan bahwa perilaku berbahaya atau menipu dapat menyebar dengan cepat dan sunyi di seluruh jaringan agen model bahasa. Begitu satu agen dikompromikan, itu dapat mempengaruhi yang lain, menyebabkan mereka mengambil tindakan yang tidak diinginkan atau berpotensi tidak aman. Komunitas teknis telah mengidentifikasi tujuh faktor risiko kunci yang dapat menyebabkan kegagalan dalam sistem multi-agen.

  1. Asimetri Informasi: Agen sering bekerja dengan informasi yang tidak lengkap atau inkonsisten tentang lingkungan mereka. Ketika agen membuat keputusan berdasarkan data yang sudah ketinggalan zaman atau hilang, itu dapat memicu rantai keputusan yang buruk di seluruh sistem. Misalnya, dalam jaringan logistik otomatis, satu agen pengiriman mungkin tidak tahu bahwa rute tertentu ditutup dan mengalihkan semua pengiriman melalui rute yang lebih panjang, menunda seluruh jaringan.
  2. Efek Jaringan: Dalam sistem multi-agen, masalah kecil dapat menyebar dengan cepat melalui agen yang terhubung. Satu agen yang salah menghitung harga atau menandai data secara tidak sengaja dapat mempengaruhi ribuan lainnya yang bergantung pada outputnya. Bayangkan seperti desas-desus yang menyebar di media sosial di mana satu postingan yang salah dapat menyebar ke seluruh jaringan dalam hitungan menit.
  3. Tekanan Seleksi: Ketika agen AI diberi penghargaan untuk mencapai tujuan yang sempit, mereka dapat mengembangkan jalan pintas yang merusak tujuan yang lebih luas. Misalnya, asisten penjualan AI yang dioptimalkan hanya untuk meningkatkan konversi mungkin mulai melebih-lebihkan kemampuan produk atau menawarkan jaminan yang tidak realistis untuk menutup kesepakatan. Sistem ini menghargai keuntungan jangka pendek sementara mengabaikan perilaku etis atau kepercayaan jangka panjang.
  4. Dinamika yang Merusak: Terkadang, interaksi antara agen dapat menciptakan loop umpan balik. Dua bot trading, misalnya, mungkin terus bereaksi terhadap perubahan harga satu sama lain, tanpa sengaja mendorong pasar ke dalam kejatuhan. Apa yang dimulai sebagai interaksi normal dapat berputar menjadi ketidakstabilan tanpa niat jahat.
  5. Masalah Kepercayaan: Agen perlu bergantung pada informasi dari satu sama lain, tetapi mereka sering kekurangan cara untuk memverifikasi keakuratan informasi tersebut. Dalam sistem keamanan siber multi-agen, satu agen pemantau yang dikompromikan bisa salah melaporkan bahwa jaringan aman, menyebabkan yang lain menurunkan pertahanan mereka. Tanpa verifikasi yang dapat diandalkan, kepercayaan menjadi kerentanan.
  6. Agen yang Muncul: Ketika banyak agen berinteraksi, mereka dapat mengembangkan perilaku kolektif yang tidak secara eksplisit diprogram. Misalnya, sekelompok robot gudang mungkin belajar untuk mengkoordinasikan rute mereka untuk memindahkan paket lebih cepat, tetapi dengan melakukan itu, mereka bisa memblokir pekerja manusia atau menciptakan pola lalu lintas yang tidak aman. Apa yang dimulai sebagai kerja sama yang efisien dapat dengan cepat berubah menjadi perilaku yang tidak terduga dan sulit dikendalikan.
  7. Kerentanan Keamanan: Seiring sistem multi-agen tumbuh dalam kompleksitas, mereka menciptakan lebih banyak titik masuk untuk serangan. Satu agen yang dikompromikan dapat menyisipkan data palsu atau mengirim perintah berbahaya ke yang lain. Misalnya, jika satu bot pemeliharaan AI diretas, itu bisa menyebarkan pembaruan yang rusak ke setiap bot lainnya dalam jaringan, memperbesar kerusakan.

Faktor-faktor risiko ini tidak beroperasi dalam isolasi. Mereka berinteraksi dan saling memperkuat. Apa yang dimulai sebagai masalah kecil dalam satu sistem dapat dengan cepat tumbuh menjadi kegagalan skala besar di seluruh jaringan. Ironisnya, ketika agen menjadi lebih mampu dan terhubung, masalah ini menjadi semakin sulit untuk diprediksi dan dikendalikan.

Gap Tata Kelola yang Meningkat

Peneliti industri dan profesional keamanan baru saja mulai memahami skala tantangan ini. Tim AI Red Microsoft baru-baru ini merilis taksonomi terperinci taksonomi mode kegagalan unik untuk sistem AI agenik. Salah satu risiko paling mengkhawatirkan yang mereka soroti adalah keracunan memori. Dalam skenario ini, penyerang merusak informasi yang disimpan agen, menyebabkannya melakukan tindakan berbahaya berulang kali bahkan setelah serangan awal telah dihapus. Masalahnya adalah agen tidak dapat membedakan antara memori yang rusak dan data asli, karena representasi internalnya kompleks dan sulit untuk diperiksa atau diverifikasi.

Banyak organisasi yang menggelar agen AI hari ini masih kekurangan bahkan perlindungan keamanan dasar. Survei terbaru menemukan bahwa hanya sekitar sepuluh persen perusahaan memiliki strategi yang jelas untuk mengelola identitas dan izin agen AI. Kesenjangan ini mengkhawatirkan mengingat lebih dari empat puluh miliar identitas non-manusia dan agenik diharapkan aktif di seluruh dunia pada akhir tahun. Sebagian besar agen ini beroperasi dengan akses luas dan persisten ke data dan sistem tetapi tanpa protokol keamanan yang digunakan untuk pengguna manusia. Ini menciptakan kesenjangan yang semakin melebar antara kemampuan dan tata kelola. Sistem ini kuat. Perlindungan tidak.

Mendefinisikan Ulang Pemelihan Multi-Agen

Apa yang seharusnya terlihat seperti keamanan untuk sistem multi-agen masih didefinisikan. Prinsip dari arsitektur zero-trust sekarang diadaptasi untuk mengelola interaksi agen-ke-agen. Beberapa organisasi memperkenalkan firewall yang membatasi apa yang dapat diakses atau dibagikan agen. Lainnya menggelar sistem pemantauan waktu nyata dengan penghenti sirkuit bawaan yang secara otomatis mematikan agen ketika mereka melebihi ambang risiko tertentu. Peneliti juga mengeksplorasi bagaimana mengintegrasikan keamanan langsung ke dalam protokol komunikasi yang digunakan agen. Dengan merancang lingkungan di mana agen beroperasi, mengendalikan aliran informasi, dan memerlukan izin yang terbatas waktu, mungkin memungkinkan untuk mengurangi risiko yang ditimbulkan agen kepada satu sama lain.

Pendekatan lain yang menjanjikan adalah mengembangkan mekanisme pengawasan yang dapat tumbuh bersama dengan kemampuan agen yang maju. Ketika sistem AI menjadi lebih kompleks, tidak realistis bagi manusia untuk meninjau setiap tindakan atau keputusan dalam waktu nyata. Sebagai gantinya, kita dapat menggunakan sistem AI untuk mengawasi dan memantau perilaku agen. Misalnya, agen pengawasan bisa meninjau tindakan yang direncanakan agen pekerja sebelum eksekusi, menandai apa pun yang terlihat berisiko atau inkonsisten. Sementara sistem pengawasan ini juga harus dipelihkan dan dapat dipercaya, ide ini menawarkan solusi praktis. Teknik seperti dekomposisi tugas dapat membagi tujuan kompleks menjadi sub-tugas yang lebih kecil dan lebih mudah diverifikasi. Serupa, pengawasan lawan memasang agen satu sama lain untuk menguji penipuan atau perilaku yang tidak diinginkan, menggunakan kompetisi yang terkendali untuk mengungkap risiko tersembunyi sebelum mereka eskalasi.

Intinya

Ketika AI berkembang dari model terisolasi ke ekosistem luas agen yang berinteraksi, tantangan pemelihan telah memasuki era baru. Sistem multi-agen menjanjikan kemampuan yang lebih besar tetapi juga mengalikan risiko di mana kesalahan kecil, insentif tersembunyi, atau agen yang dikompromikan dapat menyebar melintasi jaringan. Memastikan keamanan sekarang berarti tidak hanya memelihkan model individu, tetapi mengatur bagaimana seluruh masyarakat agen berperilaku, bekerja sama, dan berkembang. Fase berikutnya dari keamanan AI bergantung pada membangun kepercayaan, pengawasan, dan ketahanan langsung ke dalam sistem yang terhubung ini.

Dr. Tehseen Zia adalah Profesor Asosiasi Tetap di COMSATS University Islamabad, memegang gelar PhD di AI dari Vienna University of Technology, Austria. Mengkhususkan diri dalam Kecerdasan Buatan, Pembelajaran Mesin, Ilmu Data, dan Penglihatan Komputer, ia telah membuat kontribusi signifikan dengan publikasi di jurnal ilmiah terkemuka. Dr. Tehseen juga telah memimpin berbagai proyek industri sebagai Penyelidik Utama dan menjabat sebagai Konsultan AI.