Connect with us

Kecerdasan buatan

AI Yang Mengajar Diri Sendiri Tidak Lagi Sekedar Fiksi Ilmiah

mm

Kerangka AI yang muncul saat ini sedang menuju lompatan radikal: mesin yang dapat memperbaiki diri sendiri, tanpa memerlukan wawasan manusia.

Selama bertahun-tahun, bahkan model AI yang paling canggih tetap menjadi mesin pasif, memprediksi respons berdasarkan data pelatihan yang tidak dapat mereka modifikasi. Namun, saat ini bukanlah ukuran model yang menentukan babak berikutnya dari kecerdasan buatan; itu adalah apakah model dapat berkembang dengan sendirinya.

Baru-baru ini, peneliti MIT memperkenalkan kerangka AI baru yang disebut Self-Adapting LLMs (SEAL). Pendekatan ini memungkinkan model bahasa besar (LLMs) untuk memperbaiki diri mereka sendiri secara otonom, memungkinkan AI untuk mendiagnosis keterbatasan mereka dan memperbarui bobot neural mereka secara permanen melalui loop umpan balik internal yang ditenagai oleh pembelajaran penguatan. Alih-alih memerlukan peneliti untuk menemukan kesalahan, menulis prompt baru, atau memberikan contoh tambahan, model tersebut mengambil kepemilikan penuh atas evolusinya.

“Model bahasa besar (LLMs) sangat kuat tetapi statis; mereka tidak memiliki mekanisme untuk menyesuaikan bobot mereka dalam menanggapi tugas, pengetahuan, atau contoh baru,” tulis peneliti MIT dalam sebuah posting blog. “Eksperimen pada inkorporasi pengetahuan dan generalisasi tembakan sedikit menunjukkan bahwa SEAL adalah langkah yang menjanjikan menuju model bahasa yang mampu beradaptasi secara mandiri dalam menanggapi data baru.”

Dalam pengujian awal, loop pengeditan mandiri ini memungkinkan model untuk berpindah dari kegagalan total ke keberhasilan pada teka-teki penalaran abstrak yang kompleks, mengungguli model yang jauh lebih besar seperti GPT-4.1 dengan tingkat keberhasilan 72,5 persen, di mana metode tradisional gagal. Selain itu, SEAL dilaporkan mengurangi pengawasan manusia sebesar 85 persen sambil meningkatkan akurasi dan adaptabilitas.

Munculnya Kerangka AI yang Mengajar Diri Sendiri

SEAL adalah bagian dari tren yang lebih luas menuju kecerdasan mesin otonom. Peneliti di Sakana AI, misalnya, telah memperkenalkan Darwin-Gödel Machine—sebuah agen AI yang menulis ulang kode mereka sendiri menggunakan strategi evolusioner terbuka.

“Mereka menciptakan berbagai perbaikan diri, seperti langkah validasi patch, tampilan file yang lebih baik, alat pengeditan yang ditingkatkan, menghasilkan dan mengurutkan beberapa solusi untuk memilih yang terbaik, dan menambahkan riwayat apa yang telah dicoba sebelumnya (dan mengapa itu gagal) ketika membuat perubahan baru,” tulis Sakana AI dalam sebuah posting blog.

Demikian pula, agen AI Anthropic, yang ditenagai oleh Claude 4, sekarang dapat mengatur alur kerja secara otonom di seluruh basis kode dan alat bisnis.

“Sistem yang mengkonfigurasi ulang dirinya sendiri berdasarkan jenis aset, lingkungannya, dan sejarahnya memungkinkan untuk berpindah dari respons reaktif ke strategi pencegahan terus-menerus,” kata Christian Struve, CEO dan co-pendiri Fracttal, kepada saya. “Ini bukan tentang lapisan yang lebih banyak atau parameter yang lebih banyak, tetapi sistem yang lebih otonom dan lebih berguna.”

Apa yang mempersatukan upaya ini adalah keyakinan inti: AI tidak perlu menjadi lebih besar untuk menjadi lebih pintar. Ini perlu menjadi lebih adaptif.

“Penskalaan telah membawa keuntungan besar, tetapi kita mencapai batas apa yang dapat dicapai oleh ukuran saja. Model pembelajaran yang dapat disesuaikan diri seperti SEAL menawarkan langkah berikutnya yang menarik dengan memungkinkan sistem untuk tumbuh dan memperbaiki diri mereka sendiri seiring waktu,” kata Jorge Riera, pendiri dan CEO platform konsultasi data full-stack Dataco, kepada saya. “Model yang berkembang sendiri juga menggeser metrik kemajuan dari benchmark statis ke ukuran adaptabilitas, efisiensi pembelajaran, dan perbaikan jangka panjang yang aman. Alih-alih hanya menguji apa yang diketahui model pada saat penerapan, kita dapat mengevaluasi seberapa baik model tersebut belajar, mempertahankan, dan berkembang seiring waktu.”

Dampak pada Ekosistem AI dan Perlombaan Global Menuju Otonomi

Tingkat otonomi ini juga menulis ulang ekonomi penerapan AI. Bayangkan sistem deteksi penipuan yang memperbarui diri mereka sendiri secara instan untuk menghadapi ancaman baru, atau tutor AI yang mengubah gaya mengajar mereka berdasarkan perilaku siswa. Dalam robotika, kerangka yang dapat disesuaikan diri sendiri dapat mengarah pada mesin otonom yang belajar pola gerakan baru tanpa perlu diprogram ulang.

Di seluruh Timur Tengah, negara-negara seperti UAE dan Arab Saudi sedang membangun model dasar yang dirancang untuk adaptasi. Falcon UAE dan Jais G42 adalah model bahasa besar sumber terbuka yang dibangun dengan mempertimbangkan relevansi regional, sementara Arab Saudi ALLaM dan Aramco Digital Metabrain memasuki ranah agen AI otonom untuk kota pintar, kesehatan, dan logistik.

Upaya ini belum setara dengan kemampuan pengeditan mandiri SEAL, tetapi mereka mencerminkan trajektori yang sama: dari sistem AI pasif ke agen yang aktif dan berkembang yang dapat menavigasi kompleksitas dengan bimbingan manusia yang terbatas. Dan sama seperti SEAL, inisiatif ini didukung oleh kerangka tata kelola yang kuat, menyoroti kesadaran yang meningkat bahwa otonomi AI harus dipasangkan dengan tanggung jawab.

“Ini adalah langkah pertama menuju sistem yang mengelola diri sendiri yang dapat memodifikasi logika mereka tanpa intervensi konstan,” kata Struve. “Saya percaya bahwa kecerdasan buatan tidak meredefinisi apa itu kecerdasan, tetapi itu memaksa kita untuk memikirkan kembali hubungan kita dengan itu. Hal yang penting bukanlah bahwa model berkembang, tetapi bahwa itu dilakukan sesuai dengan tujuan yang kita tetapkan sebagai manusia.”

Jeff Townes, CTO Gorilla Logic, juga menekankan pentingnya tata kelola yang mengikuti evolusi AI: “Pertanyaannya bukanlah apakah AI dapat berkembang—itu adalah apakah perusahaan dapat berkembang dengannya. Tata kelola harus mengaitkan setiap adaptasi AI dengan hasil yang jelas dan KPI yang dapat diukur dan dipercaya oleh pemimpin, sehingga inovasi berkembang dengan kepercayaan daripada risiko.”

Apakah Kita Siap untuk AI yang Menulis Ulang Diri Sendiri?

Pertanyaan paling provokatif yang diajukan SEAL bukanlah teknis—itu adalah bahwa jika model dapat memutuskan bagaimana mengajar diri mereka sendiri, apa peran kita dalam membentuk nilai, prioritas, dan arah mereka?

Para ahli memperingatkan bahwa ketika sistem AI yang dapat disesuaikan diri sendiri mendapatkan otonomi, dorongan menuju perbaikan diri sendiri tidak boleh melampaui pembentukan pengaman etika. “Saya percaya bahwa semua sistem AI harus memasukkan setidaknya tiga prinsip etika dasar,” kata Jacob Evans, CTO Kryterion.

“Pertama, dan ini mungkin tidak perlu disebutkan, tetapi AI perlu mengidentifikasi diri mereka sebagai AI. Kedua, AI harus berpusat pada manusia, melengkapi dan tidak menggantikan penilaian manusia. Dan terakhir, mereka harus mengakui keterbatasan dan ketidakpastian mereka, serta menolak untuk memberikan informasi yang dapat memfasilitasi kerusakan serius. Tanpa pengaman ini, AI dapat menjadi alat manipulasi daripada dukungan yang dapat diandalkan.”

“Untuk memungkinkan model untuk memperbaiki diri mereka sendiri dalam produksi, mereka memerlukan loop umpan balik dinamis, bukan hanya pelatihan statis. Metode yang kuat adalah menggunakan ‘digital twin’ atau lingkungan sandbox yang canggih di mana AI dapat dengan aman menguji dan memvalidasi perbaikan yang dihasilkan sendiri sebelum mereka diterapkan kepada pengguna,” bagikan Ganesh Vanama, Insinyur Visi Komputer di Automotus.

Mengenai tata kelola, Vanama menambahkan, “kendali yang tidak dapat dinegosiasikan adalah pengawasan ‘manusia-dalam-loop’.” Ia mengatakan bahwa sementara kita ingin model untuk beradaptasi, “Anda harus memiliki pemantauan terus-menerus untuk mendeteksi ‘drift keselarasan’ di mana model menyimpang dari tujuan atau batasan keamanan yang dimaksud. Sistem ini harus memberikan kekuatan kepada auditor manusia untuk membatalkan atau mengembalikan secara instan setiap pembaruan otonom yang gagal dalam tinjauan keamanan atau kinerja.”

Namun, para ahli lain percaya bahwa masih ada waktu untuk mengembangkan pengaman ini, dengan alasan bahwa membangun AI yang benar-benar kuat, umum, dan dapat memperbaiki diri sendiri masih merupakan tantangan monumen.

“Model seperti itu masih kekurangan kemampuan untuk meretas ulang diri mereka sendiri secara real-time. Tantangan kunci masih ada, termasuk mencegah penguatan kesalahan, menghindari penghapusan bencana, memastikan stabilitas selama pembaruan, dan mempertahankan transparansi sekitar perubahan internal,” kata Riera. “Sampai itu ditangani, adaptasi mandiri penuh masih merupakan frontier daripada kenyataan.”

Peneliti MIT melihat SEAL sebagai evolusi yang diperlukan. Seperti yang dikatakan salah satu ilmuwan utama MIT, kerangka ini saat ini hanya mencerminkan pembelajaran manusia lebih dekat daripada apa pun yang telah datang sebelumnya.

“Sistem ini mengisyaratkan pergeseran dari model statis, satu-shot ke arsitektur adaptif yang dapat belajar dari pengalaman, mengelola memori, dan mengejar tujuan seiring waktu. Arahnya jelas: menuju kecerdasan modular, sadar konteks yang dapat menyesuaikan diri secara terus-menerus,” kata Riera kepada saya. “Meskipun masih dalam fase eksperimental, pendekatan ini menandai langkah berarti menuju sistem AI yang lebih otonom dan tangguh.”

Apakah ini akan mengarah pada sistem yang lebih personal atau bentuk keagenan mesin yang sama sekali baru masih belum jelas. Era AI yang mengajar diri sendiri telah tiba—dan itu tidak hanya menulis ulang kode mereka sendiri, tetapi juga menulis ulang aturan tentang apa yang dapat menjadi mesin.

Victor Dey adalah seorang editor dan penulis teknologi yang meliput A.I., crypto, data science, metaverse, dan cybersecurity dalam ranah perusahaan. Ia memiliki setengah dekade pengalaman media dan AI bekerja di outlet media terkenal seperti VentureBeat, Metaverse Post, Observer, dan lain-lain. Victor telah menjadi mentor bagi pendiri mahasiswa di program akselerator di universitas terkemuka termasuk University of Oxford dan University of Southern California, dan memegang gelar Master di bidang data science dan analitik.