Kecerdasan buatan
LLMs Bukan Alasan—Mereka Hanya Sangat Baik dalam Perencanaan
Model bahasa besar (LLMs) seperti OpenAI’s o3, Google’s Gemini 2.0, dan DeepSeek’s R1 telah menunjukkan kemajuan yang luar biasa dalam menangani masalah yang kompleks, menghasilkan teks yang mirip dengan manusia, dan bahkan menulis kode dengan presisi. LLMs canggih ini sering disebut sebagai “model alasan” karena kemampuan mereka yang luar biasa dalam menganalisis dan memecahkan masalah yang kompleks. Tapi, apakah model ini sebenarnya beralasan, atau mereka hanya sangat baik dalam perencanaan? Perbedaan ini sangat halus namun mendalam, dan memiliki implikasi yang signifikan bagi bagaimana kita memahami kemampuan dan keterbatasan LLMs.
Untuk memahami perbedaan ini, mari kita bandingkan dua skenario:
- Alasan: Seorang detektif yang menyelidiki kejahatan harus menyatukan bukti yang bertentangan, menyimpulkan yang salah, dan mencapai kesimpulan berdasarkan bukti yang terbatas. Proses ini melibatkan inferensi, resolusi kontradiksi, dan pemikiran abstrak.
- Perencanaan: Seorang pemain catur yang menghitung urutan gerakan terbaik untuk mematikan lawan.
Sementara kedua proses ini melibatkan beberapa langkah, detektif terlibat dalam alasan yang mendalam untuk membuat inferensi, mengevaluasi kontradiksi, dan menerapkan prinsip umum pada kasus tertentu. Pemain catur, di sisi lain, terutama terlibat dalam perencanaan, memilih urutan gerakan yang optimal untuk memenangkan permainan. LLMs, seperti yang kita lihat, berfungsi lebih seperti pemain catur daripada detektif.
Memahami Perbedaan: Alasan vs. Perencanaan
Untuk menyadari mengapa LLMs baik dalam perencanaan daripada alasan, penting untuk memahami perbedaan antara kedua istilah tersebut. Alasan adalah proses menghasilkan kesimpulan baru dari premis yang diberikan menggunakan logika dan inferensi. Ini melibatkan mengidentifikasi dan memperbaiki inkonsistensi, menghasilkan wawasan baru daripada hanya memberikan informasi, membuat keputusan dalam situasi yang ambigu, dan terlibat dalam pemahaman sebab-akibat dan pemikiran kontrafaktual seperti skenario “Bagaimana jika?”.
Perencanaan, di sisi lain, fokus pada struktur urutan tindakan untuk mencapai tujuan tertentu. Ini bergantung pada memecah tugas yang kompleks menjadi langkah-langkah yang lebih kecil, mengikuti strategi pemecahan masalah yang diketahui, menyesuaikan pola yang dipelajari sebelumnya dengan masalah yang serupa, dan mengeksekusi urutan yang terstruktur daripada menghasilkan wawasan baru. Sementara alasan dan perencanaan keduanya melibatkan pemrosesan langkah demi langkah, alasan memerlukan abstraksi dan inferensi yang lebih dalam, sedangkan perencanaan mengikuti prosedur yang mapan tanpa menghasilkan pengetahuan yang fundamental baru.
Bagaimana LLMs Mendekati “Alasan”
LLMs modern, seperti OpenAI’s o3 dan DeepSeek-R1, dilengkapi dengan teknik yang dikenal sebagai Chain-of-Thought (CoT) alasan, untuk meningkatkan kemampuan pemecahan masalah mereka. Metode ini mendorong model untuk memecah masalah menjadi langkah-langkah intermediate, meniru cara manusia berpikir secara logis. Untuk melihat bagaimana itu bekerja, pertimbangkan masalah matematika sederhana:
Jika sebuah toko menjual apel seharga $2 masing-masing tetapi menawarkan diskon $1 per apel jika Anda membeli lebih dari 5 apel, berapa biaya 7 apel?
LLM yang khas menggunakan CoT prompting mungkin menyelesaikannya seperti ini:
- Menentukan harga reguler: 7 * $2 = $14.
- Mengidentifikasi bahwa diskon berlaku (karena 7 > 5).
- Menghitung diskon: 7 * $1 = $7.
- Mengurangi diskon dari total: $14 – $7 = $7.
Dengan secara eksplisit menguraikan urutan langkah, model meminimalkan kemungkinan kesalahan yang timbul dari mencoba memprediksi jawaban dalam satu langkah. Sementara pemecahan langkah demi langkah ini membuat LLMs tampak seperti alasan, itu sebenarnya merupakan bentuk pemecahan masalah yang terstruktur, mirip dengan mengikuti resep langkah demi langkah. Di sisi lain, proses alasan yang sebenarnya mungkin mengenali aturan umum: Jika diskon berlaku di luar 5 apel, maka setiap apel seharga $1. Manusia dapat menyimpulkan aturan seperti itu segera, tetapi LLM tidak dapat melakukannya karena hanya mengikuti urutan yang terstruktur dari perhitungan.
Mengapa Chain-of-Thought Bukan Alasan, Melainkan Perencanaan
Sementara Chain-of-Thought (CoT) telah meningkatkan kinerja LLMs pada tugas yang berorientasi logika seperti masalah kata matematika dan tantangan pengkodean, itu tidak melibatkan alasan logis yang sebenarnya. Ini karena CoT mengikuti pengetahuan prosedural, bergantung pada langkah-langkah yang terstruktur daripada menghasilkan wawasan baru. Ini kekurangan pemahaman yang sebenarnya tentang kausalitas dan hubungan abstrak, yang berarti model tidak terlibat dalam pemikiran kontrafaktual atau mempertimbangkan situasi hipotetis yang memerlukan intuisi di luar data yang telah dilihat. Selain itu, CoT tidak dapat secara fundamental mengubah pendekatannya di luar pola yang telah dipelajari, membatasi kemampuannya untuk beralasan secara kreatif atau beradaptasi dalam skenario yang tidak biasa.
Apa yang Dibutuhkan LLMs untuk Menjadi Mesin Alasan yang Sebenarnya
Jadi, apa yang dibutuhkan LLMs untuk benar-benar beralasan seperti manusia? Berikut beberapa area kunci di mana mereka memerlukan perbaikan dan pendekatan potensial untuk mencapainya:
- Pemahaman Simbolik: Manusia beralasan dengan memanipulasi simbol abstrak dan hubungan. LLMs, bagaimanapun, kekurangan mekanisme alasan simbolik yang sebenarnya. Mengintegrasikan AI simbolik atau model hibrida yang menggabungkan jaringan saraf dengan sistem logika formal dapat meningkatkan kemampuan mereka untuk terlibat dalam alasan yang sebenarnya.
- Inferensi Kausal: Alasan yang sebenarnya memerlukan pemahaman tentang sebab dan akibat, bukan hanya korelasi statistik. Model yang beralasan harus menyimpulkan prinsip-prinsip yang mendasarinya dari data daripada hanya memprediksi token berikutnya. Penelitian tentang AI kausal, yang secara eksplisit memodelkan hubungan sebab-akibat, dapat membantu LLMs beralih dari perencanaan ke alasan.
- Refleksi Diri dan Metakognisi: Manusia terus-menerus mengevaluasi proses berpikir mereka sendiri dengan bertanya “Apakah kesimpulan ini masuk akal?” LLMs, di sisi lain, tidak memiliki mekanisme untuk refleksi diri. Membangun model yang dapat secara kritis mengevaluasi output mereka sendiri akan menjadi langkah menuju alasan yang sebenarnya.
- Common Sense dan Intuisi: Meskipun LLMs memiliki akses ke sejumlah besar pengetahuan, mereka sering bergelut dengan alasan yang paling umum. Ini terjadi karena mereka tidak memiliki pengalaman dunia nyata untuk membentuk intuisi mereka, dan mereka tidak dapat dengan mudah mengenali kekonyolan yang akan dipahami oleh manusia segera. Mereka juga kekurangan cara untuk membawa dinamika dunia nyata ke dalam pengambilan keputusan mereka. Salah satu cara untuk memperbaiki ini bisa dengan membangun model dengan mesin common sense, yang mungkin melibatkan integrasi input sensorik dunia nyata atau menggunakan grafik pengetahuan untuk membantu model memahami dunia dengan cara yang sama seperti manusia.
- Pemikiran Kontrafaktual: Alasan manusia sering melibatkan pertanyaan, “Bagaimana jika hal-hal berbeda?” LLMs bergelut dengan skenario “bagaimana jika” karena mereka terbatas oleh data yang telah mereka pelajari. Untuk model berpikir lebih seperti manusia dalam situasi ini, mereka perlu mensimulasikan skenario hipotetis dan memahami bagaimana perubahan variabel dapat mempengaruhi hasil. Mereka juga perlu memiliki cara untuk menguji kemungkinan yang berbeda dan menghasilkan wawasan baru, bukan hanya memprediksi berdasarkan apa yang telah mereka lihat. Tanpa kemampuan ini, LLMs tidak dapat benar-benar membayangkan masa depan alternatif—mereka hanya dapat bekerja dengan apa yang telah mereka pelajari.
Kesimpulan
Sementara LLMs mungkin tampak beralasan, mereka sebenarnya bergantung pada teknik perencanaan untuk memecahkan masalah yang kompleks. Baik itu memecahkan masalah matematika atau terlibat dalam deduksi logis, mereka terutama mengatur pola yang diketahui dalam cara yang terstruktur daripada memahami prinsip-prinsip yang mendasarinya. Perbedaan ini sangat penting dalam penelitian AI karena jika kita salah menganggap perencanaan yang canggih sebagai alasan yang sebenarnya, kita berisiko untuk mengoverestimasi kemampuan AI yang sebenarnya.
Jalan menuju alasan AI yang sebenarnya akan memerlukan kemajuan yang mendasar di luar prediksi token dan perencanaan probabilistik. Ini akan menuntut kemajuan dalam logika simbolik, pemahaman kausal, dan metakognisi. Sampai saat itu, LLMs akan tetap menjadi alat yang kuat untuk pemecahan masalah yang terstruktur, tetapi mereka tidak akan benar-benar berpikir seperti manusia.












