Yapay Zekâ
Meta’nın COCONUT’u: Dili Olmadan Düşünen AI Yöntemi

Araştırmacılar ilk olarak büyük dil modellerinin (LLM) zincir düşünce yönergeleri yoluyla adım adım “düşünabileceğini” keşfettiklerinde, bu bir kırılma anıydı – nihayet bu kara kutuların nedeningsel sürecine göz atabiliyorduk. Ancak size AI modellerinin doğal dilde düşünmesi onlara engel olabileceğini söylesem ne dersiniz?
Meta ve UC San Diego’daki araştırmacılar yeni COCONUT (Sürekli Düşünce Zinciri) yöntemi ile bunu keşfettiler.
Karmaşık bir matematik problemi çözmeye çalışırken her adımdan bahsetmeniz gerektiğini hayal edin. Sinir bozucu, değil mi? Şimdi AI modellerinin karşılaştığı temel zorluğu anlamaya yakınlaşıyorsunuz.
AI modellerini doğal dil yoluyla neden olduğumuzda:
- Ürettikleri çoğu token sadece dilbilimsel yapıştırıcı – “sonra”, “sonra” ve “sonuç olarak” gibi kelimeler, hiçbir nedeningsel değer eklemiyor
- Kritik karar noktaları, belirli kelimelere bağlı olmak zorunda kalıyor
- Model, gerçek problem çözme yerine dilbilimsel tutarlılığı korumaya önemli hesaplama çabası harcıyor
Araştırmacılar nörogörüntüleme çalışmalarında ilginç bir şey buldular: insanların karmaşık nedeningsel görevleri çözdüklerinde, beyinlerinin dil merkezleri genellikle şaşırtıcı bir şekilde sessiz kalıyor. Ancak biz AI sistemlerini tam tersi şekilde inşa ettik – her nedeningsel adımı kelimelere çevirmeye zorluyoruz.
Bir puzzle nasıl çözersiniz? Aklınız muhtemelen aynı anda birden fazla olasılığı keşfeder, belirsiz hipotezler tutar ve sadece düşüncelerinizi paylaşmak için onları dile dönüştürür. Ancak geleneksel zincir düşünce yaklaşımları AI modellerinin her ara adımını söylemeye zorlar, bu da “dilsel tıkanıklık” yaratır.
Bu anlayış, bizi cezbedici bir soruya götürdü: AI modellerini doğal “dillerinde” – gizli durumlarının sürekli, yüksek boyutlu alanında – düşünmeye izin verebilirsek neler olur?
COCONUT’un Yeniliğini Anlamak
Düşüncelerinizi yüksek sesle söylemek ile beyninizdeki gerçek zihinsel süreç arasındaki farkı düşünün. Bu fark – sözel düşünceler ve nöral aktivite arasındaki boşluk – tam da Meta’nın araştırmacılarının COCONUT ile temas ettiği şey.
COCONUT’un gerçek yeniliği, AI modellerinin insanların yaptığı gibi iki farklı şekilde düşünmesine izin vermesidir. Karmaşık bir puzzle çözmeye çalıştığınızı düşünün – her olası hamleyi yüksek sesle anlatmıyorsunuz, değil mi? Bunun yerine:
- Sorunu Anlamak: Bilgiyi alıyorsunuz (puzzle kurallarını okumak gibi)
- Sessiz Düşünmek: Beyniniz kelimelere dökmeden birden fazla olasılığı keşfediyor
- Çözümü Paylaşmak: Sadece o zaman düşüncelerinizi başkalarına açıklıyorsunuz
COCONUT, AI modellerine aynı doğal esnekliği veriyor. Geleneksel yöntemlerin yaptığı gibi her düşünceyi yüksek sesle söylemeye zorlamak yerine, onları doğal nöral alanlarında düşünmeye izin veriyor – araştırmacılar buna “örtük alan” diyor.
Model, iki mod arasında sorunsuz bir şekilde geçiş yapıyor:
- Soruları anlamak veya cevaplar vermek için düzenli dili kullanıyor
- Ancak gerçek düşünme süreci için? Saf nöral kalıpları kullanıyor, kelimelerin kısıtlamalarından özgür

Resim: Meta
Eğitim Yolculuğu
COCONUT’un en ilginç yönlerinden biri eğitim müfredatı. Bu özel olan şey, doğal öğrenme ilerlemesini nasıl yansıttığıdır. Karmaşık becerileri nasıl öğrettiğimizi düşünün – hemen derin uca atlamazsınız. Gradually, complexity eklersiniz, her seviyeyi ustalaştıkça.
Araştırmacılar COCONUT ile tam olarak bunu yaptılar:
1. Aşama: Temel
İlk olarak, model geleneksel zincir düşünce nedeningsi yoluyla öğrenir. Bu, sağlam bir temel anlayış sağlar.
2. Aşama: Geçiş
Burada ilginç olan şey. Yazılı nedeningsel adımlar yavaş yavaş sürekli düşüncelerle değiştirilir. Eğitim tekerleklerinin yavaşça çıkarılmasını, modelin kendi iç düşünce kalıplarını geliştirmesine izin verin.
3. Aşama: Denge
Son olarak, model derin düşünceyi örtük alanda ve net dille iletişim kurma arasında sorunsuz bir şekilde geçiş yapmayı öğrenir.
Eğitim sırasında model, hiç kimsenin açıkça programlamadığı yetenekler geliştirdi – birden fazla nedeningsel yolu aynı anda düşünmek gibi. Bu ortaya çıkan davranış özellikle heyecan verici çünkü daha doğal AI nedeningsi formlarına yaklaşabileceğimizi gösteriyor. Bu beklenmedik gelişmeler genellikle en büyük atılımlara yol açıyor.
Daha önce bahsettiğim nörogörüntüleme çalışmaları, insan beyinlerinin karmaşık nedeningsel görevleri dil merkezlerini yoğun olarak kullanmadan işlediğini gösterdi. COCONUT benzer kalıplar geliştiriyor gibi görünüyor – derin düşünceyi doğal nöral alanında yapıyor ve sadece iletişim için dile dönüştürüyor.
Rakamlar Bir Hikaye Anlatıyor
Araştırmadan birkaç önemli bulgu öne çıkıyor:
- Matematik Kelime Problemleri (GSM8k): Burada COCONUT %34,1 doğruluk elde etti. Geleneksel Zincir Düşünce (%42,9) altında kalmasına rağmen, temel yaklaşimlardan önemli ölçüde daha iyidir.
- Mantıksal Çıkarım (ProntoQA): COCONUT %99,8 doğruluk elde etti, geleneksel Zincir Düşünce’nin %98,8’ini geçerek. Ancak buradaki önemli nokta – bunu sadece 9 token kullanarak yaptı, geleneksel Zincir Düşünce 92,5 token kullanmıştı.
- Karmaşık Planlama (ProsQA): En etkileyici sonuçlar, gelişmiş nedeningsel testten geldi. COCONUT %97 doğruluk elde etti, geleneksel yöntemler ise %77,5’e ulaştı. Ve yine, bunu şaşırtıcı bir verimlilikle yaptı – 14,2 token, geleneksel yöntemlerin 49,4 tokenine karşı.
Bu sonuçların umut verici olmasının nedeni, sadece ham sayılar değil, farklı düşünce türleri hakkında neler ortaya koydukları. COCONUT, matematiksel nedeningsel ile hala zemin kazanıyorken, karmaşık mantıksal planlama ve çıkarım görevlerinde öne çıkıyor.
COCONUT, AI sistemlerinin nasıl nedeningsel yapabileceği konusunda temel bir yeniden düşünceyi temsil ediyor ve daha doğal, verimli ve güçlü AI formlarına doğru bizi daha da yaklaştırıyor. Dilden sürekli düşünceye yolculuk, daha yetenekli ve verimli AI sistemlerine doğru bir adımdır.












