مصنوعی ذہانت
میٹا کا ناریل: AI طریقہ جو بغیر زبان کے سوچتا ہے۔

جب محققین نے پہلی بار دریافت کیا کہ بڑے لینگویج ماڈل (LLMs) قدم بہ قدم "سوچ" سکتے ہیں۔ چین کی سوچ کی حوصلہ افزائی، یہ ایک پیش رفت کا لمحہ تھا – آخر کار، ہم ان بلیک باکسز کے استدلال کے عمل میں جھانک سکتے ہیں۔ لیکن کیا ہوگا اگر میں نے آپ کو بتایا کہ AI ماڈلز کو فطری زبان میں سوچنا ان کو روک سکتا ہے؟
میٹا اور یو سی سان ڈیاگو کے محققین نے ان کے ساتھ یہی دریافت کیا ہے۔ نیا کوکونٹ (مسلسل سوچ کا سلسلہ) طریقہ.
تصور کریں کہ ریاضی کے ایک پیچیدہ مسئلے کو حل کرنے کی کوشش کر رہے ہیں جبکہ ہر ایک قدم کو بلند آواز میں بیان کرنے پر مجبور کیا جا رہا ہے۔ پریشان کن، ٹھیک ہے؟ اب آپ اس بنیادی چیلنج کو سمجھنے کے قریب پہنچ رہے ہیں جس کا زبان کے ماڈلز کو سامنا ہے۔
جب ہم AI ماڈلز کو قدرتی زبان کے ذریعے استدلال بناتے ہیں:
- زیادہ تر ٹوکن جو وہ تیار کرتے ہیں وہ صرف لسانی گلو ہوتے ہیں - الفاظ جیسے "لہذا،" "اگلا،" اور "نتیجتاً" جو صفر استدلال کی قدر کا اضافہ کرتے ہیں۔
- اہم فیصلے کے نکات مخصوص الفاظ کے پابند ہونے کی ضرورت کی وجہ سے رکاوٹ بن جاتے ہیں۔
- ماڈل اصل مسئلہ حل کرنے کے بجائے گرائمیکل ہم آہنگی کو برقرار رکھنے پر اہم کمپیوٹیشنل کوشش خرچ کرتا ہے
محققین نے اپنے نیورو امیجنگ اسٹڈیز میں کچھ دلچسپ پایا: جب انسان پیچیدہ استدلال کے کاموں سے نمٹتے ہیں، تو ہمارے دماغ کے زبان کے مراکز اکثر حیرت انگیز طور پر خاموش رہتے ہیں۔ اس کے باوجود ہم ایسے AI سسٹم بنا رہے ہیں جو اس کے برعکس کام کرتے ہیں – انہیں ہر استدلال کے قدم کو الفاظ میں ترجمہ کرنے پر مجبور کرتے ہیں۔
اس بارے میں سوچیں کہ آپ ایک پہیلی کو کیسے حل کرتے ہیں۔ آپ کا دماغ ممکنہ طور پر بیک وقت متعدد امکانات کو تلاش کرتا ہے، مبہم مفروضوں کو برقرار رکھتا ہے، اور حل کا اشتراک کرتے وقت اپنے خیالات کو زبان میں صرف کرسٹالائز کرتا ہے۔ لیکن روایتی سلسلہ فکری نقطہ نظر AI ماڈلز کو ہر درمیانی قدم کو زبانی بیان کرنے پر مجبور کرتا ہے، جس سے "لسانی رکاوٹ" پیدا ہوتی ہے۔
اس بصیرت نے ایک مجبور سوال پیدا کیا: کیا ہوگا اگر ہم AI ماڈلز کو ان کی مادری "زبان" میں استدلال کرنے دیں - ان کی پوشیدہ ریاستوں کی مسلسل، اعلیٰ جہتی جگہ - بجائے اس کے کہ وہ ہر چیز کو ٹوکن میں ترجمہ کرنے پر مجبور کریں؟
کوکونٹ کی اختراع کو سمجھنا
اپنے خیالات کو اونچی آواز میں کہنے اور آپ کے دماغ میں ہونے والے حقیقی ذہنی عمل کے درمیان فرق کی تصویر بنائیں۔ وہ فرق - زبانی خیالات اور اعصابی سرگرمی کے درمیان - بالکل وہی ہے جو میٹا کے محققین نے کوکونٹ کے ساتھ حاصل کیا۔
COCONUT کی اصل کامیابی یہ ہے کہ یہ کس طرح AI ماڈلز کو دو الگ الگ طریقوں سے سوچنے دیتا ہے، جیسا کہ انسان کرتے ہیں۔ اس بارے میں سوچیں کہ آپ کب ایک پیچیدہ پہیلی کو حل کر رہے ہیں – آپ اپنے سر میں ہر ممکنہ حرکت کو بیان نہیں کرتے، ٹھیک ہے؟ اس کے بجائے، آپ:
- مسئلہ کو جذب کریں۔: آپ معلومات لیتے ہیں (جیسے پہیلی کے اصول پڑھنا)
- خاموشی سے سوچیں۔: آپ کا دماغ متعدد امکانات کو الفاظ میں ڈالے بغیر تلاش کرتا ہے۔
- حل شیئر کریں۔: تبھی آپ دوسروں کو اپنی سوچ سمجھاتے ہیں۔
COCONUT AI ماڈلز کو وہی قدرتی لچک دیتا ہے۔ انہیں ہر سوچ کو اونچی آواز میں "بولنے" پر مجبور کرنے کے بجائے (جیسے روایتی طریقے کرتے ہیں)، یہ انہیں اپنی فطری اعصابی جگہ میں سوچنے دیتا ہے - جسے محققین "اویکت جگہ" کہتے ہیں۔
ماڈل آسانی سے دو طریقوں کے درمیان سوئچ کرتا ہے:
- جب اسے سوالات کو سمجھنے یا جواب دینے کی ضرورت ہوتی ہے تو یہ باقاعدہ زبان استعمال کرتا ہے۔
- لیکن اصل سوچ کے عمل کے لیے؟ یہ الفاظ کی پابندیوں سے پاک خالص اعصابی نمونوں کا استعمال کرتا ہے۔

تصویر: میٹا
تربیتی سفر
COCONUT کے سب سے دلچسپ پہلوؤں میں سے ایک اس کا تربیتی نصاب ہے۔ جو چیز اس کو خاص بناتی ہے وہ یہ ہے کہ یہ کس طرح قدرتی سیکھنے کی ترقی کا آئینہ دار ہے۔ اس بارے میں سوچیں کہ ہم کس طرح پیچیدہ ہنر سکھاتے ہیں – آپ کسی کو فوری طور پر گہرے سرے میں نہیں پھینکتے ہیں۔ آپ آہستہ آہستہ تعمیر کرتے ہیں، پیچیدگی کو شامل کرتے ہیں کیونکہ وہ ہر سطح پر عبور حاصل کرتے ہیں۔
محققین نے کوکونٹ کے ساتھ یہ صحیح طریقہ اختیار کیا:
مرحلہ 1: فاؤنڈیشن
سب سے پہلے، ماڈل کسی بھی دوسرے AI کی طرح سیکھتا ہے - روایتی چین کی سوچ کے استدلال کے ذریعے۔ اس سے اسے ٹھوس بنیاد کی سمجھ ملتی ہے۔
مرحلہ 2: منتقلی۔
یہ وہ جگہ ہے جہاں یہ دلچسپ ہو جاتا ہے۔ آہستہ آہستہ، وہ تحریری استدلال کے اقدامات مسلسل خیالات سے بدل جاتے ہیں۔ تربیت کے پہیوں کو آہستہ آہستہ ہٹانے کا تصور کریں، ماڈل کو اپنے اندرونی سوچ کے نمونے تیار کرنے دیں۔
مرحلہ 3: توازن
آخر میں، ماڈل اویکت جگہ میں گہری سوچ اور اپنی بصیرت کو واضح زبان میں بتانے کے درمیان بغیر کسی رکاوٹ کے بدلنا سیکھتا ہے۔
ٹریننگ کے دوران، ماڈل نے ایسی صلاحیتیں پیدا کیں جو کسی نے بھی واضح طور پر پروگرام نہیں کیں – جیسے بیک وقت متعدد استدلال کے راستوں پر غور کرنا۔ یہ ابھرتا ہوا رویہ خاص طور پر پرجوش ہے کیونکہ اس سے پتہ چلتا ہے کہ شاید ہم AI استدلال کی مزید فطری شکلوں کے قریب ہو رہے ہیں۔ یہ غیر متوقع پیش رفت ہے جو اکثر بڑی کامیابیوں کا باعث بنتی ہے۔
وہ نیورو امیجنگ اسٹڈیز یاد ہیں جن کا میں نے پہلے ذکر کیا تھا؟ انہوں نے یہ ظاہر کیا کہ انسانی دماغ اکثر پیچیدہ استدلال کے کاموں کو بھاری بھرکم زبان کے مراکز کے بغیر پروسس کرتے ہیں۔ ایسا لگتا ہے کہ COCONUT اسی طرح کے نمونے تیار کر رہا ہے - اپنی مقامی عصبی جگہ میں گہرائی سے سوچنا اور صرف اس وقت زبان میں تبدیل ہوتا ہے جب مواصلات کی ضرورت ہو۔
نمبرز ایک کہانی سناتے ہیں۔
تحقیق سے چند اور اہم نتائج سامنے آتے ہیں:
- ریاضی کے الفاظ کے مسائل (GSM8k): یہاں، COCONUT نے 34.1% درستگی حاصل کی۔ اگرچہ یہ روایتی چین آف تھاٹ (42.9%) سے نیچے آتا ہے، لیکن یہ بنیادی نقطہ نظر سے نمایاں طور پر بہتر ہے۔
- منطقی کٹوتی (ProntoQA): COCONUT نے 99.8% درستگی حاصل کی، روایتی چین آف تھاٹ کے 98.8% کو پیچھے چھوڑ دیا۔ لیکن یہاں ککر ہے - اس نے CoT کے 9 کے مقابلے میں صرف 92.5 ٹوکن استعمال کرتے ہوئے ایسا کیا۔
- پیچیدہ منصوبہ بندی (ProsQA): اس جدید استدلال کے امتحان سے سب سے زیادہ متاثر کن نتائج آئے۔ COCONUT نے 97% درستگی حاصل کی جبکہ روایتی طریقے صرف 77.5% تک پہنچ گئے۔ اور پھر، اس نے یہ کام قابل ذکر کارکردگی کے ساتھ کیا - 14.2 ٹوکن بمقابلہ 49.4۔
جو چیز ان نتائج کو امید افزا بناتی ہے وہ صرف خام تعداد نہیں ہے - یہ وہی ہے جو وہ مختلف قسم کی سوچ کے بارے میں ظاہر کرتے ہیں۔ اگرچہ COCONUT اب بھی ریاضیاتی استدلال کے ساتھ اپنی بنیاد تلاش کر رہا ہے، لیکن یہ پیچیدہ منطقی منصوبہ بندی اور کٹوتی کی ضرورت کے کاموں میں سبقت لے جاتا ہے۔
COCONUT ایک بنیادی نظر ثانی کی نمائندگی کرتا ہے کہ AI نظام کس طرح استدلال کر سکتا ہے، اور یہ ہمیں مصنوعی ذہانت کی زیادہ قدرتی، موثر اور طاقتور شکلوں کے قریب لے جاتا ہے۔ زبان پر مبنی استدلال سے مسلسل سوچ تک کا سفر زیادہ قابل اور موثر AI نظام کی طرف ایک قدم ہے۔