مصنوعی ذہانت
بڑی زبان کے ماڈلز میں شارٹر ریزننگ چینز کے ساتھ AI کی کارکردگی کو بڑھانا

بڑی زبان کے ماڈلز (LLMs) تبدیل کر دیا ہے مصنوعی انٹیلیجنس (AI) انسان نما متن تیار کرکے اور مختلف صنعتوں میں پیچیدہ مسائل کو حل کرکے۔ سالوں کے لئے، AI ماہرین کا خیال ہے کہ طویل اور زیادہ تفصیلی استدلال کی زنجیریں اعلی درستگی کی قیادت کریں گے. مفروضہ یہ تھا کہ مزید اقدامات کے نتیجے میں بہتر اور زیادہ قابل اعتماد جوابات ملیں گے۔
تاہم، ایک 2025 مطالعہ کی طرف سے میٹا کی FAIR ٹیم اور یروشلم کی عبرانی یونیورسٹی نے اس عقیدے پر سوال اٹھایا ہے۔ تحقیق سے پتہ چلا کہ مختصر استدلال کی زنجیریں LLM کی درستگی کو 34.5% تک بہتر بنا سکتا ہے۔ ایک ہی وقت میں، انہوں نے کمپیوٹیشنل اخراجات میں 40% تک کمی کی۔ اس تلاش سے پتہ چلتا ہے کہ جامع، مرکوز استدلال پروسیسنگ کو تیز کرتا ہے۔ ان نتائج سے مستقبل میں LLMs کی تربیت، تعیناتی، اور اسکیلنگ میں تبدیلی کی توقع ہے۔
AI میں مختصر استدلال کی زنجیریں کیوں اہمیت رکھتی ہیں۔
ایک طویل عرصے سے، یہ خیال کیا جا رہا تھا کہ AI ماڈلز میں طویل استدلال کی زنجیریں بہتر نتائج کا باعث بنیں گی۔ اس خیال کے پیچھے منطق سادہ تھی: ایک AI ماڈل جتنے زیادہ قدم اٹھاتا ہے، اتنی ہی زیادہ معلومات پر کارروائی ہوگی۔ یہ اضافی پروسیسنگ زیادہ درست حل پیدا کرنے کے امکانات کو بڑھانے کے بارے میں سوچا گیا تھا۔ نتیجے کے طور پر، ماڈل کی کارکردگی کو بہتر بنانے کے مقصد سے استدلال کے اقدامات کی تعداد کو زیادہ سے زیادہ کرنے کے لیے بہت سے AI سسٹمز تیار کیے گئے۔
تاہم، اس نقطہ نظر میں کئی اہم حدود ہیں. طویل استدلال کی زنجیروں کو بہت زیادہ کمپیوٹیشنل طاقت کی ضرورت ہوتی ہے، یعنی AI ماڈل کو ہر کام کو پروسیس کرنے کے لیے زیادہ وقت اور توانائی کی ضرورت ہوتی ہے۔ یہ اکثر سست پروسیسنگ کی رفتار اور اعلی آپریشنل اخراجات کا باعث بنتا ہے، جو ایک بڑا مسئلہ ہو سکتا ہے، خاص طور پر ریئل ٹائم ایپلی کیشنز میں جہاں تیز ردعمل اہم ہوتے ہیں۔ مزید یہ کہ، لمبی زنجیروں کی پیچیدگی غلطیاں متعارف کرانے کے امکانات کو بڑھا دیتی ہے۔ جتنے زیادہ اقدامات شامل ہوں گے، غلطیوں کے ہونے کا امکان اتنا ہی زیادہ ہوگا۔ یہ ماڈل کو کم موثر اور اسکیل کرنے میں زیادہ مشکل بناتا ہے، جس سے صنعتوں میں AI سسٹم کو لاگو کرنے کی کوشش کرتے وقت چیلنجز پیدا ہوتے ہیں جن کے لیے رفتار اور درستگی دونوں کی ضرورت ہوتی ہے۔
میٹا اور ساتھیوں کی طرف سے کی گئی تحقیق اس روایتی عقیدے کی خامیوں کو اجاگر کرتی ہے۔ ان کے مطالعے سے معلوم ہوا کہ استدلال کی چھوٹی زنجیریں درستگی کو بہتر بنا سکتی ہیں۔ ایک ہی وقت میں، وہ کمپیوٹیشنل اوور ہیڈ کو کم کرتے ہیں۔ اس کا مطلب ہے کہ AI ماڈل درستگی کو کھونے کے بغیر کاموں کو تیزی سے اور کم قیمت پر پروسیس کر سکتے ہیں۔
یہ نتائج AI کی ترقی میں تبدیلی کی تجویز کرتے ہیں۔ توجہ استدلال کے اقدامات کی تعداد کو بڑھانے سے استدلال کے عمل کو بہتر بنانے کی طرف منتقل ہونا چاہئے۔ مختصر استدلال کی زنجیروں کا استعمال کرتے ہوئے، AI ماڈل زیادہ موثر ہو سکتے ہیں۔ وہ زیادہ قابل اعتماد نتائج اور کم وقت میں مکمل کام بھی پیش کر سکتے ہیں۔
شارٹ-m@k انفرنس فریم ورک کے ساتھ استدلال کی کارکردگی میں پیشرفت
Meta کی FAIR ٹیم اور The Hebrew University of Jerusalem کا مطالعہ مختصر-m@k inference فریم ورک متعارف کرایا گیا ہے، جو LLMs میں کثیر مرحلہ استدلال کو بہتر بنانے کے لیے ڈیزائن کیا گیا ایک نیا طریقہ ہے۔ یہ فریم ورک روایتی ترتیب وار استدلال اور مکمل اکثریتی ووٹنگ کے طریقوں سے ہٹ جاتا ہے، بجائے اس کے کہ کارکردگی کو بہتر بنانے اور کمپیوٹیشنل اخراجات کو کم کرنے کے لیے ابتدائی ختم کرنے کے معیار کے ساتھ مل کر متوازی کا فائدہ اٹھایا جائے۔
مختصر-m@k طریقہ کار میں، k متوازی استدلال کی زنجیریں بیک وقت شروع کی جاتی ہیں۔ تاہم، یہ عمل پہلے کی طرح ہی رک جاتا ہے۔ m زنجیریں ختم ہو جاتی ہیں، اور حتمی پیشین گوئی کا تعین ان ابتدائی ختم شدہ زنجیروں کے نتائج کی بنیاد پر اکثریتی ووٹنگ کے ذریعے کیا جاتا ہے۔ یہ طریقہ کار غیر ضروری ٹوکن جنریشن کو کم کرتا ہے، اس طرح پیشین گوئی کی درستگی کو برقرار رکھتے ہوئے کمپیوٹیشنل اوور ہیڈ اور تاخیر کو کم کرتا ہے۔
مختصر-m@k فریم ورک میں دو کلیدی قسمیں شامل ہیں، ہر ایک مختلف ماحول کے لیے موزوں ہے:
مختصر-1@k: یہ متغیر پہلے مکمل شدہ استدلال کی زنجیر کو سے منتخب کرتا ہے۔ k متوازی کوششیں یہ خاص طور پر کم وسائل یا تاخیر سے متعلق حساس حالات میں موثر ہے، کم سے کم کمپیوٹیشنل اخراجات کے ساتھ موازنہ یا بہتر درستگی حاصل کرنا۔
مختصر-3@k: یہ ورژن پہلی تین مکمل زنجیروں کے نتائج کو جمع کرتا ہے۔ یہ درستگی اور تھرو پٹ دونوں میں اکثریتی ووٹنگ کے روایتی طریقوں کو مستقل طور پر پیچھے چھوڑتا ہے، جو اسے بڑے پیمانے پر پیداواری ماحول کے لیے مثالی بناتا ہے جس میں اعلی کارکردگی اور کارکردگی کی ضرورت ہوتی ہے۔
مزید برآں، مختصر-m@k نقطہ نظر ماڈل فائن ٹیوننگ کی حکمت عملیوں کو متاثر کرتا ہے۔ چھوٹے، زیادہ موثر استدلال کے سلسلے کے ساتھ ماڈلز کو تربیت دے کر، ماڈل تیز تر کنورجنس حاصل کر سکتا ہے، تربیت اور تعیناتی کے دوران تخمینہ کی درستگی اور کمپیوٹیشنل وسائل کی مجموعی کارکردگی دونوں کو بڑھاتا ہے۔
AI کی ترقی اور صنعت کو اپنانے کے لیے مضمرات
مختصر استدلال کی زنجیروں کا استعمال AI ماڈل کی ترقی، تعیناتی، اور طویل مدتی پائیداری پر اہم اثر ڈالتا ہے۔
تربیتی نقطہ نظر سے، مختصر استدلال کی زنجیریں کمپیوٹیشنل پیچیدگی اور وسائل کے استعمال کو کم کرتی ہیں۔ یہ ایل ایل ایم کی تربیت کو کم مہنگا اور تیز تر بناتا ہے۔ یہ زیادہ انفراسٹرکچر کی ضرورت کے بغیر تیز اپ ڈیٹس اور زیادہ بار بار بہتری کی اجازت دیتا ہے۔
تعیناتی میں، خاص طور پر ایسی ایپلی کیشنز میں جن کو تیز ردعمل کی ضرورت ہوتی ہے، جیسے چیٹ بوٹس، ٹریڈنگ پلیٹ فارمز، اور ریئل ٹائم فیصلہ کرنے والے نظام، مختصر استدلال کی زنجیریں پروسیسنگ کی رفتار کو بہتر کرتی ہیں۔ یہ نہ صرف سسٹم کو تیز تر بناتا ہے بلکہ انہیں ایک ساتھ مزید درخواستوں کو سنبھالنے کی بھی اجازت دیتا ہے۔ اس کا مطلب ہے کہ بھاری استعمال کے تحت سسٹم بہتر کارکردگی کا مظاہرہ کر سکتے ہیں اور آسانی سے پیمانہ بنا سکتے ہیں۔
توانائی کی کارکردگی ایک اور اہم فائدہ ہے۔ تربیت اور تخمینہ کے دوران درکار ٹوکنز اور کمپیوٹیشنز کی تعداد کو کم کرکے، AI سسٹمز کم طاقت استعمال کرتے ہیں۔ یہ لاگت کو کم کرتا ہے اور ماحول میں مدد کرتا ہے۔ جیسا کہ AI زیادہ وسیع ہو جاتا ہے اور ڈیٹا سینٹرز کو توانائی کی کھپت کو کم کرنے کے لیے دباؤ کا سامنا کرنا پڑتا ہے، یہ کارکردگی زیادہ اہم ہو جاتی ہے۔
آخر میں، یہ افادیت پورے AI کی ترقی کے عمل کو تیز کرنے میں مدد کرتی ہے۔ کم تربیتی اوقات اور تیز تر اندازہ کے ساتھ، تنظیمیں AI مصنوعات اور خدمات کو زیادہ تیزی سے مارکیٹ میں لا سکتی ہیں۔ اس سے انہیں تیز رفتار ٹیکنالوجی کی دنیا میں مسابقتی اور چست رہنے میں مدد ملتی ہے۔
نفاذ کے چیلنجوں پر قابو پانا اور مختصر استدلال کی زنجیروں کے لیے اسٹریٹجک سفارشات
اگرچہ LLMs میں مختصر استدلال کی زنجیروں کو اپنانے سے واضح فوائد حاصل ہوتے ہیں، لیکن اس نقطہ نظر کو مکمل طور پر موثر بنانے کے لیے عملی چیلنجوں پر قابو پانے کے لیے موجود ہیں۔
ایک اہم چیلنج AI سسٹمز کا روایتی ڈیزائن ہے، جس نے طویل عرصے سے استدلال کی زنجیروں کو استعمال کرنے پر توجہ مرکوز کی ہے۔ یہ نظام اس یقین پر بنائے گئے تھے کہ مزید اقدامات بہتر نتائج کا باعث بنیں گے۔ چھوٹی زنجیروں کی طرف جانے کے لیے ماڈل آرکیٹیکچرز، تربیتی طریقوں، اور اصلاح کی تکنیکوں پر نظر ثانی کی ضرورت ہوتی ہے۔ یہ تبدیلی تکنیکی مہارتوں اور تنظیموں کے اندر اپنانے کی خواہش دونوں کا تقاضا کرتی ہے۔
ڈیٹا کا معیار اور ساخت بھی ایک اہم کردار ادا کرتا ہے۔ AI ماڈلز جو طویل استدلال کے لیے بنائے گئے ڈیٹا سیٹس پر تربیت یافتہ تھے، مختصر استدلال کے راستوں پر تبدیل ہونے پر جدوجہد کر سکتے ہیں۔ چھوٹی زنجیروں کو موثر بنانے کے لیے، ڈیٹاسیٹس کو اس طریقے سے کیوریٹ اور ڈھانچہ بنانے کی ضرورت ہے جو فوری، ہدفی استدلال کے اقدامات کی حمایت کرے۔ یہ یقینی بنانے کے لیے ضروری ہے کہ ماڈل درستگی اور کارکردگی کو برقرار رکھ سکے۔
اسکیل ایبلٹی ایک اور چیلنج ہے۔ مختصر استدلال کی زنجیریں کنٹرول شدہ ماحول میں اچھی طرح سے کام کرتی ہیں، لیکن انہیں بڑے پیمانے پر لاگو کرنے کے لیے، جیسے ای کامرس ویب سائٹس یا کسٹمر سپورٹ سسٹم پر، ٹھوس انفراسٹرکچر کی ضرورت ہوتی ہے۔ نظام کو سست یا درستگی کھونے کے بغیر درخواستوں کی زیادہ مقدار کو ہینڈل کرنا چاہیے۔ اس کے لیے ہموار کارکردگی کو یقینی بنانے کے لیے محتاط منصوبہ بندی اور وسائل کے انتظام کی ضرورت ہے۔
ان چیلنجوں پر قابو پانے کے لیے، AI ڈویلپرز درج ذیل حکمت عملیوں پر غور کر سکتے ہیں:
- مختصر-m@k انفرنس فریم ورک کو اپنائیں: یہ نقطہ نظر رفتار اور درستگی کو متوازن کرنے کے لیے متوازی پروسیسنگ اور جلد ختم ہونے کا استعمال کرتا ہے، جو اسے حقیقی وقت، تاخیر سے حساس ایپلی کیشنز کے لیے مثالی بناتا ہے۔
- تربیت کے دوران مختصر استدلال کو ترجیح دیں: تربیت کے ایسے طریقے شامل کریں جو وسائل کے استعمال کو کم کرنے اور رفتار کو بہتر بنانے کے لیے مختصر استدلال کی زنجیروں پر توجہ مرکوز کرتے ہیں۔
- ریجننگ چین میٹرکس کی نگرانی کریں: ریئل ٹائم میں ریجننگ چینز کی لمبائی اور ماڈل کی کارکردگی کو باقاعدگی سے ٹریک کریں۔ یہ نظام کو موثر اور درست رکھنے کے لیے فوری ایڈجسٹمنٹ کرنے میں مدد کرتا ہے۔
ان حکمت عملیوں پر عمل کرتے ہوئے، AI ڈویلپرز کامیابی کے ساتھ مختصر استدلال کی زنجیروں کو لاگو کر سکتے ہیں، جس کے نتیجے میں تیز، زیادہ درست، اور توسیع پذیر AI سسٹمز ہوتے ہیں جو آپریشنل ضروریات اور لاگت کی کارکردگی کے اہداف دونوں کو پورا کرتے ہیں۔
نیچے کی لکیر
مختصر استدلال کی زنجیروں پر تحقیق AI کی ترقی کے لیے ایک نیا نقطہ نظر لاتی ہے۔ چھوٹی زنجیریں استعمال کرنے سے AI ماڈلز کو تیز، زیادہ درستگی اور کم لاگت کے ساتھ کام کرنے میں مدد ملتی ہے۔ یہ تبدیلی ان صنعتوں کے لیے ضروری ہے جہاں رفتار اور لاگت کلیدی حیثیت رکھتی ہے۔
مختصر استدلال کی زنجیروں کا استعمال کرتے ہوئے، AI نظام مزید وسائل کی ضرورت کے بغیر بہتر کر سکتے ہیں۔ اس سے کمپنیوں کو AI کو زیادہ موثر طریقے سے تیار کرنے اور استعمال کرنے میں مدد مل سکتی ہے۔ آگے بڑھتے ہوئے، یہ نقطہ نظر AI کو مزید قیمتی اور مختلف ضروریات کے مطابق ڈھالنے میں مدد دے گا۔ AI ڈویلپرز اور کمپنیوں کو تیزی سے بدلتی ہوئی تکنیکی دنیا میں آگے رہنے کے لیے ان نئے طریقوں کو تلاش کرنا چاہیے۔