ہمارے ساتھ رابطہ

اے آئی ریزننگ کا وہم: ایپل کا مطالعہ اور اے آئی کی سوچنے کی صلاحیتوں پر بحث

مصنوعی ذہانت

اے آئی ریزننگ کا وہم: ایپل کا مطالعہ اور اے آئی کی سوچنے کی صلاحیتوں پر بحث

mm
اے آئی ریزننگ کا وہم: ایپل کا مطالعہ اور اے آئی کی سوچنے کی صلاحیتوں پر بحث

مصنوعی انٹیلیجنس (AI) اب روزمرہ کی زندگی کا حصہ ہے۔ یہ صوتی معاونین کو طاقت دیتا ہے، چیٹ بوٹس چلاتا ہے، اور صحت کی دیکھ بھال، بینکنگ اور کاروبار جیسی صنعتوں میں اہم فیصلے کرنے میں مدد کرتا ہے۔ جدید نظام، جیسے OpenAI کے GPT-4 اور Google کے Gemini، کو اکثر ذہین، انسانوں کی طرح ردعمل فراہم کرنے کے قابل سمجھا جاتا ہے۔ بہت سے لوگوں کا خیال ہے کہ یہ ماڈل انسانوں کی طرح سوچ سکتے ہیں اور سوچ سکتے ہیں۔

تاہم، ایپل کا 2025 کا مطالعہ اس عقیدے کو چیلنج کرتا ہے۔ ان کی تحقیق سوال یہ ہے کہ آیا بڑے ریزننگ ماڈلز (LRMs) واقعی سوچنے کے قابل ہیں۔ مطالعہ یہ نتیجہ اخذ کرتا ہے کہ یہ AIs حقیقی استدلال کا استعمال نہیں کرسکتے ہیں لیکن اس کے بجائے پیٹرن کے ملاپ پر انحصار کرتے ہیں۔ ماڈل نئی منطق یا تفہیم پیدا کرنے کے بجائے اپنے تربیتی ڈیٹا سے پیٹرن کی شناخت اور دہراتے ہیں۔

ایپل نے کلاسک لاجک پزل کا استعمال کرتے ہوئے کئی سرکردہ AI ماڈلز کا تجربہ کیا۔ نتائج غیر متوقع تھے۔ آسان کاموں پر، معیاری ماڈل بعض اوقات زیادہ جدید استدلال کے ماڈلز سے بہتر کارکردگی کا مظاہرہ کرتے ہیں۔ معتدل چیلنجنگ پہیلیاں پر، LRMs نے کچھ فوائد دکھائے۔ لیکن جب پہیلیاں زیادہ پیچیدہ ہوگئیں تو دونوں قسم کے ماڈل ناکام ہوگئے۔ یہاں تک کہ جب درست مرحلہ وار حل دیا گیا، ماڈلز قابل اعتماد طریقے سے اس کی پیروی نہیں کر سکے۔

ایپل کے نتائج نے اے آئی کمیونٹی کے اندر ایک بحث شروع کر دی ہے۔ کچھ ماہرین ایپل سے اتفاق کرتے ہوئے کہتے ہیں کہ یہ ماڈل صرف سوچ کا وہم دیتے ہیں۔ دوسروں کا استدلال ہے کہ ٹیسٹ AI کی صلاحیتوں کو پوری طرح سے گرفت میں نہیں لے سکتے ہیں اور مزید موثر طریقوں کی ضرورت ہے۔ اب اہم سوال یہ ہے کہ: کیا AI صحیح معنوں میں استدلال کر سکتا ہے، یا یہ صرف اعلی درجے کی پیٹرن کی مماثلت ہے؟

یہ سوال ہر کسی کے لیے اہم ہے۔ AI کے عام ہونے کے ساتھ، یہ سمجھنا ضروری ہے کہ یہ سسٹم کیا کر سکتے ہیں اور کیا نہیں کر سکتے۔

بڑے ریزننگ ماڈلز (LRMs) کیا ہیں؟

LRMs AI نظام ہیں جو قدم بہ قدم استدلال دکھا کر مسائل کو حل کرنے کے لیے بنائے گئے ہیں۔ معیاری زبان کے ماڈلز کے برعکس، جو اگلے لفظ کی پیشین گوئی کی بنیاد پر جوابات تیار کرتے ہیں، LRMs کا مقصد منطقی وضاحت فراہم کرنا ہے۔ یہ انہیں ان کاموں کے لیے مفید بناتا ہے جن کے لیے استدلال اور تجریدی سوچ کے متعدد مراحل کی ضرورت ہوتی ہے۔

LRMs کو بڑے ڈیٹا سیٹس پر تربیت دی جاتی ہے جس میں کتابیں، مضامین، ویب سائٹس اور دیگر متنی مواد شامل ہوتا ہے۔ یہ تربیت ماڈلز کو زبان کے نمونوں اور منطقی ڈھانچے کو سمجھنے کے قابل بناتی ہے جو عام طور پر انسانی استدلال میں پائے جاتے ہیں۔ یہ دکھا کر کہ وہ اپنے نتائج تک کیسے پہنچتے ہیں، LRMs سے توقع کی جاتی ہے کہ وہ زیادہ واضح اور قابل اعتماد نتائج پیش کریں گے۔

یہ ماڈل امید افزا ہیں کیونکہ وہ مختلف ڈومینز میں پیچیدہ کاموں کو سنبھال سکتے ہیں۔ مقصد فیصلہ سازی میں شفافیت کو بڑھانا ہے، خاص طور پر ان اہم شعبوں میں جو درست اور منطقی نتائج پر انحصار کرتے ہیں۔

تاہم، اس بارے میں تشویش پائی جاتی ہے کہ آیا LRM صحیح معنوں میں استدلال کر رہے ہیں۔ کچھ کا خیال ہے کہ انسانوں کی طرح سوچنے کے بجائے، وہ پیٹرن کے ملاپ کا استعمال کر سکتے ہیں۔ یہ AI سسٹمز کی حقیقی حدود کے بارے میں سوالات اٹھاتا ہے اور کیا وہ صرف استدلال کی نقل کر رہے ہیں۔

ایپل کا مطالعہ: اے آئی ریزننگ اور سوچ کے وہم کی جانچ

اس سوال کا جواب دینے کے لیے کہ آیا LRMs کی وجہ ہے یا صرف جدید پیٹرن میچرز ہیں، ایپل کی ریسرچ ٹیم نے کلاسک منطقی پہیلیاں استعمال کرتے ہوئے تجربات کا ایک سیٹ ڈیزائن کیا۔ ان میں ٹاور آف ہنوئی، ریور کراسنگ اور بلاکس ورلڈ کے مسائل شامل تھے، جو طویل عرصے سے انسانی منطقی سوچ کو جانچنے کے لیے استعمال ہوتے رہے ہیں۔ ٹیم نے ان پہیلیاں اس لیے منتخب کیں کہ ان کی پیچیدگی کو ایڈجسٹ کیا جا سکے۔ اس نے انہیں مشکل کی مختلف سطحوں کے تحت معیاری زبان کے ماڈلز اور LRMs دونوں کا جائزہ لینے کے قابل بنایا۔

ایپل کا ٹیسٹنگ کا طریقہ AI استدلال روایتی بینچ مارکس سے مختلف، جو اکثر ریاضی یا کوڈنگ کے کاموں پر توجہ مرکوز کرتے ہیں۔ یہ ٹیسٹ ٹریننگ کے دوران ماڈلز کے اسی طرح کے ڈیٹا کے سامنے آنے سے متاثر ہو سکتے ہیں۔ اس کے بجائے، ایپل کی ٹیم نے ایسی پہیلیاں استعمال کیں جو انہیں مستقل منطقی ڈھانچے کو برقرار رکھتے ہوئے پیچیدگی کو کنٹرول کرنے کی اجازت دیتی تھیں۔ یہ ڈیزائن انہیں نہ صرف حتمی جوابات بلکہ ماڈلز کے ذریعے اٹھائے گئے استدلال کے اقدامات کا بھی مشاہدہ کرنے دیتا ہے۔

مطالعہ نے کارکردگی کی تین مختلف سطحوں کا انکشاف کیا:

آسان کام

بنیادی مسائل پر، معیاری زبان کے ماڈلز نے کبھی کبھی زیادہ جدید LRMs سے بہتر کارکردگی کا مظاہرہ کیا۔ یہ کام اتنے سیدھے تھے کہ آسان ماڈلز زیادہ مؤثر طریقے سے درست جوابات پیدا کر سکتے تھے۔

اعتدال سے پیچیدہ کام

جیسے جیسے پہیلیاں کی پیچیدگی بڑھتی گئی، ایل آر ایم، جو قدم بہ قدم وضاحت کے ساتھ ساختی استدلال فراہم کرنے کے لیے بنائے گئے تھے، نے ایک فائدہ دکھایا۔ یہ ماڈل استدلال کے عمل کی پیروی کرنے اور معیاری ماڈلز سے زیادہ درست حل پیش کرنے کے قابل تھے۔

انتہائی پیچیدہ کام

زیادہ مشکل مسائل کا سامنا کرنے پر، دونوں قسم کے ماڈل مکمل طور پر ناکام ہو گئے۔ اگرچہ ماڈلز کے پاس کافی کمپیوٹیشنل وسائل تھے، لیکن وہ کاموں کو حل کرنے سے قاصر تھے۔ ان کی درستگی صفر پر گر گئی، جس سے یہ ظاہر ہوتا ہے کہ وہ ان مسائل کے لیے درکار پیچیدگی کی سطح کو سنبھالنے میں ناکام ہیں۔

پیٹرن میچنگ یا حقیقی استدلال؟

مزید تجزیہ کرنے پر، محققین نے ماڈلز کے استدلال کے ساتھ مزید خدشات پائے۔ ماڈلز کے فراہم کردہ جوابات کا انحصار اس بات پر تھا کہ مسائل کو کس طرح پیش کیا گیا۔ چھوٹی تبدیلیاں، جیسے نمبروں یا متغیر ناموں کو تبدیل کرنے کے نتیجے میں مکمل طور پر مختلف جوابات ہو سکتے ہیں۔ اس عدم مطابقت سے پتہ چلتا ہے کہ ماڈل منطقی استدلال کو لاگو کرنے کے بجائے اپنے تربیتی ڈیٹا سے سیکھے گئے نمونوں پر انحصار کرتے ہیں۔

مطالعہ سے پتہ چلتا ہے کہ یہاں تک کہ جب واضح الگورتھم یا مرحلہ وار ہدایات فراہم کی گئی تھیں، ماڈل اکثر ان کا صحیح استعمال کرنے میں ناکام رہے جب پہیلیاں کی پیچیدگی بڑھ گئی۔ ان کے استدلال کے نشانات سے پتہ چلتا ہے کہ ماڈلز نے مستقل طور پر قواعد یا منطق کی پیروی نہیں کی۔ اس کے بجائے، ان کے حل مسئلے کی اصل ساخت کے بجائے ان پٹ میں سطحی سطح کی تبدیلیوں کی بنیاد پر مختلف ہوتے ہیں۔

ایپل کی ٹیم نے یہ نتیجہ اخذ کیا کہ جو چیز استدلال کے طور پر ظاہر ہوتی ہے وہ اکثر صرف اعلی درجے کی پیٹرن میچنگ تھی۔ اگرچہ یہ ماڈل مانوس نمونوں کو پہچان کر استدلال کی نقل کر سکتے ہیں، لیکن وہ کاموں کو صحیح معنوں میں نہیں سمجھتے اور نہ ہی انسان کی طرح منطق کا اطلاق کرتے ہیں۔

جاری بحث: کیا AI واقعی وجہ یا صرف سوچ کی نقل کر سکتا ہے؟

ایپل کے مطالعہ نے AI کمیونٹی میں اس بات پر بحث شروع کر دی ہے کہ آیا LRM صحیح معنوں میں استدلال کر سکتے ہیں۔ بہت سے ماہرین اب ایپل کے نتائج کی حمایت کرتے ہیں، یہ دلیل دیتے ہیں کہ یہ ماڈل استدلال کا بھرم پیدا کرتے ہیں۔ ان کا خیال ہے کہ جب پیچیدہ یا نئے کاموں کا سامنا کرنا پڑتا ہے، معیاری زبان کے ماڈل اور LRM دونوں ہی جدوجہد کرتے ہیں، یہاں تک کہ صحیح ہدایات یا الگورتھم دیے جانے کے باوجود۔ اس سے پتہ چلتا ہے کہ استدلال اکثر حقیقی تفہیم کے بجائے تربیتی ڈیٹا سے نمونوں کو پہچاننے اور دہرانے کی صلاحیت ہے۔

دوسری طرف، اوپن اے آئی جیسی کمپنیاں اور کچھ محققین کا خیال ہے کہ ان کے ماڈلز استدلال کر سکتے ہیں۔ وہ معیاری ٹیسٹوں، جیسے LSAT، اور ریاضی کے چیلنج کرنے والے امتحانات پر اعلیٰ کارکردگی کی طرف اشارہ کرتے ہیں۔ مثال کے طور پر، OpenAI کے GPT-4 نے LSAT ٹیسٹ لینے والوں میں 88ویں پرسنٹائل میں اسکور کیا۔ کچھ لوگ اس مضبوط کارکردگی کو استدلال کی صلاحیت کے ثبوت سے تعبیر کرتے ہیں۔ اس نظریہ کے حامیوں کا استدلال ہے کہ اس طرح کے نتائج سے پتہ چلتا ہے کہ AI ماڈل کم از کم بعض حالات میں استدلال کر سکتے ہیں۔

تاہم، ایپل کا مطالعہ اس نقطہ نظر پر سوال کرتا ہے. محققین کا استدلال ہے کہ معیاری ٹیسٹوں میں اعلیٰ سکور ضروری طور پر درست فہم یا استدلال کی نشاندہی نہیں کرتے۔ موجودہ بینچ مارکس پوری طرح سے استدلال کی مہارت کو حاصل نہیں کر سکتے ہیں اور اس ڈیٹا سے متاثر ہو سکتے ہیں جس پر ماڈلز کو تربیت دی گئی تھی۔ بہت سے معاملات میں، ماڈل نئے مسائل کے بارے میں صحیح معنوں میں استدلال کرنے کے بجائے اپنے تربیتی ڈیٹا سے پیٹرن کو دہراتے ہیں۔

اس بحث کے عملی نتائج ہیں۔ اگر AI ماڈل ایمانداری سے استدلال نہیں کرتے ہیں، تو وہ ان کاموں کے لیے قابل اعتماد نہیں ہو سکتے جن کے لیے منطقی فیصلہ سازی کی ضرورت ہوتی ہے۔ یہ صحت کی دیکھ بھال، مالیات اور قانون جیسے شعبوں میں خاص طور پر اہم ہے، جہاں غلطیوں کے سنگین نتائج ہو سکتے ہیں۔ مثال کے طور پر، اگر AI ماڈل نئے یا پیچیدہ طبی معاملات میں منطق کا اطلاق نہیں کر سکتا، تو غلطیوں کا امکان زیادہ ہوتا ہے۔ اسی طرح، فنانس میں AI نظام جن میں استدلال کرنے کی صلاحیت نہیں ہے وہ سرمایہ کاری کے ناقص انتخاب یا خطرات کا غلط اندازہ لگا سکتے ہیں۔

ایپل کے نتائج میں یہ بھی احتیاط کی گئی ہے کہ اگرچہ AI ماڈلز مواد کی تیاری اور ڈیٹا کے تجزیہ جیسے کاموں کے لیے مددگار ثابت ہوتے ہیں، لیکن انہیں ان شعبوں میں احتیاط کے ساتھ استعمال کیا جانا چاہیے جن میں گہری تفہیم یا تنقیدی سوچ کی ضرورت ہوتی ہے۔ کچھ ماہرین مناسب استدلال کی کمی کو ایک اہم حد کے طور پر دیکھتے ہیں، جبکہ دوسروں کا خیال ہے کہ صرف پیٹرن کی پہچان ہی بہت سے عملی استعمال کے لیے قابل قدر ہو سکتی ہے۔

اے آئی ریزننگ کے لیے آگے کیا ہے؟

AI استدلال کا مستقبل اب بھی غیر یقینی ہے۔ کچھ محققین کا خیال ہے کہ زیادہ تربیت، بہتر ڈیٹا، اور بہتر ماڈل فن تعمیر کے ساتھ، AI حقیقی استدلال کی صلاحیتوں کو فروغ دیتا رہے گا۔ دوسرے زیادہ شکی ہیں اور سوچتے ہیں کہ موجودہ AI ماڈل ہمیشہ پیٹرن میچنگ تک ہی محدود ہوسکتے ہیں، کبھی بھی انسان نما استدلال میں شامل نہیں ہوتے۔

محققین فی الحال AI ماڈلز کی ان مسائل کو سنبھالنے کی صلاحیت کا اندازہ لگانے کے لیے نئے تشخیصی طریقے تیار کر رہے ہیں جن کا انھیں پہلے کبھی سامنا نہیں ہوا۔ ان ٹیسٹوں کا مقصد یہ اندازہ لگانا ہے کہ آیا AI تنقیدی طور پر سوچ سکتا ہے اور اپنے استدلال کو اس انداز میں بیان کر سکتا ہے جو انسانوں کے لیے سمجھ میں آتا ہے۔ اگر کامیاب ہو، تو یہ ٹیسٹ زیادہ درست سمجھ فراہم کر سکتے ہیں کہ AI کتنی اچھی طرح سے استدلال کر سکتا ہے اور محققین کو بہتر ماڈل تیار کرنے میں مدد کر سکتا ہے۔

ہائبرڈ ماڈل تیار کرنے میں بھی دلچسپی بڑھ رہی ہے جو پیٹرن کی شناخت اور استدلال کی طاقت کو یکجا کرتے ہیں۔ یہ ماڈل استعمال کریں گے۔ نیند نیٹ ورک مزید پیچیدہ کاموں کے لیے پیٹرن کے ملاپ اور علامتی استدلال کے نظام کے لیے۔ ایپل اور NVIDIA دونوں مبینہ طور پر ان ہائبرڈ طریقوں کو تلاش کر رہے ہیں، جو حقیقی استدلال کے قابل AI سسٹمز کی طرف لے جا سکتے ہیں۔

نیچے کی لکیر

ایپل کا 2025 کا مطالعہ AI کی استدلال کی صلاحیتوں کی حقیقی نوعیت کے بارے میں اہم سوالات اٹھاتا ہے۔ اگرچہ AI ماڈلز جیسے LRMs مختلف شعبوں میں زبردست وعدہ ظاہر کرتے ہیں، مطالعہ متنبہ کرتا ہے کہ ان کے پاس حقیقی فہم یا انسان جیسا استدلال نہیں ہو سکتا۔ اس کے بجائے، وہ پیٹرن کی شناخت پر انحصار کرتے ہیں، جو ان کاموں میں ان کی تاثیر کو محدود کرتا ہے جن کے لیے زیادہ پیچیدہ علمی عمل کی ضرورت ہوتی ہے۔

AI مستقبل کی تشکیل جاری رکھتا ہے، اس کی طاقت اور حدود دونوں کو تسلیم کرنا ضروری بناتا ہے۔ جانچ کے طریقوں کو بہتر بنا کر اور اپنی توقعات کو سنبھال کر، ہم AI کو ذمہ داری سے استعمال کر سکتے ہیں۔ یہ اس بات کو یقینی بنائے گا کہ یہ انسانی فیصلہ سازی کو تبدیل کرنے کے بجائے اس کی تکمیل کرتا ہے۔

ڈاکٹر اسد عباس، اے مدت ملازمت یافتہ ایسوسی ایٹ پروفیسر کامسیٹس یونیورسٹی اسلام آباد، پاکستان میں، پی ایچ ڈی کی ڈگری حاصل کی۔ نارتھ ڈکوٹا اسٹیٹ یونیورسٹی، USA سے۔ اس کی تحقیق جدید ٹیکنالوجیز پر مرکوز ہے، بشمول کلاؤڈ، فوگ، اور ایج کمپیوٹنگ، بگ ڈیٹا اینالیٹکس، اور اے آئی۔ ڈاکٹر عباس نے معروف سائنسی جرائد اور کانفرنسوں میں اشاعتوں کے ساتھ خاطر خواہ تعاون کیا ہے۔