ہمارے ساتھ رابطہ

جی پی ٹی ماڈلز کے ساتھ سماجی مخمصوں کی کھوج: اے آئی اور گیم تھیوری کا انٹرسیکشن

مصنوعی ذہانت

جی پی ٹی ماڈلز کے ساتھ سماجی مخمصوں کی کھوج: اے آئی اور گیم تھیوری کا انٹرسیکشن

mm
جی پی ٹی ماڈلز کے ساتھ سماجی مخمصوں کی کھوج: اے آئی اور گیم تھیوری کا انٹرسیکشن

مصنوعی انٹیلیجنس (AI) روزمرہ کی زندگی کا حصہ بنتا جا رہا ہے۔ یہ کاریں چلانے اور سوالات کے جواب دینے جیسے کاموں میں مدد کرتا ہے۔ لیکن AI کو ابھی بھی انسانی رویے کو سمجھنے میں چیلنجز درپیش ہیں، خاص طور پر پیچیدہ حالات میں۔ یہ حالات، جنہیں سماجی مخمصے کہا جاتا ہے، ذاتی مفادات اور اجتماعی بھلائی کے درمیان تصادم پر مشتمل ہے۔ سماجی مخمصوں میں، مشکل انتخاب کرنے چاہئیں جو افراد اور گروہ دونوں پر اثرانداز ہوں۔

جی پی ٹی ماڈلز، جیسے چیٹ جی پی ٹی، انسان جیسی زبان کو پروسیس کرنے اور تخلیق کرنے کی صلاحیت کے لیے جانا جاتا ہے۔ تاہم، انہیں سماجی الجھنوں کو حل کرنے میں چیلنجز کا سامنا ہے۔ استعمال کرکے کھیل کا نظریہفیصلہ سازی کا مطالعہ، ہم بہتر طور پر سمجھ سکتے ہیں کہ AI ان چیلنجوں کو کس طرح سنبھالتا ہے۔ گیم تھیوری ہمیں ان حالات میں انتخاب کا تجزیہ کرنے میں مدد کرتی ہے جہاں فیصلے دوسروں کو متاثر کرتے ہیں۔

گیم تھیوری کیا ہے؟

گیم تھیوری اس بات کا مطالعہ کرتی ہے کہ لوگ کیسے فیصلے کرتے ہیں جب نتیجہ دوسروں کے اعمال پر منحصر ہوتا ہے۔ اس سے ہمیں بہترین انتخاب کو سمجھنے میں مدد ملتی ہے جب دوسرے بھی نتیجہ پر اثر انداز ہوتے ہیں۔ سادہ الفاظ میں، یہ اسٹریٹجک فیصلہ سازی کے لیے ایک رہنما ہے۔

گیم تھیوری میں کلیدی تصورات میں شامل ہیں:

  • قیدیوں کا مخمصہ: دو لوگوں کو فیصلہ کرنا ہوگا کہ ایک دوسرے کے ساتھ تعاون کرنا ہے یا دھوکہ دینا۔ تعاون دونوں کو فائدہ پہنچاتا ہے، جبکہ خیانت سے ایک کو دوسرے کی قیمت پر فائدہ ہوتا ہے۔
  • المیہ آف کامنز: مشترکہ وسائل کا زیادہ استعمال کیا جاتا ہے کیونکہ ہر شخص اپنے مفاد میں کام کرتا ہے، جس کی وجہ سے اس وسائل کی کمی ہوتی ہے۔
  • نیش توازن: ایک ایسی صورتحال جہاں کوئی بھی کھلاڑی اپنی حکمت عملی کو تبدیل کر کے اپنے نتائج کو بہتر نہیں کر سکتا، یہ فرض کر کے کہ دوسروں کو وہی رکھیں۔

AI رویے کو سمجھنے کے لیے گیم تھیوری ضروری ہے۔ یہ دکھاتا ہے کہ کس طرح GPT جیسے ماڈل سماجی مخمصوں میں فیصلہ سازی، تعاون، اور تنازعات کی تقلید کرتے ہیں۔

سماجی مخمصے کیا ہیں اور گیم تھیوری کے معاملات کیوں

سماجی الجھنیں اس وقت پیدا ہوتی ہیں جب انفرادی مفادات اجتماعی بھلائی سے ٹکراتے ہیں۔ اگر ہر کوئی خود غرضی سے کام لے تو گروپ کو منفی نتائج کا سامنا کرنا پڑ سکتا ہے۔ تاہم، اگر افراد تعاون کرنے کا انتخاب کرتے ہیں، تو گروپ اور اکثر سب بہتر نتائج حاصل کر سکتے ہیں۔

گیم تھیوری ان حالات کا تجزیہ کرنے کا ایک طریقہ پیش کرتی ہے۔ یہ آسان ماڈل استعمال کرتا ہے، یا "کھیلاس بات کا مطالعہ کرنے کے لیے کہ جب اعمال دوسروں پر اثرانداز ہوتے ہیں تو فیصلے کیسے کیے جاتے ہیں۔ مثال کے طور پر، قیدی کے مخمصے میں، دو افراد کو یہ فیصلہ کرنا چاہیے کہ وہ ایک دوسرے کے ساتھ تعاون کریں یا خیانت کریں۔ اگر دونوں تعاون کرتے ہیں تو دونوں کو فائدہ ہوتا ہے۔ تاہم، اگر ایک دوسرے سے خیانت کرتا ہے، تو اس کا فائدہ دوسرے کی قیمت پر ہوتا ہے۔ ٹریجڈی آف کامنز میں، مشترکہ وسائل کا دوبارہ استعمال کیا جاتا ہے کیونکہ ہر ایک کو اپنے مفاد کے لیے استعمال کیا جاتا ہے۔

یہ گیم تھیوریٹک ماڈل گروپ پر انفرادی انتخاب کے اثرات کو سمجھنے میں مدد کرتے ہیں۔ جب AI پر لاگو کیا جاتا ہے، تو وہ اس بارے میں بصیرت فراہم کرتے ہیں کہ GPT جیسے ماڈل کس طرح تعاون، مسابقت اور سماجی مخمصوں میں تنازعات کو نیویگیٹ کرتے ہیں۔

جی پی ٹی ماڈل گیم تھیوری سے کیسے متعلق ہیں۔

GPT ماڈلز پر مبنی ہیں۔ ٹرانسفارمر فن تعمیرات وہ خود مختار ماڈلز ہیں جنہیں متن میں پیٹرن کی بنیاد پر ترتیب میں اگلے ٹوکن کی پیشن گوئی کرنے کے لیے تربیت دی گئی ہے۔ GPT ان سیکھے ہوئے نمونوں کی بنیاد پر فیصلے تیار کرتا ہے، نہ کہ حقیقی علمی استدلال سے۔ گیم تھیوری پر لاگو ہونے پر، GPT اپنے تربیتی ڈیٹا کی بنیاد پر سب سے زیادہ ممکنہ نتائج کی پیشین گوئی کر کے اسٹریٹجک تعاملات کی نقل کرتا ہے۔

گیم تھیوریٹک منظرناموں میں، جیسے قیدی کی مخمصہ، جی پی ٹی فیصلے کرتا ہے جیسے کہ تعاون کرنا ہے یا خرابی۔ اس کے انتخاب تربیت کے اعداد و شمار میں دیکھے جانے والے ردعمل کے شماریاتی امکانات پر مبنی ہیں۔ انسانوں کے برعکس، جو طویل مدتی ادائیگیوں پر غور کر کے فیصلے کرتے ہیں، GPT کے انتخاب فوری سیاق و سباق اور امکان پر مبنی ہوتے ہیں، نہ کہ حکمت عملی کی منصوبہ بندی یا زیادہ سے زیادہ افادیت پر۔

GPT میں موثر اسٹریٹجک استدلال میں رکاوٹیں

گیم تھیوریٹک فنکشنز پر لاگو ہونے پر جی پی ٹی کی کئی حدود ہوتی ہیں۔ یہ چیلنج اسٹریٹجک منظرناموں میں انسان کی طرح فیصلہ سازی کی اس کی صلاحیت کو متاثر کرتے ہیں۔

یادداشت کی پابندیاں

جی پی ٹی ایک فکسڈ سیاق و سباق کی ونڈو کے ساتھ کام کرتا ہے، یعنی یہ ٹکڑوں میں ان پٹ پر کارروائی کرتا ہے اور پچھلے تعاملات کی یاد کو برقرار نہیں رکھتا ہے۔ یہ وقت کے ساتھ حکمت عملی کو اپنانے کی صلاحیت کو محدود کرتا ہے۔ Iterated Prisoner's Dilemma جیسے منظرناموں میں، GPT کسی مخالف کے ماضی کے اعمال کو ٹریک نہیں کر سکتا، جس سے پہلے کے فیصلوں کی بنیاد پر اس کے رویے کو ایڈجسٹ کرنا مشکل ہو جاتا ہے۔ انسانوں کے برعکس، جو اعتماد پیدا کرنے اور حکمت عملیوں کو اپنانے کے لیے میموری کا استعمال کر سکتے ہیں، GPT ہر تعامل کو الگ تھلگ سمجھتا ہے۔

حد سے زیادہ عقلیت

GPT اکثر قلیل مدتی فوائد اور فوری فیصلوں پر توجہ مرکوز کرتا ہے۔ قیدیوں کی مخمصہ جیسی گیمز میں، GPT موجودہ دور میں بدتر نتائج سے بچنے کے لیے خراب ہو سکتا ہے، چاہے تعاون بہتر طویل مدتی نتائج کا باعث بنے۔ خالص عقلی انداز میں کام کرنے کا یہ رجحان جاری تعاملات میں تعاون یا اعتماد سازی کے وسیع تر فوائد پر غور کرنے کی GPT کی صلاحیت کو محدود کرتا ہے۔

حقیقی سماجی ذہانت کا فقدان

جی پی ٹی میں حقیقی سماجی ذہانت کا فقدان ہے۔ یہ جذبات، اعتماد، یا طویل مدتی تعلقات کی پیچیدگیوں کو نہیں سمجھ سکتا۔ اس کے فیصلے متن میں سیکھے گئے نمونوں پر مبنی ہوتے ہیں، جس کا مطلب ہے کہ GPT جذباتی اور سماجی تناظر سے محروم رہتا ہے جو انسانی فیصلہ سازی کو متاثر کرتا ہے۔ مثال کے طور پر، الٹی میٹم گیم جیسے انصاف پر مبنی گیمز میں، GPT غیر منصفانہ پیشکشوں کو قبول کر سکتا ہے کیونکہ یہ غصے جیسے جذبات کا تجربہ نہیں کرتا ہے، جس کی وجہ سے انسان ایسی پیشکشوں کو مسترد کر دیتے ہیں۔

سیاق و سباق کا خاتمہ

ایک اور حد سیاق و سباق کا خاتمہ ہے۔ GPT ہر فیصلے پر آزادانہ طور پر کارروائی کرتا ہے اور سابقہ تعاملات سے معلومات کو برقرار نہیں رکھتا ہے۔ اس سے GPT کے لیے اعتماد پیدا کرنا یا وقت کے ساتھ اپنی حکمت عملی کو ایڈجسٹ کرنا مشکل ہو جاتا ہے۔ تاہم، انسان ماضی کے تجربات کی بنیاد پر اپنے فیصلوں کو ایڈجسٹ کر سکتے ہیں، جس سے وہ تعلقات استوار کر سکتے ہیں اور پیچیدہ سماجی حالات کو زیادہ مؤثر طریقے سے نیویگیٹ کر سکتے ہیں۔

یہ حدود GPT کی گہری، طویل مدتی حکمت عملی استدلال میں مشغول ہونے اور سماجی مخمصوں میں انسانی فیصلہ سازی کی مکمل رینج کی نقل کرنے کی صلاحیت میں رکاوٹ ہیں۔

سماجی مخمصوں میں جی پی ٹی کی طاقتیں۔

جی پی ٹی اپنے تربیتی ڈیٹا کے دائرہ کار میں منطقی استدلال میں مضبوط ہے۔ یہ پہچان سکتا ہے کہ جب کوئی ایجنٹ خود غرضی سے کام کر رہا ہے اور حسابی حکمت عملی کے ساتھ جواب دے سکتا ہے۔ قیدیوں کی مخمصہ جیسی گیمز میں، GPT دستیاب سیاق و سباق کی بنیاد پر معقول فیصلے کر سکتا ہے، جو اسے بنیادی اسٹریٹجک تعاملات کی تقلید کے لیے ایک قابل قدر ٹول بناتا ہے۔

اسی طرح، GPT عام انسانی فیصلہ سازی کے نمونوں کو نقل کر سکتا ہے، جیسے تعاون کرنا، غیر منصفانہ پیشکشوں کو مسترد کرنا، یا منصفانہ انتخاب کرنا۔ صحیح پرامپٹ کے ساتھ، GPT منظر نامے کے لحاظ سے تعاون یا خود غرضی سے کام کر سکتا ہے۔ یہ لچک جی پی ٹی کو اس قابل بناتی ہے کہ وہ اپنے رویے کو ایڈجسٹ کر سکے اور مختلف گیم تھیوریٹک سیاق و سباق میں مختلف حکمت عملیوں کی تقلید کرے۔

GPT سماجی سائنس کی تحقیق میں فیصلہ سازی کی تقلید کے لیے قابل قدر ہے۔ محققین انسانی شرکاء کی ضرورت کے بغیر کنٹرول شدہ تجربات میں انسانی تعاملات کو ماڈل بنانے کے لیے GPT کا استعمال کر سکتے ہیں۔ یہ GPT کو سماجی رویے پر دوبارہ قابل اور قابل توسیع مطالعہ کرنے کا ایک مؤثر ذریعہ بناتا ہے، روایتی طریقوں کا ایک قابل اعتماد متبادل فراہم کرتا ہے۔

سماجی مخمصوں میں جی پی ٹی کی کمزوریاں

GPT میں کئی کمزوریاں ہیں جب بات مخمصوں میں سماجی رویے کی تقلید کی ہوتی ہے۔ اس کی جذباتی استدلال کی کمی حقیقی سماجی تعاملات کو نقل کرنا مشکل بناتی ہے۔ اگرچہ یہ انصاف یا تعاون کی نقل کر سکتا ہے، لیکن GPT فیصلہ سازی پر اثر انداز ہونے والے جذباتی پہلوؤں کو نہیں سمجھتا ہے۔ نتیجے کے طور پر، یہ ایسے حالات میں جدوجہد کرتا ہے جہاں غصہ یا اعتماد جیسے جذبات نتائج کے لیے اہم ہوتے ہیں۔

GPT اکثر قلیل مدتی منطق پر توجہ مرکوز کرتا ہے۔ یہ فوری نتائج کو ترجیح دیتا ہے، جس کی وجہ سے یہ طویل مدتی تعلقات استوار کرنے کی صلاحیت کم رکھتا ہے۔ تزویراتی حالات میں، یہ قلیل مدتی توجہ GPT کو بار بار کیے گئے فیصلوں کے مجموعی اثرات پر غور کرنے سے روکتی ہے۔ انسانوں کے برعکس، جو سماجی تعاملات میں طویل المدتی نقطہ نظر اختیار کرتے ہیں، GPT کی فیصلہ سازی فوری نتائج پر مبنی ہوتی ہے۔

مزید برآں، جی پی ٹی کی سیاق و سباق کے مطابق ڈھالنے میں ناکامی ایک اہم حد ہے۔ اس میں میموری کی کمی ہے، یعنی یہ ماضی کے تعاملات کی بنیاد پر اپنے رویے کو ایڈجسٹ نہیں کر سکتا۔ GPT کو طویل مدتی حکمت عملی بنانے یا وقت کے ساتھ ساتھ اعتماد پیدا کرنے سے روکنے کے لیے ہر فیصلے کو تنہائی میں لیا جاتا ہے۔ دوسری طرف، انسان پہلے کے تجربات کی بنیاد پر اپنے رویے میں ترمیم کر سکتے ہیں، جس سے وہ پیچیدہ سماجی حالات کو زیادہ مؤثر طریقے سے نیویگیٹ کر سکتے ہیں۔

یہ کمزوریاں ظاہر کرتی ہیں کہ اگرچہ GPT سماجی رویے کے کچھ پہلوؤں کی تقلید کر سکتا ہے، لیکن یہ اب بھی ان شعبوں میں کم ہے جن میں جذباتی سمجھ، طویل مدتی منصوبہ بندی، اور سیاق و سباق پر مبنی موافقت کی ضرورت ہوتی ہے۔

AI میں بہتر سماجی بیداری پیدا کرنا

محققین سماجی مخمصوں کو نیویگیٹ کرنے کے لیے GPT کی صلاحیت کو بہتر بنانے کے لیے کئی امید افزا طریقوں کی تلاش کر رہے ہیں۔ ان طریقوں کا مقصد AI کو سماجی طور پر زیادہ آگاہ اور پیچیدہ سماجی ماحول میں بہتر فیصلے کرنے کے قابل بنانا ہے۔

ایک نقطہ نظر ہے۔ ہیومن فیڈ بیک (RLHF) سے کمک سیکھنا۔ اس طریقہ کار میں، AI کو انسانوں کے تاثرات کا استعمال کرتے ہوئے تربیت دی جاتی ہے۔ AI کے فیصلوں پر رائے دے کر، اسے مزید تعاون پر مبنی اور منصفانہ انتخاب کرنا سکھایا جا سکتا ہے۔ اینتھروپک جیسی کمپنیاں پہلے ہی اپنے AI سسٹمز میں اس طریقہ کو نافذ کر رہی ہیں تاکہ سماجی استدلال کو بہتر بنایا جا سکے اور فیصلے انسانی اقدار کے مطابق ہوں۔

ایک اور امید افزا طریقہ میں نقلی دنیاوں کا استعمال شامل ہے۔ مثال کے طور پر، AI ٹاؤن جیسے پلیٹ فارمز ورچوئل سوسائٹیز تخلیق کرتے ہیں جہاں AI ایجنٹس بات چیت کرتے ہیں اور طویل مدتی سماجی مخمصوں کا سامنا کرتے ہیں۔ یہ ماحول محققین کو اس بات کا مطالعہ کرنے کی اجازت دیتے ہیں کہ AI کس طرح وقت کے ساتھ ساتھ بہتر سماجی حکمت عملیوں کو اپناتا اور تیار کرتا ہے، جس سے یہ بصیرت ملتی ہے کہ AI حقیقی دنیا کی ایپلی کیشنز میں اپنی فیصلہ سازی کو کیسے بہتر بنا سکتا ہے۔

ایک تیسرا طریقہ ہائبرڈ ماڈل کا استعمال ہے۔ GPT جیسے زبان کے ماڈلز کو اصول پر مبنی منطق کے ساتھ جوڑ کر، AI سسٹم بنیادی اصولوں پر عمل کر سکتے ہیں، جیسے کہ تعاون، جبکہ دیگر منظرناموں میں بھی لچک برقرار رکھتے ہیں۔ یہ ہائبرڈ ماڈلز سماجی مخمصوں میں AI کے رویے کی رہنمائی کرنے میں مدد کر سکتے ہیں، اس بات کو یقینی بناتے ہوئے کہ یہ مختلف سیاق و سباق سے مطابقت رکھتے ہوئے اخلاقی طور پر درست فیصلے کرتا ہے۔

نیچے کی لکیر

GPT ماڈلز نے سماجی مخمصوں میں فیصلہ سازی کی تقلید میں اہم پیش رفت کی ہے، لیکن انہیں اب بھی کلیدی چیلنجوں کا سامنا ہے۔ اگرچہ وہ منطقی استدلال میں مہارت رکھتے ہیں اور انسانی فیصلہ سازی کے نمونوں کی نقل کر سکتے ہیں، ان میں حقیقی سماجی ذہانت کا فقدان ہے۔ جذبات کو سمجھنے، طویل مدتی تعلقات استوار کرنے اور سیاق و سباق کے مطابق ڈھالنے میں ان کی نااہلی پیچیدہ سماجی منظرناموں میں ان کی تاثیر کو محدود کرتی ہے۔

تاہم، RLHF، نقلی دنیاوں، اور ہائبرڈ ماڈلز میں جاری تحقیق AI کی سماجی بیداری کو بڑھانے کے وعدے کو ظاہر کرتی ہے۔ یہ پیش رفت زیادہ سماجی طور پر آگاہ AI نظام بنانے میں مدد کر سکتی ہے، جو انسانی اقدار کے مطابق فیصلے کرنے کی صلاحیت رکھتی ہے۔

ڈاکٹر اسد عباس، اے مدت ملازمت یافتہ ایسوسی ایٹ پروفیسر کامسیٹس یونیورسٹی اسلام آباد، پاکستان میں، پی ایچ ڈی کی ڈگری حاصل کی۔ نارتھ ڈکوٹا اسٹیٹ یونیورسٹی، USA سے۔ اس کی تحقیق جدید ٹیکنالوجیز پر مرکوز ہے، بشمول کلاؤڈ، فوگ، اور ایج کمپیوٹنگ، بگ ڈیٹا اینالیٹکس، اور اے آئی۔ ڈاکٹر عباس نے معروف سائنسی جرائد اور کانفرنسوں میں اشاعتوں کے ساتھ خاطر خواہ تعاون کیا ہے۔