ہمارے ساتھ رابطہ

اے آئی کے محققین اعتماد کے وقفوں کا حساب لگانے کا تیز طریقہ تیار کرتے ہیں، جب ماڈل پر بھروسہ نہیں کیا جانا چاہیے تو رپورٹنگ

مصنوعی ذہانت

اے آئی کے محققین اعتماد کے وقفوں کا حساب لگانے کا تیز طریقہ تیار کرتے ہیں، جب ماڈل پر بھروسہ نہیں کیا جانا چاہیے تو رپورٹنگ

mm

ایم آئی ٹی کے محققین حال ہی میں ہے ایک تکنیک تیار کی جو ڈیپ لرننگ نیٹ ورک ماڈلز کو اعتماد کی سطحوں کا تیزی سے حساب لگانے کے قابل بناتا ہے، جس سے ڈیٹا سائنسدانوں اور دیگر AI صارفین کو یہ جاننے میں مدد مل سکتی ہے کہ ماڈل کی طرف سے پیش کی جانے والی پیشین گوئیوں پر کب بھروسہ کرنا ہے۔

مصنوعی اعصابی نیٹ ورکس پر مبنی AI سسٹمز ان دنوں زیادہ سے زیادہ فیصلوں کے لیے ذمہ دار ہیں، بشمول بہت سے ایسے فیصلے جن میں لوگوں کی صحت اور حفاظت شامل ہے۔ اس کی وجہ سے، نیورل نیٹ ورکس کے پاس اپنے آؤٹ پٹس پر اعتماد کا اندازہ لگانے کا کوئی طریقہ ہونا چاہیے، جس سے ڈیٹا سائنسدانوں کو یہ بتانے کے قابل بنایا جائے کہ ان کی پیشین گوئیاں کتنی قابل اعتبار ہیں۔ حال ہی میں، ہارورڈ اور ایم آئی ٹی کے محققین کی ایک ٹیم نے عصبی نیٹ ورکس کے لیے اس کی پیشین گوئیوں کے ساتھ ساتھ ماڈل کے اعتماد کا اشارہ پیدا کرنے کا ایک تیز طریقہ ڈیزائن کیا۔

گہرے سیکھنے کے ماڈل پچھلی دہائی کے دوران زیادہ سے زیادہ نفیس ہو گئے ہیں، اور اب وہ ڈیٹا کی درجہ بندی کے کاموں میں انسانوں کو آسانی سے بہتر کر سکتے ہیں۔ ڈیپ لرننگ ماڈلز کا استعمال ان شعبوں میں کیا جا رہا ہے جہاں لوگوں کی صحت اور حفاظت کو خطرہ لاحق ہو سکتا ہے اگر وہ ناکام ہو جائیں، خود مختار گاڑیاں چلانا اور سکینوں سے طبی حالات کی تشخیص کرنا۔ ان صورتوں میں، یہ کافی نہیں ہے کہ ایک ماڈل 99% درست ہو، 1% بار جب ماڈل ناکام ہو جاتا ہے تو تباہی کا باعث بن سکتا ہے۔ نتیجے کے طور پر، ایک ایسا طریقہ ہونا ضروری ہے جس سے ڈیٹا سائنسدان اس بات کا تعین کر سکیں کہ کوئی بھی پیش گوئی کتنی قابل اعتبار ہے۔

اعصابی نیٹ ورکس کی پیشین گوئیوں کے ساتھ اعتماد کا وقفہ پیدا کرنے کے چند طریقے ہیں، لیکن نیورل نیٹ ورک کے لیے غیر یقینی صورتحال کا تخمینہ لگانے کے روایتی طریقے کافی سست اور حسابی طور پر مہنگے ہیں۔ عصبی نیٹ ورک ناقابل یقین حد تک بڑے اور پیچیدہ ہوسکتے ہیں، جو اربوں پیرامیٹرز سے بھرے ہوتے ہیں۔ صرف پیشین گوئیاں بنانا حسابی طور پر مہنگا ہو سکتا ہے اور اس میں کافی وقت لگتا ہے، اور پیشین گوئیوں کے لیے اعتماد کی سطح پیدا کرنے میں اور بھی زیادہ وقت لگتا ہے۔ غیر یقینی صورتحال کو کم کرنے کے زیادہ تر پچھلے طریقوں نے اس کے اعتماد کا اندازہ حاصل کرنے کے لیے نیٹ ورک کو بار بار نمونے لینے یا چلانے پر انحصار کیا ہے۔ یہ ان ایپلیکیشنز کے لیے ہمیشہ ممکن نہیں ہوتا جن کے لیے تیز رفتار ٹریفک کی ضرورت ہوتی ہے۔

جیسا کہ MIT نیوز نے اطلاع دی ہے۔، الیگزینڈر امینی MIT اور ہارورڈ کے محققین کے مشترکہ گروپ کی قیادت کرتے ہیں، اور امینی کے مطابق ان کے محققین کی طرف سے تیار کردہ طریقہ "ڈیپ ایویڈینشل ریگریشن" نامی تکنیک کا استعمال کرتے ہوئے غیر یقینی صورتحال کے تخمینے پیدا کرنے کے عمل کو تیز کرتا ہے۔ امینی نے MIT کے توسط سے وضاحت کی کہ ڈیٹا سائنسدانوں کو تیز رفتار ماڈلز اور غیر یقینی صورتحال کے قابل اعتماد اندازے دونوں کی ضرورت ہوتی ہے تاکہ ناقابل اعتماد ماڈلز کا پتہ لگایا جا سکے۔ ماڈل کی رفتار دونوں کو محفوظ رکھنے اور غیر یقینی صورتحال کا تخمینہ پیدا کرنے کے لیے، محققین نے ماڈل کے صرف ایک رن سے غیر یقینی صورتحال کا اندازہ لگانے کا ایک طریقہ تیار کیا۔

محققین نے نیورل نیٹ ورک ماڈل کو اس طرح ڈیزائن کیا کہ ہر فیصلے کے ساتھ ساتھ ایک امکانی تقسیم پیدا کی گئی۔ نیٹ ورک تربیتی عمل کے دوران اپنے فیصلوں کے ثبوت کو برقرار رکھتا ہے، ثبوت کی بنیاد پر امکانی تقسیم پیدا کرتا ہے۔ واضح تقسیم ماڈل کے اعتماد کی نمائندگی کرتی ہے، اور یہ ماڈل کے حتمی فیصلے کے ساتھ ساتھ اصل ان پٹ ڈیٹا دونوں کے لیے غیر یقینی کی نمائندگی کرتی ہے۔ ان پٹ ڈیٹا اور فیصلوں دونوں کے لیے غیر یقینی صورتحال کو پکڑنا ضروری ہے، کیونکہ غیر یقینی صورتحال کو کم کرنا غیر یقینی صورتحال کے ماخذ کو جاننے پر منحصر ہے۔

محققین نے اپنی غیر یقینی صورتحال کے تخمینے کی تکنیک کو کمپیوٹر وژن ٹاسک میں لاگو کرکے جانچا۔ ماڈل کو تصاویر کی ایک سیریز پر تربیت دینے کے بعد، اس نے پیشین گوئیاں اور غیر یقینی صورتحال کے تخمینے دونوں پیدا کیے۔ نیٹ ورک نے ان مثالوں کے لیے اعلیٰ غیر یقینی صورتحال کو درست طریقے سے پیش کیا جہاں غلط پیشین گوئی کی گئی تھی۔ امینی نے ماڈل کے ٹیسٹ کے نتائج کے بارے میں کہا کہ "یہ نیٹ ورک کی جانب سے کی جانے والی غلطیوں کے لیے بہت حد تک کیلیبریٹ کیا گیا تھا، جس کے بارے میں ہمیں یقین ہے کہ یہ ایک نئے غیر یقینی صورتحال کے تخمینہ لگانے والے کے معیار کو جانچنے میں سب سے اہم چیزوں میں سے ایک ہے۔"

تحقیقی ٹیم نے اپنے نیٹ ورک کے فن تعمیر کے ساتھ مزید ٹیسٹ کرنے کے لیے آگے بڑھا۔ تکنیک کو زور سے جانچنے کے لیے، انہوں نے "آؤٹ آف ڈسٹری بیوشن" ڈیٹا پر ڈیٹا کا بھی تجربہ کیا، ڈیٹا سیٹ ان چیزوں پر مشتمل ہے جو نیٹ ورک نے پہلے کبھی نہیں دیکھے تھے۔ جیسا کہ توقع کی گئی ہے، نیٹ ورک نے ان دیکھی چیزوں کے لیے زیادہ غیر یقینی صورتحال کی اطلاع دی۔ اندرونی ماحول میں تربیت حاصل کرنے پر، بیرونی ماحول کی تصاویر پر تجربہ کرنے پر نیٹ ورک نے انتہائی غیر یقینی صورتحال ظاہر کی۔ ٹیسٹوں سے پتہ چلتا ہے کہ نیٹ ورک اس وقت نمایاں ہو سکتا ہے جب اس کے فیصلے زیادہ غیر یقینی صورتحال کے تابع ہوں اور بعض، زیادہ خطرے والے حالات میں اس پر بھروسہ نہیں کیا جانا چاہیے۔

تحقیقی ٹیم نے یہاں تک اطلاع دی کہ نیٹ ورک اس بات کا اندازہ لگا سکتا ہے کہ تصاویر کو کب بنایا گیا تھا۔ جب تحقیقی ٹیم نے مخالف شور کے ساتھ تصاویر کو تبدیل کیا، تو نیٹ ورک نے نئی تبدیل شدہ تصاویر کو اعلیٰ غیر یقینی اندازوں کے ساتھ ٹیگ کیا، اس حقیقت کے باوجود کہ اثر اوسط انسانی مبصر کے ذریعے دیکھنے کے لیے بہت لطیف تھا۔

اگر یہ تکنیک قابل اعتماد ثابت ہوتی ہے تو، گہری واضح رجعت عام طور پر AI ماڈلز کی حفاظت کو بہتر بنا سکتی ہے۔ امینی کے مطابق، گہرا واضح رجعت لوگوں کو خطرناک حالات میں AI ماڈلز کا استعمال کرتے ہوئے محتاط فیصلے کرنے میں مدد کر سکتا ہے۔ جیسا کہ امینی نے MIT نیوز کے ذریعے وضاحت کی۔:

"ہم ان [اعصابی نیٹ ورک] کے بہت سے ماڈلز کو ریسرچ لیب سے باہر اور حقیقی دنیا میں، ایسے حالات میں دیکھنا شروع کر رہے ہیں جو انسانوں کو ممکنہ طور پر جان لیوا نتائج کے ساتھ چھو رہے ہیں۔ طریقہ استعمال کرنے والے کسی بھی صارف کو، چاہے وہ ڈاکٹر ہو یا گاڑی کی مسافر نشست پر بیٹھنے والا شخص، اس فیصلے سے منسلک کسی بھی خطرے یا غیر یقینی صورتحال سے آگاہ ہونا ضروری ہے۔"