ہمارے ساتھ رابطہ

محققین AI کی بھروسے کو بڑھانے میں مدد کے لیے "DeepTrust" ٹول تیار کرتے ہیں۔

مصنوعی ذہانت

محققین AI کی بھروسے کو بڑھانے میں مدد کے لیے "DeepTrust" ٹول تیار کرتے ہیں۔

mm

مصنوعی ذہانت (AI) کی حفاظت اور اعتماد ٹیکنالوجی کے سب سے بڑے پہلوؤں میں سے ایک ہے۔ مختلف شعبوں میں اعلیٰ ماہرین کی طرف سے اسے مسلسل بہتر بنایا جا رہا ہے اور اس پر کام کیا جا رہا ہے، اور یہ پورے معاشرے میں AI کے مکمل نفاذ کے لیے اہم ہو گا۔ 

اس میں سے کچھ نیا کام یونیورسٹی آف سدرن کیلیفورنیا سے نکل رہا ہے، جہاں USC Viterbi انجینئرنگ کے محققین نے ایک نیا ٹول تیار کیا ہے جو خودکار اشارے پیدا کرنے کے قابل ہے کہ آیا AI الگورتھم اپنے ڈیٹا اور پیشین گوئیوں میں قابل اعتماد ہیں یا نہیں۔ 

تحقیق میں شائع ہوا تھا مصنوعی ذہانت میں فرنٹیئرز، کے عنوان سے "سب کے بعد امید ہے: نیورل نیٹ ورکس میں رائے اور اعتماد کی مقدار کو درست کرنا" مقالے کے مصنفین میں یو ایس سی سائبر فزیکل سسٹمز گروپ کے منگسی چینگ، شاہین نزاریان اور پال بوگڈان شامل ہیں۔ 

نیورل نیٹ ورکس کی قابل اعتمادی

اس علاقے میں سب سے بڑے کاموں میں سے ایک ایسی پیشین گوئیاں پیدا کرنے کے لیے نیورل نیٹ ورک حاصل کرنا ہے جن پر بھروسہ کیا جا سکتا ہے۔ بہت سے معاملات میں، یہ وہی چیز ہے جو AI پر انحصار کرنے والی ٹیکنالوجی کو اپنانے سے روکتی ہے۔ 

مثال کے طور پر، خود چلانے والی گاڑیوں کو خود مختاری سے کام کرنے اور آٹو پائلٹ کے بارے میں درست فیصلے کرنے کی ضرورت ہوتی ہے۔ انہیں سڑک پر موجود اشیاء کو سمجھنے اور پہچانتے ہوئے یہ فیصلے بہت تیزی سے کرنے کے قابل ہونے کی ضرورت ہے۔ یہ بہت اہم ہے، خاص طور پر ایسے منظرناموں میں جہاں ٹیکنالوجی کو رفتار کے ٹکرانے، کسی دوسری چیز، یا کسی جاندار کے درمیان فرق کو سمجھنا ہوگا۔ 

دیگر منظرناموں میں خود سے چلنے والی گاڑی یہ فیصلہ کرتی ہے کہ جب دوسری گاڑی اس کے سامنے آتی ہے تو اسے کیا کرنا ہے، اور سب سے پیچیدہ فیصلہ یہ ہے کہ کیا خود سے چلنے والی گاڑی کو یہ فیصلہ کرنے کی ضرورت ہے کہ اسے دوسری گاڑی کے طور پر کیا محسوس ہوتا ہے، کسی چیز سے ٹکرانے کے درمیان، یا ایک جاندار؟

اس کا مطلب یہ ہے کہ ہم سیلف ڈرائیونگ گاڑی کے سافٹ وئیر کی صلاحیت پر بہت زیادہ بھروسہ کر رہے ہیں تاکہ ایک سیکنڈ کے کچھ حصوں میں درست فیصلہ کر سکیں۔ یہ اور بھی مشکل ہو جاتا ہے جب مختلف سینسرز سے متضاد معلومات ہوں، جیسے کیمروں سے کمپیوٹر ویژن اور لیڈار۔ 

سرکردہ مصنف منکسی چینگ نے یہ سوچنے کے بعد اس منصوبے کو آگے بڑھانے کا فیصلہ کیا، "یہاں تک کہ انسان بھی فیصلہ سازی کے بعض منظرناموں میں غیر فیصلہ کن ہو سکتے ہیں۔ متضاد معلومات کے معاملات میں، مشینیں ہمیں کیوں نہیں بتا سکتی جب وہ نہیں جانتے؟

ڈیپ ٹرسٹ

الیکٹریکل اور کمپیوٹر انجینئرنگ کے منگ ہسی ڈپارٹمنٹ میں ایک ایسوسی ایٹ پروفیسر پال بوگڈان کے مطابق، محققین کی طرف سے تیار کردہ آلے کو ڈیپ ٹرسٹ کہا جاتا ہے، اور یہ غیر یقینی صورتحال کی مقدار کو درست کرنے کے قابل ہے۔ 

ٹیم نے ڈیپ ٹرسٹ کو تیار کرنے میں تقریباً دو سال گزارے، بنیادی طور پر نیورل نیٹ ورکس کا اندازہ لگانے کے لیے ساپیکش منطق کا استعمال کیا۔ ٹول کے کام کرنے کی ایک مثال میں، یہ 2016 کے صدارتی انتخابات کے انتخابات کو دیکھنے اور یہ پیش گوئی کرنے کے قابل تھا کہ ہلیری کلنٹن کے جیتنے میں غلطی کا زیادہ فرق تھا۔ 

ڈیپ ٹرسٹ ٹول عام طور پر لاکھوں ڈیٹا پوائنٹس پر تربیت یافتہ AI الگورتھم کی وشوسنییتا کو جانچنا بھی آسان بناتا ہے۔ ایسا کرنے کا دوسرا طریقہ یہ ہے کہ درستگی کو جانچنے کے لیے ڈیٹا پوائنٹس میں سے ہر ایک کو آزادانہ طور پر چیک کریں، جو کہ ایک انتہائی وقت طلب کام ہے۔ 

محققین کے مطابق، ان نیورل نیٹ ورک سسٹمز کا فن تعمیر زیادہ درست ہے، اور درستگی اور اعتماد کو بیک وقت زیادہ سے زیادہ کیا جا سکتا ہے۔

"ہمارے علم کے مطابق، گہرائی سے سیکھنے، مصنوعی ذہانت اور مشین لرننگ کے لیے کوئی ٹرسٹ کوانٹیفیکیشن ماڈل یا ٹول نہیں ہے۔ یہ پہلا نقطہ نظر ہے اور تحقیق کی نئی سمتیں کھولتا ہے،" بوگڈان کہتے ہیں۔ 

بوگڈان کا یہ بھی ماننا ہے کہ ڈیپ ٹرسٹ AI کو اس مقام تک آگے بڑھانے میں مدد کر سکتا ہے جہاں یہ "آگاہی اور موافقت پذیر" ہے۔

 

Alex McFarland ایک AI صحافی اور مصنف ہے جو مصنوعی ذہانت میں تازہ ترین پیشرفت کی کھوج لگا رہا ہے۔ اس نے دنیا بھر میں متعدد AI اسٹارٹ اپس اور اشاعتوں کے ساتھ تعاون کیا ہے۔