ہمارے ساتھ رابطہ

ذمہ دار AI کیا ہے؟ اصول، چیلنجز، اور فوائد

اے آئی 101

ذمہ دار AI کیا ہے؟ اصول، چیلنجز، اور فوائد

mm
کھیتوں میں کھڑا ایک شخص اپنے ہاتھوں میں گلوب پکڑے ہوئے ہے۔

ذمہ دار اے آئی (RAI) سے مراد ایسے AI نظاموں کی ڈیزائننگ اور تعیناتی ہے جو شفاف، غیر جانبدارانہ، جوابدہ، اور اخلاقی رہنما خطوط پر عمل پیرا ہوں۔ جیسا کہ AI سسٹمز زیادہ مضبوط اور مروجہ ہو جاتے ہیں، اس بات کو یقینی بنانا کہ وہ ذمہ داری کے ساتھ تیار کیے گئے ہیں اور حفاظت اور اخلاقی رہنما خطوط پر عمل کرنا ضروری ہے۔

صحت، نقل و حمل، نیٹ ورک مینجمنٹ، اور نگرانی ہیں۔ حفاظت کے لیے اہم AI ایپلی کیشنز جہاں نظام کی خرابی کے سنگین نتائج ہو سکتے ہیں۔ بڑی فرمیں اس بات سے واقف ہیں کہ RAI ٹیکنالوجی کے خطرات کو کم کرنے کے لیے ضروری ہے۔ پھر بھی ایم آئی ٹی سلوان/بی سی جی کی رپورٹ کے مطابق جس میں 1093 جواب دہندگان شامل تھے، 54٪ کمپنیوں میں ذمہ دار AI مہارت اور ہنر کی کمی تھی۔

اگرچہ سوچنے والے رہنماؤں اور تنظیموں نے ذمہ دار AI کے لیے اصول تیار کیے ہیں، لیکن AI نظاموں کی ذمہ دارانہ ترقی کو یقینی بنانا اب بھی چیلنجز پیش کرتا ہے۔ آئیے اس خیال کو تفصیل سے دیکھیں:

ذمہ دار AI کے لیے 5 اصول

1. انصاف پسندی

تکنیکی ماہرین کو طریقہ کار وضع کرنا چاہیے تاکہ AI نظام تمام افراد اور گروہوں کے ساتھ تعصب کے بغیر منصفانہ برتاؤ کرے۔ لہذا، اعلی خطرے سے متعلق فیصلہ سازی کی درخواستوں میں انصاف پسندی بنیادی ضرورت ہے۔

انصاف اس کی وضاحت یہ ہے:

"مختلف آبادیاتی گروہوں پر پڑنے والے اثرات کا جائزہ لینا اور گروپ کی انصاف پسندی کی متعدد ریاضیاتی تعریفوں میں سے ایک کا انتخاب کرنا جو قانونی، ثقافتی، اور اخلاقی تقاضوں کے مطلوبہ سیٹ کو مناسب طریقے سے پورا کرے۔"

2. احتساب

جوابدہی کا مطلب ہے کہ وہ افراد اور تنظیمیں جو AI سسٹم کو تیار کرنے اور ان کی تعیناتی کرنے والے اپنے فیصلوں اور اعمال کے لیے ذمہ دار ہوں۔ AI سسٹمز کو تعینات کرنے والی ٹیم کو اس بات کو یقینی بنانا چاہیے کہ ان کا AI سسٹم شفاف، قابل تشریح، قابل سماعت ہے اور معاشرے کو نقصان نہیں پہنچاتا ہے۔

احتساب شامل ہے۔ سات اجزاء:

  1. سیاق و سباق (مقصد جس کے لیے احتساب ضروری ہے)
  2. حد (احتساب کا موضوع)
  3. ایجنٹ (جو جوابدہ ہے؟)
  4. فورم (جس کو ذمہ دار فریق کو رپورٹ کرنا چاہیے)
  5. معیارات (احتساب کا معیار)
  6. عمل (احتساب کا طریقہ)
  7. مضمرات (احتساب کے نتائج)

3. شفافیت

شفافیت کا مطلب یہ ہے کہ اے آئی سسٹمز میں فیصلہ سازی کی وجہ واضح اور قابل فہم ہے۔ شفاف AI نظام قابل وضاحت ہیں۔

کے مطابق قابل اعتماد مصنوعی ذہانت (ALTAI) کے لیے تشخیص کی فہرستشفافیت کے تین اہم عناصر ہیں:

  1. ٹریس ایبلٹی (ڈیٹا، پری پروسیسنگ کے مراحل، اور ماڈل قابل رسائی ہے)
  2. وضاحت (فیصلہ سازی/پیش گوئی کے پیچھے استدلال واضح ہے)
  3. اوپن کمیونیکیشن (AI سسٹم کی حد بندی کے حوالے سے)

4. پرائیویسی

رازداری ذمہ دار AI کے بنیادی اصولوں میں سے ایک ہے۔ اس سے مراد ذاتی معلومات کا تحفظ ہے۔ یہ اصول اس بات کو یقینی بناتا ہے کہ لوگوں کی ذاتی معلومات اکٹھی کی جائیں اور رضامندی کے ساتھ اس پر کارروائی کی جائے اور بدعنوانی کرنے والوں کے ہاتھ سے باہر رکھا جائے۔

جیسا کہ حال ہی میں ثبوت ہے، Clearview، ایک ایسی کمپنی کا معاملہ تھا جو قانون نافذ کرنے والے اداروں اور یونیورسٹیوں کے لیے چہرے کی شناخت کے ماڈل بناتی ہے۔ برطانیہ کے ڈیٹا واچ ڈاگ Clearview AI پر 7.5 ملین پاؤنڈ کا مقدمہ دائر کیا۔ 20bn تصاویر کا ڈیٹا بیس بنانے کے لیے رضامندی کے بغیر سوشل میڈیا سے برطانیہ کے رہائشیوں کی تصاویر جمع کرنے کے لیے۔

5. سلامتی

سیکیورٹی کا مطلب یہ یقینی بنانا ہے کہ AI سسٹم محفوظ ہیں اور معاشرے کو خطرہ نہیں ہیں۔ AI سیکورٹی کے خطرے کی ایک مثال ہے۔ مخالف حملے. یہ بدنیتی پر مبنی حملے ML ماڈلز کو غلط فیصلے کرنے پر مجبور کرتے ہیں۔ AI سسٹمز کو سائبر حملوں سے بچانا ذمہ دار AI کے لیے ناگزیر ہے۔

4 بڑے چیلنجز اور ذمہ دار AI کے خطرات

1. تعصب

عمر، جنس، قومیت اور نسل سے متعلق انسانی تعصبات ڈیٹا اکٹھا کرنے پر اثر انداز ہو سکتے ہیں، جو ممکنہ طور پر متعصب AI ماڈلز کا باعث بنتے ہیں۔ امریکی محکمہ تجارت کا مطالعہ پتہ چلا کہ چہرے کی شناخت AI رنگین لوگوں کی غلط شناخت کرتی ہے۔ لہذا، قانون نافذ کرنے والے اداروں میں چہرے کی شناخت کے لیے AI کا استعمال غلط گرفتاریوں کا باعث بن سکتا ہے۔ نیز، منصفانہ AI ماڈل بنانا مشکل ہے کیونکہ وہاں موجود ہیں۔ 21 ان کی وضاحت کے لیے مختلف پیرامیٹرز۔ تو، ایک تجارت ہے؛ ایک منصفانہ AI پیرامیٹر کو مطمئن کرنے کا مطلب ہے دوسرے کی قربانی دینا۔

2. تشریحی صلاحیت

ترجمانی ذمہ دار AI تیار کرنے میں ایک اہم چیلنج ہے۔ اس سے مراد یہ سمجھنا ہے کہ مشین لرننگ ماڈل کس طرح کسی خاص نتیجے پر پہنچا ہے۔

گہرے عصبی نیٹ ورک میں تشریح کی کمی ہوتی ہے کیونکہ وہ چھپے ہوئے نیوران کی متعدد تہوں کے ساتھ بلیک باکس کے طور پر کام کرتے ہیں، جس سے فیصلہ سازی کے عمل کو سمجھنا مشکل ہو جاتا ہے۔ یہ صحت کی دیکھ بھال، مالیات، وغیرہ جیسے اعلی داؤ پر فیصلہ سازی میں ایک چیلنج ہو سکتا ہے۔

مزید یہ کہ ایم ایل ماڈلز میں تشریح کو باضابطہ بنانا مشکل ہے کیونکہ یہ ہے۔ مضامین اور ڈومین کے لیے مخصوص.

3. گورننس

گورننس سے مراد قواعد، پالیسیوں اور طریقہ کار کا ایک مجموعہ ہے جو AI نظاموں کی ترقی اور تعیناتی کی نگرانی کرتے ہیں۔ حال ہی میں، AI گورننس ڈسکورس میں نمایاں پیش رفت ہوئی ہے، تنظیمیں فریم ورک اور اخلاقی رہنما خطوط پیش کر رہی ہیں۔

کے لیے اخلاقی رہنما خطوط EU کی طرف سے قابل اعتماد AIآسٹریلیائی AI اخلاقیات کا فریم ورک، اور OECD AI کے اصول AI گورننس فریم ورک کی مثالیں ہیں۔

لیکن حالیہ برسوں میں AI میں تیزی سے ترقی ان AI گورننس فریم ورک کو آگے بڑھا سکتی ہے۔ اس مقصد کے لیے، ایک فریم ورک کی ضرورت ہے جو AI سسٹمز کی انصاف پسندی، تشریح اور اخلاقیات کا جائزہ لے۔

4. ضابطہ

جیسا کہ AI نظام زیادہ مقبول ہو رہے ہیں، اخلاقی اور معاشرتی اقدار پر غور کرنے کے لیے ضابطے کی ضرورت ہے۔ ایسا ضابطہ تیار کرنا جو AI جدت طرازی کو نہ روکے ذمہ دار AI میں ایک اہم چیلنج ہے۔

یہاں تک کہ جنرل ڈیٹا پروٹیکشن ریگولیشن (GDPR)، کیلیفورنیا کنزیومر پرائیویسی ایکٹ (CCPA) اور پرسنل انفارمیشن پروٹیکشن قانون (PIPL) کو بطور ریگولیٹری اداروں کے ساتھ، AI محققین نے پایا کہ 97٪ یورپی یونین کی ویب سائٹس GDPR قانونی فریم ورک کے تقاضوں کی تعمیل کرنے میں ناکام رہتی ہیں۔

مزید یہ کہ قانون سازوں کو ایک کا سامنا کرنا پڑتا ہے۔ اہم چیلنج AI کی تعریف پر اتفاق رائے تک پہنچنے کے لیے جس میں کلاسیکل AI سسٹمز اور جدید ترین AI ایپلی کیشنز شامل ہیں۔

ذمہ دار AI کے 3 بڑے فوائد

1. کم تعصب

ذمہ دار AI فیصلہ سازی کے عمل میں تعصب کو کم کرتا ہے، AI نظاموں میں اعتماد پیدا کرتا ہے۔ AI نظاموں میں تعصب کو کم کرنا ایک منصفانہ اور مساوی صحت کی دیکھ بھال کا نظام فراہم کر سکتا ہے اور AI پر مبنی تعصب کو کم کرتا ہے۔ مالیاتی خدمات وغیرہ شامل ہیں.

2. بہتر شفافیت

ذمہ دار AI شفاف AI ایپلی کیشنز بناتا ہے جو AI سسٹمز میں اعتماد پیدا کرتی ہے۔ شفاف AI نظام غلطی اور غلط استعمال کے خطرے کو کم کریں. بہتر شفافیت AI سسٹمز کی آڈیٹنگ کو آسان بناتی ہے، اسٹیک ہولڈرز کا اعتماد جیتتی ہے، اور جوابدہ AI سسٹمز کا باعث بن سکتی ہے۔

3. بہتر سلامتی

محفوظ AI ایپلی کیشنز ڈیٹا کی رازداری کو یقینی بناتے ہیں، قابل اعتماد اور بے ضرر آؤٹ پٹ تیار کرتے ہیں، اور سائبر حملوں سے محفوظ رہتے ہیں۔

ٹیک جنات پسند کرتے ہیں۔ مائیکروسافٹ اور گوگلجو کہ AI نظام تیار کرنے میں سب سے آگے ہیں، نے ذمہ دار AI اصول تیار کیے ہیں۔ ذمہ دار AI یقینی بناتا ہے کہ AI میں اختراع افراد اور معاشرے کے لیے نقصان دہ نہیں ہے۔

سوچ رکھنے والے رہنماؤں، محققین، تنظیموں اور قانونی حکام کو AI اختراع کے محفوظ مستقبل کو یقینی بنانے کے لیے ذمہ دار AI لٹریچر پر مسلسل نظر ثانی کرنی چاہیے۔

AI سے متعلق مزید مواد کے لیے، ملاحظہ کریں۔ unite.ai.