ปัญญาประดิษฐ์
วิธีดำเนินการตรวจสอบ AI ในปี 2023
การตรวจสอบ AI หมายถึงการประเมินระบบ AI เพื่อให้แน่ใจว่าทำงานได้ตามที่คาดไว้ อคติ หรือการเลือกปฏิบัติและเป็นไปตามมาตรฐานทางจริยธรรมและกฎหมาย AI มีประสบการณ์การเติบโตแบบทวีคูณในทศวรรษที่ผ่านมา ด้วยเหตุนี้ ความเสี่ยงที่เกี่ยวข้องกับ AI จึงกลายเป็นปัญหาสำหรับองค์กรต่างๆ ดังที่ Elon Musk กล่าวว่า:
“AI เป็นกรณีที่เกิดขึ้นไม่บ่อยนัก ซึ่งผมคิดว่าเราจำเป็นต้องมีการควบคุมเชิงรุกมากกว่าเชิงโต้ตอบ”
องค์กรต้องพัฒนาการกำกับดูแล การประเมินความเสี่ยง และกลยุทธ์การควบคุมสำหรับพนักงานที่ทำงานกับ AI ความรับผิดชอบของ AI กลายเป็นสิ่งสำคัญในการตัดสินใจที่เดิมพันสูง เช่น การปรับใช้การรักษาพยาบาลในพื้นที่หนึ่งและไม่ใช่ในอีกพื้นที่หนึ่ง การจ้างงานและการปฏิเสธผู้สมัคร
บทความนี้จะนำเสนอภาพรวมของการตรวจสอบ AI กรอบและข้อบังคับสำหรับการตรวจสอบ AI และรายการตรวจสอบสำหรับการตรวจสอบแอปพลิเคชัน AI
ปัจจัยที่ต้องพิจารณา
- การปฏิบัติตามข้อกำหนด: การประเมินความเสี่ยงที่เกี่ยวข้องกับการปฏิบัติตามกฎข้อบังคับ กฎหมาย จริยธรรม และการพิจารณาทางสังคมของระบบ AI
- เทคโนโลยี: การประเมินความเสี่ยงที่เกี่ยวข้องกับความสามารถทางเทคนิค รวมถึงการเรียนรู้ของเครื่อง มาตรฐานความปลอดภัย และประสิทธิภาพของโมเดล
ความท้าทายในการตรวจสอบระบบ AI
- อคติ: ระบบ AI สามารถขยายอคติในข้อมูลที่พวกเขาได้รับการฝึกฝนและทำการตัดสินใจที่ไม่ยุติธรรม ตระหนักถึงปัญหานี้ จึงเปิดตัวสถาบันวิจัยปัญหาการวิจัยแห่งมหาวิทยาลัยสแตนฟอร์ด ชื่อว่า Human Centered AI (HAI) ความท้าทายด้านนวัตกรรม $71,000 เพื่อออกแบบการตรวจสอบ AI ที่ดีขึ้น. วัตถุประสงค์ของความท้าทายนี้คือห้ามการเลือกปฏิบัติในระบบ AI
- ความซับซ้อน: ระบบ AI โดยเฉพาะระบบที่ใช้การเรียนรู้เชิงลึกนั้นซับซ้อนและขาดความสามารถในการตีความ
ข้อบังคับและกรอบการทำงานที่มีอยู่สำหรับการตรวจสอบ AI
กฎข้อบังคับ และเฟรมเวิร์กทำหน้าที่เป็นดาวเหนือในการตรวจสอบ AI กรอบการตรวจสอบและระเบียบข้อบังคับที่สำคัญบางส่วนได้อธิบายไว้ด้านล่างนี้
กรอบการตรวจสอบ
- COBIT Framework (วัตถุประสงค์การควบคุมสำหรับข้อมูลและเทคโนโลยีที่เกี่ยวข้อง): เป็นกรอบการทำงานสำหรับการกำกับดูแลและการจัดการด้านไอทีขององค์กร
- IIA's (Institute of Internal Auditors) AI Auditing Framework: AI Framework นี้มีวัตถุประสงค์เพื่อประเมินการออกแบบ การพัฒนา และการทำงานของระบบ AI และความสอดคล้องกับวัตถุประสงค์ขององค์กร สามองค์ประกอบหลักของกรอบการตรวจสอบ AI ของ IIA ได้แก่ กลยุทธ์ การกำกับดูแล และปัจจัยมนุษย์ มีองค์ประกอบ XNUMX ประการดังนี้
- ความยืดหยุ่นทางไซเบอร์
- ความสามารถของ AI
- คุณภาพของข้อมูล
- สถาปัตยกรรมข้อมูลและโครงสร้างพื้นฐาน
- การวัดประสิทธิภาพ
- จริยธรรม
- กล่องดำ
- กรอบงาน COSO ERM: กรอบงานนี้เป็นกรอบอ้างอิงสำหรับการประเมินความเสี่ยงสำหรับระบบ AI ในองค์กร การตรวจสอบภายในมีห้าองค์ประกอบ:
- สภาพแวดล้อมภายใน: ทำให้มั่นใจว่าการกำกับดูแลและการจัดการขององค์กรกำลังจัดการความเสี่ยงด้าน AI
- การกำหนดวัตถุประสงค์: การร่วมมือกับผู้มีส่วนได้ส่วนเสียในการกำหนดกลยุทธ์ความเสี่ยง
- การระบุเหตุการณ์: การระบุความเสี่ยงในระบบ AI เช่น อคติโดยไม่ได้ตั้งใจ การละเมิดข้อมูล
- การประเมินความเสี่ยง: ผลกระทบของความเสี่ยงจะเป็นอย่างไร?
- การตอบสนองต่อความเสี่ยง: องค์กรจะตอบสนองต่อสถานการณ์ความเสี่ยงอย่างไร เช่น คุณภาพของข้อมูลต่ำกว่ามาตรฐาน?
กฎข้อบังคับ
ระเบียบการคุ้มครองข้อมูลทั่วไป (GDPR) เป็นกฎหมายในข้อบังคับของสหภาพยุโรปที่กำหนดข้อผูกมัดให้องค์กรใช้ข้อมูลส่วนบุคคล มีเจ็ดหลักการ:
- ความถูกต้องตามกฎหมาย ความเป็นธรรม และความโปร่งใส: การประมวลผลข้อมูลส่วนบุคคลต้องเป็นไปตามกฎหมาย
- การจำกัดวัตถุประสงค์: การใช้ข้อมูลเพื่อวัตถุประสงค์เฉพาะเท่านั้น
- การลดขนาดข้อมูล: ข้อมูลส่วนบุคคลต้องเพียงพอและจำกัด
- ความถูกต้อง: ข้อมูลควรถูกต้องและเป็นปัจจุบัน
- ข้อจำกัดในการจัดเก็บ: อย่าจัดเก็บข้อมูลส่วนบุคคลที่ไม่จำเป็นอีกต่อไป
- ความสมบูรณ์และการรักษาความลับ: ข้อมูลส่วนบุคคลเคยได้รับการประมวลผลอย่างปลอดภัย
- ความรับผิดชอบ: ผู้ควบคุมในการประมวลผลข้อมูลอย่างมีความรับผิดชอบตามการปฏิบัติตาม
ระเบียบอื่นๆ ได้แก่ CCPA และ ท่อ.
รายการตรวจสอบสำหรับการตรวจสอบ AI
แหล่งข้อมูล
การระบุและตรวจสอบแหล่งข้อมูลถือเป็นข้อพิจารณาหลักในการตรวจสอบระบบ AI ผู้ตรวจสอบตรวจสอบคุณภาพของข้อมูลและดูว่า บริษัท สามารถใช้ข้อมูลได้หรือไม่
การตรวจสอบข้าม
การตรวจสอบให้แน่ใจว่าแบบจำลองได้รับการตรวจสอบข้ามอย่างเหมาะสมเป็นหนึ่งในรายการตรวจสอบของผู้ตรวจสอบ ไม่ควรใช้ข้อมูลการตรวจสอบความถูกต้องสำหรับการฝึกอบรม และเทคนิคการตรวจสอบความถูกต้องควรรับประกันความสามารถในการทำให้เป็นมาตรฐานของแบบจำลอง
โฮสติ้งที่ปลอดภัย
ในบางกรณี ระบบ AI จะใช้ข้อมูลส่วนบุคคล สิ่งสำคัญคือต้องประเมินว่าบริการโฮสติ้งหรือระบบคลาวด์เป็นไปตามข้อกำหนดด้านความปลอดภัยของข้อมูล เช่น หลักเกณฑ์ OWASP (Open Web Application Security Project)
AI ที่อธิบายได้
AI ที่อธิบายได้ หมายถึงการตีความและทำความเข้าใจการตัดสินใจของระบบ AI และปัจจัยที่ส่งผลต่อมัน ผู้ตรวจสอบตรวจสอบว่าแบบจำลองสามารถอธิบายได้อย่างเพียงพอหรือไม่โดยใช้เทคนิคต่างๆ เช่น LIME และ SHAP
เอาท์พุตของโมเดล
ความเที่ยงธรรมเป็นสิ่งแรกที่ผู้ตรวจสอบรับรองในผลลัพธ์ของแบบจำลอง ผลลัพธ์ของโมเดลควรคงเส้นคงวาเมื่อตัวแปรต่างๆ เช่น เพศ เชื้อชาติ หรือศาสนามีการเปลี่ยนแปลง นอกจากนี้ยังประเมินคุณภาพของการทำนายโดยใช้วิธีการให้คะแนนที่เหมาะสม
คำติชมทางสังคม
การตรวจสอบ AI เป็นกระบวนการที่ต่อเนื่อง ผู้ตรวจสอบควรเห็นผลกระทบทางสังคมของระบบ AI ระบบ AI และกลยุทธ์ความเสี่ยงควรได้รับการแก้ไขและตรวจสอบตามผลตอบรับ การใช้งาน ผลที่ตามมา และอิทธิพล ทั้งในเชิงบวกและเชิงลบ
บริษัทที่ตรวจสอบไปป์ไลน์และแอปพลิเคชัน AI
ห้าบริษัทใหญ่ที่ตรวจสอบ AI มีดังนี้
- Deloitte: Deloitte เป็นบริษัทที่ให้บริการระดับมืออาชีพที่ใหญ่ที่สุดในโลก และให้บริการที่เกี่ยวข้องกับการตรวจสอบบัญชี ภาษีอากร และที่ปรึกษาทางการเงิน Deloitte ใช้ RPA, AI และการวิเคราะห์เพื่อช่วยองค์กรในการประเมินความเสี่ยงของระบบ AI ของตน
- PwC: PwC เป็นเครือข่ายบริการระดับมืออาชีพที่ใหญ่เป็นอันดับสองตามรายได้ พวกเขาได้พัฒนาวิธีการตรวจสอบเพื่อช่วยให้องค์กรมั่นใจในความรับผิดชอบ ความน่าเชื่อถือ และความโปร่งใส
- EY: ในปี 2022 EY ประกาศลงทุน 1 พันล้านดอลลาร์ ในแพลตฟอร์มเทคโนโลยีที่เปิดใช้งาน AI เพื่อให้บริการตรวจสอบคุณภาพสูง บริษัทที่ขับเคลื่อนด้วย AI จะได้รับข้อมูลอย่างดีในการตรวจสอบระบบ AI
- เคพีเอ็มจี: เคพีเอ็มจีเป็นบริษัทให้บริการด้านบัญชีที่ใหญ่เป็นอันดับสี่ เคพีเอ็มจีให้บริการแบบกำหนดเองในด้านการกำกับดูแล AI การประเมินความเสี่ยง และการควบคุม
- Grant Thronton: ช่วยลูกค้าจัดการความเสี่ยงที่เกี่ยวข้องกับการปรับใช้ AI และการปฏิบัติตามจริยธรรมและข้อบังคับของ AI
ประโยชน์ของการตรวจสอบระบบ AI
- การจัดการความเสี่ยง: การตรวจสอบป้องกันหรือลดความเสี่ยงที่เกี่ยวข้องกับระบบ AI
- ความโปร่งใส: การตรวจสอบทำให้มั่นใจได้ว่าแอปพลิเคชัน AI ปราศจากอคติและการเลือกปฏิบัติ
- การปฏิบัติตาม: การตรวจสอบแอปพลิเคชัน AI หมายความว่าระบบปฏิบัติตามกฎหมายและระเบียบข้อบังคับ
การตรวจสอบ AI: สิ่งที่จะเกิดขึ้นในอนาคต
องค์กร หน่วยงานกำกับดูแล และผู้ตรวจสอบควรติดตามความก้าวหน้าของ AI ตระหนักถึงภัยคุกคามที่อาจเกิดขึ้น และหมั่นทบทวนกฎระเบียบ กรอบการทำงาน และกลยุทธ์เพื่อให้แน่ใจว่ามีการใช้งานที่ยุติธรรม ปราศจากความเสี่ยง และมีจริยธรรม
ในปี 2021 193 ประเทศสมาชิกของ ยูเนสโก ยอมรับข้อตกลงระดับโลกเกี่ยวกับจริยธรรมของ AI AI เป็นระบบนิเวศที่มีการพัฒนาอย่างต่อเนื่อง
ต้องการเนื้อหาเกี่ยวกับ AI เพิ่มเติมหรือไม่ เยี่ยม unite.ai.