ต้นขั้ว วิธีดำเนินการตรวจสอบ AI ในปี 2023 - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์

วิธีดำเนินการตรวจสอบ AI ในปี 2023

mm
วันที่อัพเดท on
ตรวจสอบ-ai

การตรวจสอบ AI หมายถึงการประเมินระบบ AI เพื่อให้แน่ใจว่าทำงานได้ตามที่คาดไว้ อคติ หรือการเลือกปฏิบัติและเป็นไปตามมาตรฐานทางจริยธรรมและกฎหมาย AI มีประสบการณ์การเติบโตแบบทวีคูณในทศวรรษที่ผ่านมา ด้วยเหตุนี้ ความเสี่ยงที่เกี่ยวข้องกับ AI จึงกลายเป็นปัญหาสำหรับองค์กรต่างๆ ดังที่ Elon Musk กล่าวว่า:

“AI เป็นกรณีที่เกิดขึ้นไม่บ่อยนัก ซึ่งผมคิดว่าเราจำเป็นต้องมีการควบคุมเชิงรุกมากกว่าเชิงโต้ตอบ”

องค์กรต้องพัฒนาการกำกับดูแล การประเมินความเสี่ยง และกลยุทธ์การควบคุมสำหรับพนักงานที่ทำงานกับ AI ความรับผิดชอบของ AI กลายเป็นสิ่งสำคัญในการตัดสินใจที่เดิมพันสูง เช่น การปรับใช้การรักษาพยาบาลในพื้นที่หนึ่งและไม่ใช่ในอีกพื้นที่หนึ่ง การจ้างงานและการปฏิเสธผู้สมัคร

บทความนี้จะนำเสนอภาพรวมของการตรวจสอบ AI กรอบและข้อบังคับสำหรับการตรวจสอบ AI และรายการตรวจสอบสำหรับการตรวจสอบแอปพลิเคชัน AI

ปัจจัยที่ต้องพิจารณา

  • การปฏิบัติตามข้อกำหนด: การประเมินความเสี่ยงที่เกี่ยวข้องกับการปฏิบัติตามกฎข้อบังคับ กฎหมาย จริยธรรม และการพิจารณาทางสังคมของระบบ AI
  • เทคโนโลยี: การประเมินความเสี่ยงที่เกี่ยวข้องกับความสามารถทางเทคนิค รวมถึงการเรียนรู้ของเครื่อง มาตรฐานความปลอดภัย และประสิทธิภาพของโมเดล

ความท้าทายในการตรวจสอบระบบ AI

  • อคติ: ระบบ AI สามารถขยายอคติในข้อมูลที่พวกเขาได้รับการฝึกฝนและทำการตัดสินใจที่ไม่ยุติธรรม ตระหนักถึงปัญหานี้ จึงเปิดตัวสถาบันวิจัยปัญหาการวิจัยแห่งมหาวิทยาลัยสแตนฟอร์ด ชื่อว่า Human Centered AI (HAI) ความท้าทายด้านนวัตกรรม $71,000 เพื่อออกแบบการตรวจสอบ AI ที่ดีขึ้น. วัตถุประสงค์ของความท้าทายนี้คือห้ามการเลือกปฏิบัติในระบบ AI
  • ความซับซ้อน: ระบบ AI โดยเฉพาะระบบที่ใช้การเรียนรู้เชิงลึกนั้นซับซ้อนและขาดความสามารถในการตีความ

ข้อบังคับและกรอบการทำงานที่มีอยู่สำหรับการตรวจสอบ AI

กฎข้อบังคับ และเฟรมเวิร์กทำหน้าที่เป็นดาวเหนือในการตรวจสอบ AI กรอบการตรวจสอบและระเบียบข้อบังคับที่สำคัญบางส่วนได้อธิบายไว้ด้านล่างนี้

กรอบการตรวจสอบ

  1. COBIT Framework (วัตถุประสงค์การควบคุมสำหรับข้อมูลและเทคโนโลยีที่เกี่ยวข้อง): เป็นกรอบการทำงานสำหรับการกำกับดูแลและการจัดการด้านไอทีขององค์กร
  2. IIA's (Institute of Internal Auditors) AI Auditing Framework: AI Framework นี้มีวัตถุประสงค์เพื่อประเมินการออกแบบ การพัฒนา และการทำงานของระบบ AI และความสอดคล้องกับวัตถุประสงค์ขององค์กร สามองค์ประกอบหลักของกรอบการตรวจสอบ AI ของ IIA ได้แก่ กลยุทธ์ การกำกับดูแล และปัจจัยมนุษย์ มีองค์ประกอบ XNUMX ประการดังนี้
  • ความยืดหยุ่นทางไซเบอร์
  • ความสามารถของ AI
  • คุณภาพของข้อมูล
  • สถาปัตยกรรมข้อมูลและโครงสร้างพื้นฐาน
  • การวัดประสิทธิภาพ
  • จริยธรรม
  • กล่องดำ
  1. กรอบงาน COSO ERM: กรอบงานนี้เป็นกรอบอ้างอิงสำหรับการประเมินความเสี่ยงสำหรับระบบ AI ในองค์กร การตรวจสอบภายในมีห้าองค์ประกอบ:
  • สภาพแวดล้อมภายใน: ทำให้มั่นใจว่าการกำกับดูแลและการจัดการขององค์กรกำลังจัดการความเสี่ยงด้าน AI
  • การกำหนดวัตถุประสงค์: การร่วมมือกับผู้มีส่วนได้ส่วนเสียในการกำหนดกลยุทธ์ความเสี่ยง
  • การระบุเหตุการณ์: การระบุความเสี่ยงในระบบ AI เช่น อคติโดยไม่ได้ตั้งใจ การละเมิดข้อมูล
  • การประเมินความเสี่ยง: ผลกระทบของความเสี่ยงจะเป็นอย่างไร?
  • การตอบสนองต่อความเสี่ยง: องค์กรจะตอบสนองต่อสถานการณ์ความเสี่ยงอย่างไร เช่น คุณภาพของข้อมูลต่ำกว่ามาตรฐาน?

กฎข้อบังคับ

ระเบียบการคุ้มครองข้อมูลทั่วไป (GDPR) เป็นกฎหมายในข้อบังคับของสหภาพยุโรปที่กำหนดข้อผูกมัดให้องค์กรใช้ข้อมูลส่วนบุคคล มีเจ็ดหลักการ:

  • ความถูกต้องตามกฎหมาย ความเป็นธรรม และความโปร่งใส: การประมวลผลข้อมูลส่วนบุคคลต้องเป็นไปตามกฎหมาย
  • การจำกัดวัตถุประสงค์: การใช้ข้อมูลเพื่อวัตถุประสงค์เฉพาะเท่านั้น
  • การลดขนาดข้อมูล: ข้อมูลส่วนบุคคลต้องเพียงพอและจำกัด
  • ความถูกต้อง: ข้อมูลควรถูกต้องและเป็นปัจจุบัน
  • ข้อจำกัดในการจัดเก็บ: อย่าจัดเก็บข้อมูลส่วนบุคคลที่ไม่จำเป็นอีกต่อไป
  • ความสมบูรณ์และการรักษาความลับ: ข้อมูลส่วนบุคคลเคยได้รับการประมวลผลอย่างปลอดภัย
  • ความรับผิดชอบ: ผู้ควบคุมในการประมวลผลข้อมูลอย่างมีความรับผิดชอบตามการปฏิบัติตาม

ระเบียบอื่นๆ ได้แก่ CCPA และ ท่อ.

รายการตรวจสอบสำหรับการตรวจสอบ AI

แหล่งข้อมูล

การระบุและตรวจสอบแหล่งข้อมูลถือเป็นข้อพิจารณาหลักในการตรวจสอบระบบ AI ผู้ตรวจสอบตรวจสอบคุณภาพของข้อมูลและดูว่า บริษัท สามารถใช้ข้อมูลได้หรือไม่

การตรวจสอบข้าม

การตรวจสอบให้แน่ใจว่าแบบจำลองได้รับการตรวจสอบข้ามอย่างเหมาะสมเป็นหนึ่งในรายการตรวจสอบของผู้ตรวจสอบ ไม่ควรใช้ข้อมูลการตรวจสอบความถูกต้องสำหรับการฝึกอบรม และเทคนิคการตรวจสอบความถูกต้องควรรับประกันความสามารถในการทำให้เป็นมาตรฐานของแบบจำลอง

โฮสติ้งที่ปลอดภัย

ในบางกรณี ระบบ AI จะใช้ข้อมูลส่วนบุคคล สิ่งสำคัญคือต้องประเมินว่าบริการโฮสติ้งหรือระบบคลาวด์เป็นไปตามข้อกำหนดด้านความปลอดภัยของข้อมูล เช่น หลักเกณฑ์ OWASP (Open Web Application Security Project)

AI ที่อธิบายได้

AI ที่อธิบายได้ หมายถึงการตีความและทำความเข้าใจการตัดสินใจของระบบ AI และปัจจัยที่ส่งผลต่อมัน ผู้ตรวจสอบตรวจสอบว่าแบบจำลองสามารถอธิบายได้อย่างเพียงพอหรือไม่โดยใช้เทคนิคต่างๆ เช่น LIME และ SHAP

เอาท์พุตของโมเดล

ความเที่ยงธรรมเป็นสิ่งแรกที่ผู้ตรวจสอบรับรองในผลลัพธ์ของแบบจำลอง ผลลัพธ์ของโมเดลควรคงเส้นคงวาเมื่อตัวแปรต่างๆ เช่น เพศ เชื้อชาติ หรือศาสนามีการเปลี่ยนแปลง นอกจากนี้ยังประเมินคุณภาพของการทำนายโดยใช้วิธีการให้คะแนนที่เหมาะสม

คำติชมทางสังคม

การตรวจสอบ AI เป็นกระบวนการที่ต่อเนื่อง ผู้ตรวจสอบควรเห็นผลกระทบทางสังคมของระบบ AI ระบบ AI และกลยุทธ์ความเสี่ยงควรได้รับการแก้ไขและตรวจสอบตามผลตอบรับ การใช้งาน ผลที่ตามมา และอิทธิพล ทั้งในเชิงบวกและเชิงลบ

บริษัทที่ตรวจสอบไปป์ไลน์และแอปพลิเคชัน AI

ห้าบริษัทใหญ่ที่ตรวจสอบ AI มีดังนี้

  • Deloitte: Deloitte เป็นบริษัทที่ให้บริการระดับมืออาชีพที่ใหญ่ที่สุดในโลก และให้บริการที่เกี่ยวข้องกับการตรวจสอบบัญชี ภาษีอากร และที่ปรึกษาทางการเงิน Deloitte ใช้ RPA, AI และการวิเคราะห์เพื่อช่วยองค์กรในการประเมินความเสี่ยงของระบบ AI ของตน
  • PwC: PwC เป็นเครือข่ายบริการระดับมืออาชีพที่ใหญ่เป็นอันดับสองตามรายได้ พวกเขาได้พัฒนาวิธีการตรวจสอบเพื่อช่วยให้องค์กรมั่นใจในความรับผิดชอบ ความน่าเชื่อถือ และความโปร่งใส
  • EY: ในปี 2022 EY ประกาศลงทุน 1 พันล้านดอลลาร์ ในแพลตฟอร์มเทคโนโลยีที่เปิดใช้งาน AI เพื่อให้บริการตรวจสอบคุณภาพสูง บริษัทที่ขับเคลื่อนด้วย AI จะได้รับข้อมูลอย่างดีในการตรวจสอบระบบ AI
  • เคพีเอ็มจี: เคพีเอ็มจีเป็นบริษัทให้บริการด้านบัญชีที่ใหญ่เป็นอันดับสี่ เคพีเอ็มจีให้บริการแบบกำหนดเองในด้านการกำกับดูแล AI การประเมินความเสี่ยง และการควบคุม
  • Grant Thronton: ช่วยลูกค้าจัดการความเสี่ยงที่เกี่ยวข้องกับการปรับใช้ AI และการปฏิบัติตามจริยธรรมและข้อบังคับของ AI

ประโยชน์ของการตรวจสอบระบบ AI

  • การจัดการความเสี่ยง: การตรวจสอบป้องกันหรือลดความเสี่ยงที่เกี่ยวข้องกับระบบ AI
  • ความโปร่งใส: การตรวจสอบทำให้มั่นใจได้ว่าแอปพลิเคชัน AI ปราศจากอคติและการเลือกปฏิบัติ
  • การปฏิบัติตาม: การตรวจสอบแอปพลิเคชัน AI หมายความว่าระบบปฏิบัติตามกฎหมายและระเบียบข้อบังคับ

การตรวจสอบ AI: สิ่งที่จะเกิดขึ้นในอนาคต

องค์กร หน่วยงานกำกับดูแล และผู้ตรวจสอบควรติดตามความก้าวหน้าของ AI ตระหนักถึงภัยคุกคามที่อาจเกิดขึ้น และหมั่นทบทวนกฎระเบียบ กรอบการทำงาน และกลยุทธ์เพื่อให้แน่ใจว่ามีการใช้งานที่ยุติธรรม ปราศจากความเสี่ยง และมีจริยธรรม

ในปี 2021 193 ประเทศสมาชิกของ ยูเนสโก ยอมรับข้อตกลงระดับโลกเกี่ยวกับจริยธรรมของ AI AI เป็นระบบนิเวศที่มีการพัฒนาอย่างต่อเนื่อง

ต้องการเนื้อหาเกี่ยวกับ AI เพิ่มเติมหรือไม่ เยี่ยม unite.ai.

ฮาซิกา เป็นนักวิทยาศาสตร์ข้อมูลที่มีประสบการณ์มากมายในการเขียนเนื้อหาทางเทคนิคสำหรับบริษัท AI และ SaaS