ต้นขั้ว สตาร์ทอัพสร้างเครื่องมือเพื่อตรวจสอบ AI และส่งเสริมการใช้ AI อย่างมีจริยธรรม - Unite.AI
เชื่อมต่อกับเรา

การควบคุม

สตาร์ทอัพสร้างเครื่องมือเพื่อตรวจสอบ AI และส่งเสริมการใช้ AI อย่างมีจริยธรรม

mm
วันที่อัพเดท on

ในช่วงปีที่ผ่านมา ดูเหมือนว่าจะมีการให้ความสนใจมากขึ้นเรื่อยๆ เพื่อให้แน่ใจว่า AI จะถูกใช้อย่างถูกหลักจริยธรรม Google และ Microsoft มีทั้งคู่ เพิ่งเตือนนักลงทุน การใช้อัลกอริธึม AI ในทางที่ผิดหรืออัลกอริทึม AI ที่ออกแบบมาไม่ดีทำให้เกิดความเสี่ยงด้านจริยธรรมและกฎหมาย ในขณะเดียวกัน รัฐแคลิฟอร์เนียเพิ่งตัดสินใจ ผ่านบิล ที่ห้ามใช้เทคโนโลยีการจดจำใบหน้าโดยหน่วยงานบังคับใช้กฎหมายของรัฐแคลิฟอร์เนีย

เมื่อเร็วๆ นี้ บริษัทสตาร์ทอัพอย่าง Arthur พยายามออกแบบเครื่องมือที่จะช่วยให้วิศวกร AI ประเมินและประเมินประสิทธิภาพของโมเดล Machine Learning ของตนได้ รายงานโดย Wired Arthur กำลังพยายามให้ชุดเครื่องมือแก่นักพัฒนา AI ที่จะช่วยให้ค้นพบปัญหาได้ง่ายขึ้นเมื่อออกแบบแอปพลิเคชันทางการเงิน เช่น การเปิดเผยอคติในการลงทุนหรือการตัดสินใจให้กู้ยืม

ความพยายามของ Arthur มีเป้าหมายเพื่อจัดการกับ ปัญหา “กล่องดำ” ของ AI. ปัญหากล่องดำใน AI อธิบายว่าไม่เหมือนกับโค้ดแบบดั้งเดิม ซึ่งผู้ที่รู้วิธีอ่านสามารถตีความได้ง่าย ระบบแมชชีนเลิร์นนิงจะจับคู่ฟีเจอร์กับพฤติกรรมโดยไม่เปิดเผยสาเหตุที่พฤติกรรมเหล่านี้ถูกเลือก/ตีความฟีเจอร์อย่างไร กล่าวอีกนัยหนึ่ง ในระบบกล่องดำ การนำอัลกอริทึมไปใช้อย่างถูกต้องนั้นไม่ชัดเจน

ระบบแมชชีนเลิร์นนิงทำงานโดยการดึงรูปแบบจากข้อมูลอินพุตและให้เหตุผลเกี่ยวกับรูปแบบเหล่านี้ สิ่งนี้ทำได้โดยการให้คอมพิวเตอร์เขียนรหัสของตัวเองโดยจัดการกับฟังก์ชันทางคณิตศาสตร์บางอย่าง เพื่อแก้ไขปัญหานี้ นักวิจัยและวิศวกรต้องการเครื่องมือที่ทำให้การสังเกตและวิเคราะห์พฤติกรรมของซอฟต์แวร์แมชชีนเลิร์นนิงง่ายขึ้น สตาร์ทอัพอย่าง Arthur รับทราบถึงความยากลำบากในการแก้ปัญหานี้และไม่ได้อ้างว่ามีวิธีแก้ปัญหาที่ดีที่สุด แต่พวกเขาหวังว่าจะก้าวหน้าในด้านนี้และทำให้การถอดรหัสเปิดกล่องดำง่ายขึ้นเล็กน้อย โดยหวังว่าหากระบบ AI สามารถวิเคราะห์ได้ง่ายขึ้น ก็จะสามารถแก้ไขปัญหาต่างๆ เช่น อคติได้ง่ายขึ้นเช่นกัน

บริษัทขนาดใหญ่เช่น Facebook มีเครื่องมือบางอย่างในการวิเคราะห์การทำงานภายในของระบบแมชชีนเลิร์นนิงแล้ว ตัวอย่างเช่น Facebook มีเครื่องมือที่เรียกว่า Fairness Flow ซึ่งมีไว้เพื่อให้แน่ใจว่าโฆษณาแนะนำงานให้กับผู้คนที่กำหนดเป้าหมายไปยังผู้คนจากภูมิหลังที่แตกต่างกันทั้งหมด อย่างไรก็ตาม มีแนวโน้มว่าทีม AI ขนาดใหญ่จะไม่ต้องการลงทุนเวลาในการสร้างเครื่องมือดังกล่าว ดังนั้นจึงเป็นโอกาสทางธุรกิจสำหรับบริษัทที่ต้องการสร้างเครื่องมือตรวจสอบสำหรับใช้งานโดยบริษัท AI

Arthur มุ่งเน้นไปที่การสร้างเครื่องมือที่ช่วยให้บริษัทต่างๆ สามารถบำรุงรักษาและตรวจสอบระบบ AI ได้ดีขึ้นหลังจากที่ระบบได้รับการปรับใช้แล้ว เครื่องมือของ Arthur มีจุดมุ่งหมายเพื่อให้บริษัทต่างๆ ได้เห็นว่าประสิทธิภาพของระบบของพวกเขาเปลี่ยนแปลงไปอย่างไรเมื่อเวลาผ่านไป ซึ่งในทางทฤษฎีแล้วจะทำให้บริษัทต่างๆ หากซอฟต์แวร์แนะนำสินเชื่อของบริษัทเริ่มไม่รวมลูกค้าบางกลุ่ม อาจตั้งค่าสถานะที่ระบุว่าระบบต้องมีการตรวจสอบเพื่อให้แน่ใจว่าจะไม่เลือกปฏิบัติต่อลูกค้าตามคุณลักษณะที่ละเอียดอ่อน เช่น เชื้อชาติหรือเพศ

อย่างไรก็ตาม Arthur ไม่ใช่บริษัทเดียวที่สร้างเครื่องมือที่ช่วยให้บริษัท AI ตรวจสอบประสิทธิภาพของอัลกอริทึมของตนได้ สตาร์ทอัพจำนวนมากกำลังลงทุนในการสร้างเครื่องมือเพื่อต่อสู้กับอคติและตรวจสอบให้แน่ใจว่ามีการใช้อัลกอริทึม AI อย่างมีจริยธรรม Weights & Biases เป็นอีกหนึ่งเครื่องมือในการสร้างสตาร์ทอัพเพื่อช่วยวิศวกรแมชชีนเลิร์นนิงวิเคราะห์ปัญหาที่อาจเกิดขึ้นกับเครือข่ายของตน Toyota ได้ใช้เครื่องมือที่สร้างขึ้นโดย Weights & Biases เพื่อตรวจสอบอุปกรณ์แมชชีนเลิร์นนิงขณะฝึก ในขณะเดียวกัน Fiddler สตาร์ทอัพกำลังทำงานเพื่อสร้างชุดเครื่องมือตรวจสอบ AI ที่แตกต่างกัน IBM ได้สร้างบริการตรวจสอบของตัวเองที่เรียกว่า OpenScale

Liz O'Sullivan หนึ่งในผู้ร่วมสร้าง Arthur อธิบายว่าความสนใจในการสร้างเครื่องมือเพื่อช่วยแก้ปัญหา Black Box เกิดจากความตระหนักที่เพิ่มขึ้นเกี่ยวกับพลังของ AI

“ผู้คนเริ่มตระหนักว่าระบบเหล่านี้มีประสิทธิภาพเพียงใด และพวกเขาจำเป็นต้องใช้ประโยชน์จากผลประโยชน์ในลักษณะที่รับผิดชอบ” โอซัลลิแวนกล่าวว่า

บล็อกเกอร์และโปรแกรมเมอร์ที่มีความเชี่ยวชาญด้าน เครื่องเรียนรู้ และ การเรียนรู้ลึก ๆ หัวข้อ Daniel หวังว่าจะช่วยให้ผู้อื่นใช้พลังของ AI เพื่อประโยชน์ทางสังคม