ต้นขั้ว ศ. Julia Stoyanovich ผู้อำนวยการศูนย์ความรับผิดชอบ AI - ซีรี่ส์สัมภาษณ์ - Unite.AI
เชื่อมต่อกับเรา

บทสัมภาษณ์

Prof. Julia Stoyanovich ผู้อำนวยการ Center for Responsible AI – แบบสัมภาษณ์

mm
วันที่อัพเดท on

จูเลีย สโตยาโนวิชเป็นศาสตราจารย์ที่ Tandon School of Engineering ของ NYU และเป็นผู้อำนวยการผู้ก่อตั้ง Center for Responsible AI เธอเพิ่งส่งคำให้การเป็นพยานต่อคณะกรรมการเทคโนโลยีของสภานิวยอร์คเกี่ยวกับ ร่างกฎหมายที่เสนอ ที่จะควบคุมการใช้ AI สำหรับการจ้างงานและการตัดสินใจจ้างงาน

คุณเป็นผู้อำนวยการผู้ก่อตั้ง Center for Responsible AI ที่ NYU คุณช่วยแบ่งปันความคิดริเริ่มบางอย่างที่ดำเนินการโดยองค์กรนี้กับเราได้ไหม

ฉันร่วมกำกับ Center for Responsible AI (R/AI) ที่ NYU กับ Steven Kuyan สตีเว่นและฉันมีความสนใจและความเชี่ยวชาญร่วมกัน ฉันเป็นนักวิชาการที่มีพื้นฐานด้านวิทยาการคอมพิวเตอร์และมีความสนใจอย่างมากในงานที่ได้รับแรงบันดาลใจจากการใช้งานในสาขาวิศวกรรมข้อมูล วิทยาการข้อมูลที่มีความรับผิดชอบ และนโยบาย สตีเวนเป็นกรรมการผู้จัดการของ NYU Tandon Future Labsซึ่งเป็นเครือข่ายของศูนย์บ่มเพาะสตาร์ทอัพและเครื่องเร่งความเร็วที่ส่งผลกระทบทางเศรษฐกิจอย่างมากในนิวยอร์ค วิสัยทัศน์ของเราสำหรับ R/AI คือการช่วยทำให้ “AI ที่มีความรับผิดชอบ” มีความหมายเหมือนกันกับ “AI” ผ่านการผสมผสานระหว่างการวิจัยประยุกต์ การศึกษาสาธารณะ และการมีส่วนร่วม และโดยการช่วยเหลือบริษัทขนาดใหญ่และขนาดเล็ก โดยเฉพาะอย่างยิ่งขนาดเล็ก พัฒนา AI ที่มีความรับผิดชอบ

ในช่วงไม่กี่เดือนที่ผ่านมา R/AI ได้มีส่วนร่วมอย่างแข็งขันในการสนทนาเกี่ยวกับการกำกับดูแล ADS (ระบบการตัดสินใจอัตโนมัติ) แนวทางของเราขึ้นอยู่กับการผสมผสานระหว่างกิจกรรมการศึกษาและการมีส่วนร่วมตามนโยบาย

นครนิวยอร์กกำลังพิจารณาร่างกฎหมายที่เสนอ อินท์1894ซึ่งจะควบคุมการใช้ ADS ในการจ้างงานผ่านการผสมผสานระหว่างการตรวจสอบและการเปิดเผยต่อสาธารณะ R/AI ได้ส่งความคิดเห็นสาธารณะเกี่ยวกับร่างกฎหมายนี้ โดยอ้างอิงจากการวิจัยของเราและข้อมูลเชิงลึกที่เรารวบรวมจากผู้หางานผ่านหลายๆ การมีส่วนร่วมของประชาชน กิจกรรม.

เรายังร่วมมือกับ GovLab ที่ NYU และกับ สถาบันจริยธรรมใน AI ที่มหาวิทยาลัยเทคนิคแห่งมิวนิก ในคอร์สออนไลน์ฟรีชื่อ “จริยธรรม AI: มุมมองระดับโลก” ที่เปิดตัวเมื่อต้นเดือนนี้

อีกโครงการล่าสุดของ R/AI ที่ได้รับความสนใจไม่น้อยคือหนังสือการ์ตูนชุด “Data, Responsibility” ของเรา เล่มแรกของซีรีส์นี้มีชื่อว่า “Mirror, Mirror” มีให้บริการในภาษาอังกฤษ สเปน และฝรั่งเศส และเข้าถึงได้ด้วยโปรแกรมอ่านหน้าจอในทั้งสามภาษา การ์ตูนได้รับ นวัตกรรมแห่งเดือน รางวัลจาก Metro Lab Network และ GovTech และครอบคลุมโดย โตรอนโตสตาร์ท่ามกลางคนอื่น ๆ

ปัญหาปัจจุบันหรือปัญหาที่อาจเกิดขึ้นเกี่ยวกับอคติของ AI สำหรับการจ้างงานและการตัดสินใจจ้างงานมีอะไรบ้าง

นี่เป็นคำถามที่ซับซ้อนที่ทำให้เราต้องเข้าใจก่อนว่า "อคติ" หมายถึงอะไร สิ่งสำคัญที่ควรทราบคือระบบการจ้างงานอัตโนมัติคือ “การวิเคราะห์เชิงทำนาย” — พวกมันทำนายอนาคตโดยอิงจากอดีต อดีตแสดงด้วยข้อมูลในอดีตเกี่ยวกับบุคคลที่ได้รับการว่าจ้างจากบริษัท และเกี่ยวกับการปฏิบัติงานของบุคคลเหล่านี้ จากนั้นระบบจะได้รับ "การฝึกอบรม" เกี่ยวกับข้อมูลนี้ ซึ่งหมายความว่าระบบจะระบุรูปแบบทางสถิติและใช้ข้อมูลเหล่านี้ในการคาดการณ์ รูปแบบทางสถิติเหล่านี้คือ "ความมหัศจรรย์" ของ AI ซึ่งเป็นพื้นฐานของแบบจำลองการคาดการณ์ เห็นได้ชัดว่า แต่ที่สำคัญ ข้อมูลในอดีตซึ่งรูปแบบเหล่านี้ถูกขุดขึ้นมานั้นเงียบงันเกี่ยวกับบุคคลที่ไม่ได้รับการว่าจ้าง เพราะเราไม่รู้ว่าพวกเขาจะทำงานที่พวกเขาไม่ได้รับได้อย่างไร และนี่คือที่มาของความลำเอียง หากเราจ้างบุคคลเพิ่มขึ้นอย่างเป็นระบบจากกลุ่มประชากรและเศรษฐกิจและสังคมที่เฉพาะเจาะจง การเป็นสมาชิกในกลุ่มเหล่านี้และคุณลักษณะที่สอดคล้องกับการเป็นสมาชิกกลุ่มนั้นจะกลายเป็นส่วนหนึ่งของแบบจำลองการทำนาย ตัวอย่างเช่น หากเราเคยเห็นแต่ผู้สำเร็จการศึกษาจากมหาวิทยาลัยชั้นนำได้รับการว่าจ้างให้ดำรงตำแหน่งผู้บริหาร ระบบก็จะไม่สามารถเรียนรู้ได้ว่าคนที่ไปโรงเรียนอื่นอาจทำได้ดีเช่นกัน เป็นเรื่องง่ายที่จะเห็นปัญหาที่คล้ายกันสำหรับเพศ เชื้อชาติ และสถานะความทุพพลภาพ

อคติใน AI นั้นกว้างกว่าอคติในข้อมูล เกิดขึ้นเมื่อเราพยายามใช้เทคโนโลยีที่โซลูชันทางเทคนิคไม่เหมาะสม หรือเมื่อเรากำหนดเป้าหมายที่ไม่ถูกต้องสำหรับ AI บ่อยครั้งเพราะเราไม่มีเสียงที่หลากหลายในตารางการออกแบบ หรือเมื่อเราละทิ้ง หน่วยงานในการโต้ตอบระหว่างมนุษย์ – AI หลังจากนำ AI ไปใช้ เหตุผลของความลำเอียงเหล่านี้แต่ละข้อสมควรได้รับการอภิปรายของตนเอง ซึ่งน่าจะใช้เวลานานกว่าที่ว่างในบทความนี้จะอนุญาต ดังนั้น เพื่อให้มีสมาธิ ผมขอกลับไปที่อคติในข้อมูล

เมื่ออธิบายความเอนเอียงในข้อมูล ฉันชอบใช้อุปลักษณ์การสะท้อนของกระจก ข้อมูลคือภาพของโลก เป็นภาพสะท้อนของกระจก เมื่อเราคิดถึงความลำเอียงในข้อมูล เราจะตั้งคำถามถึงการสะท้อนกลับนี้ การตีความอย่างหนึ่งของ "ความลำเอียงในข้อมูล" คือการที่ภาพสะท้อนนั้นบิดเบี้ยว - กระจกของเราแสดงข้อมูลบางส่วนของโลกน้อยเกินไปหรือเกินจริง หรือบิดเบือนค่าที่อ่านได้ การตีความ "ความลำเอียงในข้อมูล" อีกประการหนึ่งก็คือ แม้ว่าภาพสะท้อนจะเชื่อได้ 100% แต่ภาพสะท้อนนั้นก็ยังคงเป็นภาพสะท้อนของโลกอย่างที่เป็นอยู่ในปัจจุบัน ไม่ใช่ความเป็นไปหรือที่ควรจะเป็น ที่สำคัญ มันไม่ได้ขึ้นอยู่กับข้อมูลหรืออัลกอริทึมที่จะบอกเราว่ามันเป็นภาพสะท้อนที่สมบูรณ์แบบของโลกที่แตกสลาย หรือภาพสะท้อนที่แตกสลายของโลกที่สมบูรณ์แบบ หรือหากการบิดเบือนเหล่านี้ปะปนกัน มันขึ้นอยู่กับผู้คน - ปัจเจกชน, กลุ่ม, สังคมโดยรวม - ที่จะมีความเห็นเป็นเอกฉันท์ว่าเราโอเคกับโลกที่เป็นอยู่หรือไม่ หรือหากไม่ เราควรจะปรับปรุงมันอย่างไร

ย้อนกลับไปที่การวิเคราะห์เชิงคาดการณ์: ยิ่งข้อมูลมีความเหลื่อมล้ำมากเท่าใด เป็นภาพสะท้อนของอดีต ก็ยิ่งมีโอกาสที่ความเหลื่อมล้ำเหล่านี้จะถูกหยิบยกขึ้นมาใช้โดยแบบจำลองเชิงทำนาย และถูกจำลองซ้ำหรือซ้ำเติมมากยิ่งขึ้นในอนาคต

หากเป้าหมายของเราคือการปรับปรุงแนวปฏิบัติในการจ้างงานโดยคำนึงถึงความเสมอภาคและความหลากหลาย เราก็ไม่สามารถจ้างเครื่องจักรภายนอกเพื่องานนี้ได้ เราต้องทำงานอย่างหนักในการระบุสาเหตุที่แท้จริงของความลำเอียงในการจ้างงานและการจ้างงาน และการเจรจาหาทางออกทางสังคม-กฎหมาย-ทางเทคนิคด้วยข้อมูลจากผู้มีส่วนได้ส่วนเสียทั้งหมด แน่นอนว่าเทคโนโลยีมีบทบาทในการช่วยเราปรับปรุงสถานะที่เป็นอยู่ เทคโนโลยีสามารถช่วยให้เราซื่อสัตย์ต่อเป้าหมายและผลลัพธ์ของเรา แต่การแสร้งทำเป็นลดอคติข้อมูลหรือการวิเคราะห์เชิงคาดการณ์จะช่วยแก้ปัญหาการเลือกปฏิบัติในการจ้างงานที่ไร้เดียงสาได้ดีที่สุด

เมื่อเร็ว ๆ นี้คุณได้แสดงประจักษ์พยานต่อคณะกรรมการด้านเทคโนโลยีของ NYC Council มีความคิดเห็นหนึ่งที่โดดเด่นดังนี้: "เราพบว่าทั้งงบประมาณของผู้ลงโฆษณาและเนื้อหาของโฆษณาต่างก็มีส่วนอย่างมากในการทำให้การแสดงโฆษณาของ Facebook คลาดเคลื่อน เราสังเกตเห็นความคลาดเคลื่อนอย่างมากในการแสดงโฆษณาตามเส้นแบ่งเพศและเชื้อชาติสำหรับโฆษณา 'จริง' สำหรับโอกาสการจ้างงานและที่อยู่อาศัย แม้จะมีพารามิเตอร์การกำหนดเป้าหมายที่เป็นกลางก็ตาม” มีวิธีใดบ้างเพื่อหลีกเลี่ยงอคติประเภทนี้

ความคิดเห็นนี้ฉันทำขึ้นอยู่กับความยอดเยี่ยม กระดาษโดยอาลีและคณะ ที่เรียกว่า “การเลือกปฏิบัติผ่านการเพิ่มประสิทธิภาพ: การแสดงโฆษณาของ Facebook สามารถนำไปสู่ผลลัพธ์ที่ลำเอียงได้อย่างไร” ผู้เขียนพบว่ากลไกการแสดงโฆษณามีหน้าที่รับผิดชอบในการแนะนำและขยายผลการเลือกปฏิบัติ ไม่จำเป็นต้องพูด การค้นพบนี้เป็นปัญหาอย่างมาก โดยเฉพาะอย่างยิ่งเมื่อเล่นกับพื้นหลังของความทึบใน Facebook และแพลตฟอร์มอื่นๆ เช่น Google และ Twitter ภาระอยู่บนแพลตฟอร์มที่ต้องแสดงให้เห็นอย่างเร่งด่วนและน่าเชื่อถือว่าพวกเขาสามารถมีอิทธิพลเหนือการเลือกปฏิบัติเช่นที่อาลีพบ และคณะ สั้นกว่านั้น ฉันไม่สามารถหาเหตุผลสำหรับการใช้การกำหนดเป้าหมายโฆษณาส่วนบุคคลอย่างต่อเนื่องในที่อยู่อาศัย การจ้างงาน และ โดเมนอื่นที่มีชีวิตและความเป็นอยู่ของผู้คนเป็นเดิมพัน

นักวิทยาศาสตร์ข้อมูลและนักพัฒนา AI จะป้องกันความลำเอียงที่ไม่ได้ตั้งใจอื่นๆ ไม่ให้เล็ดลอดเข้าสู่ระบบของตนได้ดีที่สุดได้อย่างไร

 มันไม่ได้ขึ้นอยู่กับนักวิทยาศาสตร์ข้อมูลหรือกลุ่มผู้มีส่วนได้ส่วนเสียกลุ่มใดกลุ่มหนึ่งทั้งหมด เพื่อให้แน่ใจว่าระบบทางเทคนิคนั้นสอดคล้องกับค่านิยมของสังคม แต่นักวิทยาศาสตร์ข้อมูลคือแนวหน้าของการต่อสู้ครั้งนี้ ในฐานะนักวิทยาศาสตร์คอมพิวเตอร์ ฉันยืนยันได้ถึงความน่าดึงดูดของการคิดว่าระบบที่เราออกแบบนั้น "ตรงเป้าหมาย" "เหมาะสมที่สุด" หรือ "ถูกต้อง" วิทยาการคอมพิวเตอร์และวิทยาการข้อมูลประสบความสำเร็จเพียงใด — มีอิทธิพลเพียงใดและใช้ในวงกว้างมากเพียงใด — เป็นทั้งคำอวยพรและคำสาป พวกเรานักเทคโนโลยีไม่ต้องหรูหราไปกับการซ่อนเป้าหมายที่ไม่อาจบรรลุได้ของความเป็นกลางและความถูกต้องอีกต่อไป ภาระอยู่ที่เราต้องคิดอย่างรอบคอบเกี่ยวกับสถานที่ของเราในโลก และให้ความรู้เกี่ยวกับกระบวนการทางสังคมและการเมืองที่เรากำลังส่งผลกระทบ สังคมไม่สามารถปล่อยให้เราเคลื่อนไหวอย่างรวดเร็วและทำลายสิ่งต่าง ๆ ได้ เราต้องช้าลงและไตร่ตรอง

เป็นสัญลักษณ์ว่าครั้งหนึ่งปรัชญาเคยเป็นหัวใจสำคัญของวาทกรรมทางวิทยาศาสตร์และสังคมทั้งหมด จากนั้นจึงมาเป็นคณิตศาสตร์ และจากนั้นก็เป็นวิทยาการคอมพิวเตอร์ ขณะนี้ วิทยาการข้อมูลกำลังก้าวเข้าสู่ศูนย์กลาง เรากลับมาครบวงแล้วและจำเป็นต้องเชื่อมโยงกลับกับรากเหง้าทางปรัชญาของเรา

คำแนะนำอีกอย่างที่คุณทำคือการสร้างข้อมูลสาธารณะ เราจะแจ้งให้สาธารณชนที่อาจไม่คุ้นเคยกับ AI หรือเข้าใจปัญหาที่เกี่ยวข้องกับอคติของ AI ทราบได้อย่างไร

มีความจำเป็นอย่างมากในการให้ความรู้แก่ผู้ที่ไม่มีความรู้ด้านเทคนิคเกี่ยวกับเทคโนโลยี และเพื่อให้ความรู้แก่ผู้ที่มีความรู้ด้านเทคนิคเกี่ยวกับผลกระทบทางสังคม การบรรลุเป้าหมายทั้งสองนี้จะต้องใช้ความมุ่งมั่นอย่างแรงกล้าและการลงทุนจำนวนมากในส่วนของรัฐบาลของเรา เราจำเป็นต้องพัฒนาสื่อการสอนและวิธีการศึกษาสำหรับทุกกลุ่มเหล่านี้ และหาวิธีจูงใจให้มีส่วนร่วม และเราไม่สามารถปล่อยให้งานนี้ขึ้นอยู่กับหน่วยงานเชิงพาณิชย์ สหภาพยุโรปเป็นผู้นำโดยมีรัฐบาลหลายประเทศให้การสนับสนุน การศึกษา AI ขั้นพื้นฐาน ของพลเมืองและรวมหลักสูตร AI เข้ากับโปรแกรมระดับมัธยมปลาย พวกเราที่ R/AI กำลังทำงานในหลักสูตรที่เปิดเผยต่อสาธารณะและเข้าถึงได้ในวงกว้าง โดยมีเป้าหมายเพื่อสร้างการมีส่วนร่วมของประชาชนที่จะช่วยทำให้ AI เป็นสิ่งที่เราต้องการให้เป็น เรารู้สึกตื่นเต้นกับงานนี้มาก โปรดติดตามข้อมูลเพิ่มเติมในเดือนหน้า

ขอบคุณสำหรับการตอบกลับโดยละเอียด ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรไปที่ Center for Responsible AI 

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน