บทสัมภาษณ์
Nora Petrova วิศวกรการเรียนรู้ของเครื่องและที่ปรึกษา AI ที่ Prolific – Interview Series
Nora Petrova เป็นวิศวกรการเรียนรู้ของเครื่องและที่ปรึกษา AI ที่ อุดมสมบูรณ์. Prolific ก่อตั้งขึ้นในปี 2014 และนับลูกค้าขององค์กรต่างๆ เช่น Google, มหาวิทยาลัยสแตนฟอร์ด, มหาวิทยาลัยออกซ์ฟอร์ด, คิงส์คอลเลจลอนดอน และคณะกรรมาธิการยุโรป โดยใช้เครือข่ายผู้เข้าร่วมเพื่อทดสอบผลิตภัณฑ์ใหม่ ฝึกอบรมระบบ AI ในด้านต่างๆ เช่น การติดตามดวงตา และ ตรวจสอบว่าแอปพลิเคชัน AI แบบเผชิญหน้ามนุษย์ทำงานตามที่ผู้สร้างตั้งใจหรือไม่
คุณสามารถแบ่งปันข้อมูลบางอย่างเกี่ยวกับประวัติความเป็นมาของคุณที่ Prolific และอาชีพจนถึงปัจจุบันได้หรือไม่? อะไรทำให้คุณสนใจ AI?
บทบาทของฉันที่ Prolific แบ่งระหว่างการเป็นที่ปรึกษาเกี่ยวกับกรณีการใช้งานและโอกาสของ AI และการเป็นวิศวกร ML ที่ลงมือปฏิบัติจริงมากขึ้น ฉันเริ่มต้นอาชีพด้านวิศวกรรมซอฟต์แวร์และค่อยๆ เปลี่ยนไปใช้การเรียนรู้ของเครื่อง ฉันใช้เวลาส่วนใหญ่ในช่วง 5 ปีที่ผ่านมามุ่งเน้นไปที่กรณีการใช้งานและปัญหาของ NLP
สิ่งที่ทำให้ฉันสนใจ AI ในตอนแรกคือความสามารถในการเรียนรู้จากข้อมูลและความเชื่อมโยงกับวิธีที่เราในฐานะมนุษย์เรียนรู้และโครงสร้างสมองของเรา ฉันคิดว่า ML และประสาทวิทยาศาสตร์สามารถส่งเสริมซึ่งกันและกันและช่วยให้เราเข้าใจวิธีสร้างระบบ AI ที่สามารถนำทางโลก แสดงความคิดสร้างสรรค์ และเพิ่มมูลค่าให้กับสังคม
ปัญหาอคติด้าน AI ที่ใหญ่ที่สุดที่คุณทราบเป็นการส่วนตัวมีอะไรบ้าง
อคติมีอยู่ในข้อมูลที่เราป้อนเข้าไปในโมเดล AI และการลบออกทั้งหมดเป็นเรื่องยากมาก อย่างไรก็ตาม มีความจำเป็นที่เราต้องตระหนักถึงอคติที่มีอยู่ในข้อมูลและค้นหาวิธีที่จะบรรเทาอคติที่เป็นอันตรายก่อนที่เราจะมอบความไว้วางใจให้โมเดลทำงานที่สำคัญในสังคม ปัญหาที่ใหญ่ที่สุดที่เรากำลังเผชิญอยู่คือแบบจำลองที่ยังคงทัศนคติแบบเหมารวมที่เป็นอันตราย อคติเชิงระบบ และความอยุติธรรมในสังคม เราควรคำนึงถึงวิธีการใช้โมเดล AI เหล่านี้ และอิทธิพลที่โมเดลจะมีต่อผู้ใช้ และตรวจสอบให้แน่ใจว่าโมเดลนั้นปลอดภัยก่อนที่จะอนุมัติสำหรับกรณีการใช้งานที่ละเอียดอ่อน
ประเด็นสำคัญบางประการที่โมเดล AI แสดงอคติที่เป็นอันตราย ได้แก่ การเลือกปฏิบัติของกลุ่มผู้ด้อยโอกาสในการรับสมัครเข้าโรงเรียนและมหาวิทยาลัย และทัศนคติเหมารวมทางเพศที่ส่งผลเสียต่อการรับสมัครผู้หญิง ไม่เพียงเท่านี้ แต่ยังพบว่าอัลกอริธึมกระบวนการยุติธรรมทางอาญาระบุว่าจำเลยชาวอเมริกันเชื้อสายแอฟริกันเข้าใจผิดว่า “มีความเสี่ยงสูง” เกือบสองเท่าของอัตราที่ระบุว่าจำเลยผิวขาวในสหรัฐอเมริกาไม่ถูกต้อง ในขณะที่เทคโนโลยีการจดจำใบหน้ายังคงมีอัตราข้อผิดพลาดสูงสำหรับชนกลุ่มน้อยเนื่องจาก ขาดข้อมูลการฝึกอบรมตัวแทน
ตัวอย่างข้างต้นครอบคลุมส่วนย่อยเล็กๆ ของอคติที่แสดงโดยโมเดล AI และเราสามารถคาดการณ์ปัญหาที่ใหญ่กว่าที่จะเกิดขึ้นในอนาคตได้ หากเราไม่มุ่งเน้นไปที่การบรรเทาอคติในตอนนี้ สิ่งสำคัญคือต้องจำไว้ว่าโมเดล AI เรียนรู้จากข้อมูลที่มีอคติเหล่านี้ เนื่องจากการตัดสินใจของมนุษย์ซึ่งได้รับอิทธิพลจากอคติที่ไม่ได้ตรวจสอบและโดยไม่รู้ตัว ในหลายกรณี การเลื่อนไปตามผู้มีอำนาจตัดสินใจที่เป็นมนุษย์อาจไม่สามารถขจัดอคติได้ การบรรเทาอคติอย่างแท้จริงจะเกี่ยวข้องกับการทำความเข้าใจว่าข้อมูลเหล่านี้ปรากฏอยู่ในข้อมูลที่เราใช้ฝึกแบบจำลองอย่างไร การแยกปัจจัยที่มีส่วนทำให้เกิดการคาดการณ์แบบเอนเอียง และร่วมกันตัดสินใจเลือกสิ่งที่เราต้องการใช้เป็นฐานในการตัดสินใจที่สำคัญ การพัฒนาชุดมาตรฐานเพื่อให้เราสามารถประเมินแบบจำลองด้านความปลอดภัยก่อนที่จะนำไปใช้กับกรณีการใช้งานที่มีความละเอียดอ่อนจะเป็นก้าวสำคัญ
ภาพหลอนของ AI เป็นปัญหาใหญ่กับ AI ทุกประเภท คุณสามารถหารือเกี่ยวกับวิธีการ มนุษย์ในวง การฝึกอบรม (HITL) สามารถบรรเทาปัญหาเหล่านี้ได้หรือไม่?
อาการประสาทหลอนในแบบจำลอง AI เป็นปัญหาในกรณีการใช้งานของ AI แบบกำเนิด แต่สิ่งสำคัญคือต้องทราบว่าอาการเหล่านี้ไม่ได้เป็นปัญหาในตัวมันเอง ในการใช้งานเชิงสร้างสรรค์บางอย่างของ generative AI เรายินดีรับภาพหลอนและมีส่วนทำให้เกิดการตอบสนองที่สร้างสรรค์และน่าสนใจยิ่งขึ้น
สิ่งเหล่านี้อาจเป็นปัญหาได้ในกรณีการใช้งานที่มีการพึ่งพาข้อมูลที่เป็นข้อเท็จจริงสูง ตัวอย่างเช่น ในการดูแลสุขภาพ ซึ่งการตัดสินใจอย่างเด็ดขาดเป็นสิ่งสำคัญ การให้ข้อมูลข้อเท็จจริงที่เชื่อถือได้แก่ผู้เชี่ยวชาญด้านสุขภาพถือเป็นสิ่งจำเป็น
HITL หมายถึงระบบที่อนุญาตให้มนุษย์ส่งข้อเสนอแนะโดยตรงไปยังแบบจำลองการคาดการณ์ที่อยู่ต่ำกว่าระดับความเชื่อมั่นที่กำหนด ภายในบริบทของอาการประสาทหลอน HITL สามารถใช้เพื่อช่วยให้โมเดลเรียนรู้ระดับความมั่นใจที่ควรมีสำหรับกรณีการใช้งานที่แตกต่างกันก่อนที่จะแสดงการตอบสนอง เกณฑ์เหล่านี้จะแตกต่างกันไปขึ้นอยู่กับกรณีการใช้งานและรูปแบบการสอน ความแตกต่างในความเข้มงวดที่จำเป็นสำหรับการตอบคำถามจากกรณีการใช้งานที่แตกต่างกันจะเป็นขั้นตอนสำคัญในการบรรเทาภาพหลอนประเภทที่เป็นปัญหา ตัวอย่างเช่น ภายในกรณีการใช้งานทางกฎหมาย มนุษย์สามารถแสดงให้โมเดล AI เห็นว่าการตรวจสอบข้อเท็จจริงเป็นขั้นตอนที่จำเป็นในการตอบคำถามตามเอกสารทางกฎหมายที่ซับซ้อนซึ่งมีข้อกำหนดและเงื่อนไขมากมาย
ผู้ปฏิบัติงานด้าน AI เช่น ตัวอธิบายข้อมูลจะช่วยลดปัญหาอคติที่อาจเกิดขึ้นได้อย่างไร
เจ้าหน้าที่ AI สามารถช่วยระบุอคติที่มีอยู่ในข้อมูลเป็นอันดับแรกและสำคัญที่สุด เมื่อระบุอคติได้แล้ว กลยุทธ์ในการบรรเทาผลกระทบก็จะง่ายขึ้น ผู้อธิบายข้อมูลยังสามารถช่วยในการหาวิธีลดอคติได้ ตัวอย่างเช่น สำหรับงาน NLP พวกเขาสามารถช่วยได้โดยการจัดหาทางเลือกอื่นในการเรียบเรียงตัวอย่างข้อความที่เป็นปัญหา เพื่อลดอคติที่ปรากฏในภาษา นอกจากนี้ ความหลากหลายในพนักงาน AI ยังช่วยลดปัญหาอคติในการติดฉลากได้อีกด้วย
คุณจะมั่นใจได้อย่างไรว่าพนักงาน AI ไม่ได้ป้อนอคติของมนุษย์เข้าสู่ระบบ AI โดยไม่ได้ตั้งใจ
เป็นปัญหาที่ซับซ้อนซึ่งต้องพิจารณาอย่างรอบคอบอย่างแน่นอน การขจัดอคติของมนุษย์แทบจะเป็นไปไม่ได้เลย และผู้ปฏิบัติงาน AI อาจป้อนอคติของตนโดยไม่ได้ตั้งใจไปยังโมเดล AI ดังนั้นจึงเป็นสิ่งสำคัญในการพัฒนากระบวนการที่แนะนำพนักงานไปสู่แนวปฏิบัติที่ดีที่สุด
ขั้นตอนที่สามารถทำได้เพื่อลดอคติของมนุษย์ให้เหลือน้อยที่สุด ได้แก่:
- การฝึกอบรมที่ครอบคลุมแก่พนักงาน AI เกี่ยวกับอคติโดยไม่รู้ตัว และมอบเครื่องมือในการระบุและจัดการอคติของตนเองในระหว่างการติดฉลาก
- รายการตรวจสอบที่เตือนพนักงาน AI ให้ตรวจสอบคำตอบของตนเองก่อนส่ง
- ดำเนินการประเมินที่ตรวจสอบระดับความเข้าใจที่พนักงาน AI มี โดยจะแสดงตัวอย่างการตอบสนองต่ออคติประเภทต่างๆ และระบบจะขอให้เลือกคำตอบที่มีอคติน้อยที่สุด
หน่วยงานกำกับดูแลทั่วโลกตั้งใจที่จะควบคุมเอาต์พุตของ AI คุณคิดว่าหน่วยงานกำกับดูแลเข้าใจผิดอะไร และพวกเขามีสิทธิ์อะไร
สิ่งสำคัญคือต้องเริ่มต้นด้วยการบอกว่านี่เป็นปัญหาที่ยากมากซึ่งไม่มีใครพบวิธีแก้ปัญหา สังคมและ AI จะพัฒนาและมีอิทธิพลซึ่งกันและกันในลักษณะที่ยากต่อการคาดเดา ส่วนหนึ่งของกลยุทธ์ที่มีประสิทธิภาพในการค้นหาแนวทางปฏิบัติด้านกฎระเบียบที่มีประสิทธิภาพและมีประโยชน์คือการให้ความสนใจกับสิ่งที่เกิดขึ้นใน AI วิธีที่ผู้คนตอบสนองต่อสิ่งนี้ และผลกระทบที่มีต่ออุตสาหกรรมต่างๆ
ฉันคิดว่าอุปสรรคสำคัญต่อการควบคุม AI ที่มีประสิทธิภาพคือการขาดความเข้าใจว่าโมเดล AI ทำอะไรได้บ้างและทำไม่ได้ และวิธีการทำงานของโมเดลเหล่านั้น ในทางกลับกัน ทำให้ยากต่อการทำนายผลที่ตามมาของโมเดลเหล่านี้ต่อภาคส่วนต่างๆ และภาคตัดขวางของสังคมอย่างแม่นยำมากขึ้น อีกด้านที่ยังขาดอยู่คือการเป็นผู้นำทางความคิดในการจัดโมเดล AI ให้สอดคล้องกับคุณค่าของมนุษย์ และความปลอดภัยในแง่ที่เป็นรูปธรรมมากขึ้น
หน่วยงานกำกับดูแลได้ขอความร่วมมือกับผู้เชี่ยวชาญในสาขา AI ระมัดระวังที่จะไม่ปิดกั้นนวัตกรรมด้วยกฎเกณฑ์ที่เข้มงวดเกี่ยวกับ AI มากเกินไป และเริ่มพิจารณาผลที่ตามมาจาก AI ต่อการโยกย้ายงาน ซึ่งล้วนเป็นประเด็นสำคัญที่ต้องให้ความสำคัญมาก สิ่งสำคัญคือต้องตั้งหัวข้ออย่างระมัดระวัง เนื่องจากความคิดของเราเกี่ยวกับกฎระเบียบของ AI มีความชัดเจนเมื่อเวลาผ่านไป และต้องให้ผู้คนมีส่วนร่วมมากที่สุดเพื่อแก้ไขปัญหานี้ด้วยวิธีที่เป็นประชาธิปไตย
โซลูชัน Prolific สามารถช่วยองค์กรต่างๆ ในการลดอคติด้าน AI และปัญหาอื่นๆ ที่เราพูดคุยไปแล้วได้อย่างไร
การรวบรวมข้อมูลสำหรับโครงการ AI ไม่ได้อยู่ในกระบวนการพิจารณาหรือพิจารณาเสมอไป ก่อนหน้านี้เราเคยเห็นวิธีการขูด การขุดนอกชายฝั่ง และวิธีการอื่น ๆ ที่มีอยู่มากมาย อย่างไรก็ตาม วิธีที่เราฝึกอบรม AI นั้นมีความสำคัญ และโมเดลรุ่นต่อไปจะต้องสร้างขึ้นจากข้อมูลคุณภาพสูงที่รวบรวมโดยตั้งใจ จากคนจริงและจากผู้ที่คุณติดต่อโดยตรง นี่คือจุดที่ Prolific กำลังสร้างชื่อเสียง
โดเมนอื่นๆ เช่นการสำรวจความคิดเห็น การวิจัยตลาด หรือการวิจัยทางวิทยาศาสตร์ ได้เรียนรู้เรื่องนี้มานานแล้ว ผู้ชมที่คุณสุ่มตัวอย่างมีผลกระทบอย่างมากต่อผลลัพธ์ที่คุณได้รับ AI เริ่มตามทัน และตอนนี้เรากำลังมาถึงทางแยกแล้ว
ตอนนี้เป็นเวลาที่จะเริ่มใส่ใจเกี่ยวกับการใช้ตัวอย่างที่ดีขึ้น และทำงานร่วมกับกลุ่มตัวแทนเพิ่มเติมสำหรับการฝึกอบรมและการปรับแต่ง AI ทั้งสองอย่างมีความสำคัญอย่างยิ่งต่อการพัฒนาโมเดลที่ปลอดภัย เป็นกลาง และสอดคล้องกัน
Prolific สามารถช่วยจัดหาเครื่องมือที่เหมาะสมสำหรับองค์กรในการดำเนินการทดลอง AI อย่างปลอดภัย และรวบรวมข้อมูลจากผู้เข้าร่วมซึ่งมีการตรวจสอบและบรรเทาอคติไปพร้อมกัน เราสามารถช่วยให้คำแนะนำเกี่ยวกับแนวทางปฏิบัติที่ดีที่สุดในการรวบรวมข้อมูล การคัดเลือก การชดเชย และการปฏิบัติต่อผู้เข้าร่วมอย่างยุติธรรม
คุณมีความคิดเห็นอย่างไรเกี่ยวกับความโปร่งใสของ AI ผู้ใช้ควรสามารถเห็นข้อมูลใดบ้างที่อัลกอริทึม AI ได้รับการฝึกฝน
ฉันคิดว่ามีข้อดีและข้อเสียสำหรับความโปร่งใส และยังไม่พบความสมดุลที่ดี บริษัทต่างๆ กำลังระงับข้อมูลเกี่ยวกับข้อมูลที่พวกเขาใช้ในการฝึกอบรมโมเดล AI เนื่องจากกลัวว่าจะถูกดำเนินคดี คนอื่นๆ พยายามทำให้โมเดล AI ของตนเปิดเผยต่อสาธารณะ และได้เผยแพร่ข้อมูลทั้งหมดเกี่ยวกับข้อมูลที่พวกเขาใช้ ความโปร่งใสอย่างสมบูรณ์เปิดโอกาสมากมายในการใช้ประโยชน์จากช่องโหว่ของโมเดลเหล่านี้ การรักษาความลับอย่างสมบูรณ์ไม่ได้ช่วยสร้างความไว้วางใจและการมีส่วนร่วมของสังคมในการสร้าง AI ที่ปลอดภัย จุดกึ่งกลางที่ดีจะให้ความโปร่งใสเพียงพอที่จะปลูกฝังความไว้วางใจในตัวเราว่าโมเดล AI ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่เกี่ยวข้องและมีคุณภาพดีซึ่งเรายินยอม เราจำเป็นต้องให้ความสนใจอย่างใกล้ชิดว่า AI ส่งผลกระทบต่ออุตสาหกรรมต่างๆ อย่างไร และเปิดการเจรจากับฝ่ายที่ได้รับผลกระทบ และตรวจสอบให้แน่ใจว่าเราได้พัฒนาแนวทางปฏิบัติที่เหมาะกับทุกคน
ฉันคิดว่าสิ่งสำคัญคือต้องคำนึงถึงสิ่งที่ผู้ใช้พบว่าน่าพอใจในแง่ของคำอธิบาย หากพวกเขาต้องการเข้าใจว่าเหตุใดแบบจำลองจึงสร้างการตอบสนองบางอย่าง การให้ข้อมูลดิบที่แบบจำลองได้รับการฝึกฝนมากที่สุดนั้นไม่น่าจะช่วยตอบคำถามของพวกเขาได้ ดังนั้นการสร้างเครื่องมือที่สามารถอธิบายและตีความได้ดีจึงเป็นสิ่งสำคัญ
การวิจัยการจัดตำแหน่ง AI มีวัตถุประสงค์เพื่อนำทางระบบ AI ไปสู่เป้าหมาย ความชอบ หรือหลักจริยธรรมของมนุษย์ คุณช่วยหารือเกี่ยวกับวิธีการฝึกอบรมพนักงาน AI และวิธีการใช้เพื่อให้แน่ใจว่า AI ได้รับการจัดตำแหน่งให้ดีที่สุดเท่าที่จะทำได้
นี่เป็นขอบเขตการวิจัยที่กระตือรือร้นและยังไม่มีความเห็นเป็นเอกฉันท์ว่าเราควรใช้กลยุทธ์ใดในการจัดโมเดล AI ให้สอดคล้องกับค่านิยมของมนุษย์ หรือแม้แต่ค่านิยมชุดใดที่เราควรมุ่งเป้าไปที่การปรับให้สอดคล้องกัน
โดยปกติแล้วพนักงาน AI จะถูกขอให้แสดงความต้องการของตนอย่างแท้จริง และตอบคำถามเกี่ยวกับความชอบของตนตามความเป็นจริง ในขณะเดียวกันก็ปฏิบัติตามหลักการด้านความปลอดภัย การไม่มีอคติ การไม่เป็นอันตราย และการช่วยเหลือ
ในส่วนของการจัดตำแหน่งตามเป้าหมาย หลักการทางจริยธรรมหรือค่านิยมนั้น มีแนวทางหลายประการที่ดูมีแนวโน้ม ตัวอย่างหนึ่งที่น่าสังเกตคืองานของ The Meaning Alignment Institute เมื่อ การปรับแต่งแบบประชาธิปไตย. มีกระทู้แนะนำไอเดียดีๆ ครับ โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.
ขอบคุณสำหรับบทสัมภาษณ์ดีๆ และแบ่งปันมุมมองเกี่ยวกับอคติของ AI ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเข้าไปเยี่ยมชม อุดมสมบูรณ์.