ต้นขั้ว Nora Petrova วิศวกรการเรียนรู้ของเครื่องและที่ปรึกษา AI ที่ Prolific - Interview Series - Unite.AI
เชื่อมต่อกับเรา

บทสัมภาษณ์

Nora Petrova วิศวกรการเรียนรู้ของเครื่องและที่ปรึกษา AI ที่ Prolific – Interview Series

mm

การตีพิมพ์

 on

Nora Petrova เป็นวิศวกรการเรียนรู้ของเครื่องและที่ปรึกษา AI ที่ อุดมสมบูรณ์. Prolific ก่อตั้งขึ้นในปี 2014 และนับลูกค้าขององค์กรต่างๆ เช่น Google, มหาวิทยาลัยสแตนฟอร์ด, มหาวิทยาลัยออกซ์ฟอร์ด, คิงส์คอลเลจลอนดอน และคณะกรรมาธิการยุโรป โดยใช้เครือข่ายผู้เข้าร่วมเพื่อทดสอบผลิตภัณฑ์ใหม่ ฝึกอบรมระบบ AI ในด้านต่างๆ เช่น การติดตามดวงตา และ ตรวจสอบว่าแอปพลิเคชัน AI แบบเผชิญหน้ามนุษย์ทำงานตามที่ผู้สร้างตั้งใจหรือไม่

คุณสามารถแบ่งปันข้อมูลบางอย่างเกี่ยวกับประวัติความเป็นมาของคุณที่ Prolific และอาชีพจนถึงปัจจุบันได้หรือไม่? อะไรทำให้คุณสนใจ AI? 

บทบาทของฉันที่ Prolific แบ่งระหว่างการเป็นที่ปรึกษาเกี่ยวกับกรณีการใช้งานและโอกาสของ AI และการเป็นวิศวกร ML ที่ลงมือปฏิบัติจริงมากขึ้น ฉันเริ่มต้นอาชีพด้านวิศวกรรมซอฟต์แวร์และค่อยๆ เปลี่ยนไปใช้การเรียนรู้ของเครื่อง ฉันใช้เวลาส่วนใหญ่ในช่วง 5 ปีที่ผ่านมามุ่งเน้นไปที่กรณีการใช้งานและปัญหาของ NLP

สิ่งที่ทำให้ฉันสนใจ AI ในตอนแรกคือความสามารถในการเรียนรู้จากข้อมูลและความเชื่อมโยงกับวิธีที่เราในฐานะมนุษย์เรียนรู้และโครงสร้างสมองของเรา ฉันคิดว่า ML และประสาทวิทยาศาสตร์สามารถส่งเสริมซึ่งกันและกันและช่วยให้เราเข้าใจวิธีสร้างระบบ AI ที่สามารถนำทางโลก แสดงความคิดสร้างสรรค์ และเพิ่มมูลค่าให้กับสังคม

ปัญหาอคติด้าน AI ที่ใหญ่ที่สุดที่คุณทราบเป็นการส่วนตัวมีอะไรบ้าง

อคติมีอยู่ในข้อมูลที่เราป้อนเข้าไปในโมเดล AI และการลบออกทั้งหมดเป็นเรื่องยากมาก อย่างไรก็ตาม มีความจำเป็นที่เราต้องตระหนักถึงอคติที่มีอยู่ในข้อมูลและค้นหาวิธีที่จะบรรเทาอคติที่เป็นอันตรายก่อนที่เราจะมอบความไว้วางใจให้โมเดลทำงานที่สำคัญในสังคม ปัญหาที่ใหญ่ที่สุดที่เรากำลังเผชิญอยู่คือแบบจำลองที่ยังคงทัศนคติแบบเหมารวมที่เป็นอันตราย อคติเชิงระบบ และความอยุติธรรมในสังคม เราควรคำนึงถึงวิธีการใช้โมเดล AI เหล่านี้ และอิทธิพลที่โมเดลจะมีต่อผู้ใช้ และตรวจสอบให้แน่ใจว่าโมเดลนั้นปลอดภัยก่อนที่จะอนุมัติสำหรับกรณีการใช้งานที่ละเอียดอ่อน

ประเด็นสำคัญบางประการที่โมเดล AI แสดงอคติที่เป็นอันตราย ได้แก่ การเลือกปฏิบัติของกลุ่มผู้ด้อยโอกาสในการรับสมัครเข้าโรงเรียนและมหาวิทยาลัย และทัศนคติเหมารวมทางเพศที่ส่งผลเสียต่อการรับสมัครผู้หญิง ไม่เพียงเท่านี้ แต่ยังพบว่าอัลกอริธึมกระบวนการยุติธรรมทางอาญาระบุว่าจำเลยชาวอเมริกันเชื้อสายแอฟริกันเข้าใจผิดว่า “มีความเสี่ยงสูง” เกือบสองเท่าของอัตราที่ระบุว่าจำเลยผิวขาวในสหรัฐอเมริกาไม่ถูกต้อง ในขณะที่เทคโนโลยีการจดจำใบหน้ายังคงมีอัตราข้อผิดพลาดสูงสำหรับชนกลุ่มน้อยเนื่องจาก ขาดข้อมูลการฝึกอบรมตัวแทน

ตัวอย่างข้างต้นครอบคลุมส่วนย่อยเล็กๆ ของอคติที่แสดงโดยโมเดล AI และเราสามารถคาดการณ์ปัญหาที่ใหญ่กว่าที่จะเกิดขึ้นในอนาคตได้ หากเราไม่มุ่งเน้นไปที่การบรรเทาอคติในตอนนี้ สิ่งสำคัญคือต้องจำไว้ว่าโมเดล AI เรียนรู้จากข้อมูลที่มีอคติเหล่านี้ เนื่องจากการตัดสินใจของมนุษย์ซึ่งได้รับอิทธิพลจากอคติที่ไม่ได้ตรวจสอบและโดยไม่รู้ตัว ในหลายกรณี การเลื่อนไปตามผู้มีอำนาจตัดสินใจที่เป็นมนุษย์อาจไม่สามารถขจัดอคติได้ การบรรเทาอคติอย่างแท้จริงจะเกี่ยวข้องกับการทำความเข้าใจว่าข้อมูลเหล่านี้ปรากฏอยู่ในข้อมูลที่เราใช้ฝึกแบบจำลองอย่างไร การแยกปัจจัยที่มีส่วนทำให้เกิดการคาดการณ์แบบเอนเอียง และร่วมกันตัดสินใจเลือกสิ่งที่เราต้องการใช้เป็นฐานในการตัดสินใจที่สำคัญ การพัฒนาชุดมาตรฐานเพื่อให้เราสามารถประเมินแบบจำลองด้านความปลอดภัยก่อนที่จะนำไปใช้กับกรณีการใช้งานที่มีความละเอียดอ่อนจะเป็นก้าวสำคัญ

ภาพหลอนของ AI เป็นปัญหาใหญ่กับ AI ทุกประเภท คุณสามารถหารือเกี่ยวกับวิธีการ มนุษย์ในวง การฝึกอบรม (HITL) สามารถบรรเทาปัญหาเหล่านี้ได้หรือไม่?

อาการประสาทหลอนในแบบจำลอง AI เป็นปัญหาในกรณีการใช้งานของ AI แบบกำเนิด แต่สิ่งสำคัญคือต้องทราบว่าอาการเหล่านี้ไม่ได้เป็นปัญหาในตัวมันเอง ในการใช้งานเชิงสร้างสรรค์บางอย่างของ generative AI เรายินดีรับภาพหลอนและมีส่วนทำให้เกิดการตอบสนองที่สร้างสรรค์และน่าสนใจยิ่งขึ้น

สิ่งเหล่านี้อาจเป็นปัญหาได้ในกรณีการใช้งานที่มีการพึ่งพาข้อมูลที่เป็นข้อเท็จจริงสูง ตัวอย่างเช่น ในการดูแลสุขภาพ ซึ่งการตัดสินใจอย่างเด็ดขาดเป็นสิ่งสำคัญ การให้ข้อมูลข้อเท็จจริงที่เชื่อถือได้แก่ผู้เชี่ยวชาญด้านสุขภาพถือเป็นสิ่งจำเป็น

HITL หมายถึงระบบที่อนุญาตให้มนุษย์ส่งข้อเสนอแนะโดยตรงไปยังแบบจำลองการคาดการณ์ที่อยู่ต่ำกว่าระดับความเชื่อมั่นที่กำหนด ภายในบริบทของอาการประสาทหลอน HITL สามารถใช้เพื่อช่วยให้โมเดลเรียนรู้ระดับความมั่นใจที่ควรมีสำหรับกรณีการใช้งานที่แตกต่างกันก่อนที่จะแสดงการตอบสนอง เกณฑ์เหล่านี้จะแตกต่างกันไปขึ้นอยู่กับกรณีการใช้งานและรูปแบบการสอน ความแตกต่างในความเข้มงวดที่จำเป็นสำหรับการตอบคำถามจากกรณีการใช้งานที่แตกต่างกันจะเป็นขั้นตอนสำคัญในการบรรเทาภาพหลอนประเภทที่เป็นปัญหา ตัวอย่างเช่น ภายในกรณีการใช้งานทางกฎหมาย มนุษย์สามารถแสดงให้โมเดล AI เห็นว่าการตรวจสอบข้อเท็จจริงเป็นขั้นตอนที่จำเป็นในการตอบคำถามตามเอกสารทางกฎหมายที่ซับซ้อนซึ่งมีข้อกำหนดและเงื่อนไขมากมาย

ผู้ปฏิบัติงานด้าน AI เช่น ตัวอธิบายข้อมูลจะช่วยลดปัญหาอคติที่อาจเกิดขึ้นได้อย่างไร

เจ้าหน้าที่ AI สามารถช่วยระบุอคติที่มีอยู่ในข้อมูลเป็นอันดับแรกและสำคัญที่สุด เมื่อระบุอคติได้แล้ว กลยุทธ์ในการบรรเทาผลกระทบก็จะง่ายขึ้น ผู้อธิบายข้อมูลยังสามารถช่วยในการหาวิธีลดอคติได้ ตัวอย่างเช่น สำหรับงาน NLP พวกเขาสามารถช่วยได้โดยการจัดหาทางเลือกอื่นในการเรียบเรียงตัวอย่างข้อความที่เป็นปัญหา เพื่อลดอคติที่ปรากฏในภาษา นอกจากนี้ ความหลากหลายในพนักงาน AI ยังช่วยลดปัญหาอคติในการติดฉลากได้อีกด้วย

คุณจะมั่นใจได้อย่างไรว่าพนักงาน AI ไม่ได้ป้อนอคติของมนุษย์เข้าสู่ระบบ AI โดยไม่ได้ตั้งใจ

เป็นปัญหาที่ซับซ้อนซึ่งต้องพิจารณาอย่างรอบคอบอย่างแน่นอน การขจัดอคติของมนุษย์แทบจะเป็นไปไม่ได้เลย และผู้ปฏิบัติงาน AI อาจป้อนอคติของตนโดยไม่ได้ตั้งใจไปยังโมเดล AI ดังนั้นจึงเป็นสิ่งสำคัญในการพัฒนากระบวนการที่แนะนำพนักงานไปสู่แนวปฏิบัติที่ดีที่สุด

ขั้นตอนที่สามารถทำได้เพื่อลดอคติของมนุษย์ให้เหลือน้อยที่สุด ได้แก่:

  • การฝึกอบรมที่ครอบคลุมแก่พนักงาน AI เกี่ยวกับอคติโดยไม่รู้ตัว และมอบเครื่องมือในการระบุและจัดการอคติของตนเองในระหว่างการติดฉลาก
  • รายการตรวจสอบที่เตือนพนักงาน AI ให้ตรวจสอบคำตอบของตนเองก่อนส่ง
  • ดำเนินการประเมินที่ตรวจสอบระดับความเข้าใจที่พนักงาน AI มี โดยจะแสดงตัวอย่างการตอบสนองต่ออคติประเภทต่างๆ และระบบจะขอให้เลือกคำตอบที่มีอคติน้อยที่สุด

หน่วยงานกำกับดูแลทั่วโลกตั้งใจที่จะควบคุมเอาต์พุตของ AI คุณคิดว่าหน่วยงานกำกับดูแลเข้าใจผิดอะไร และพวกเขามีสิทธิ์อะไร

สิ่งสำคัญคือต้องเริ่มต้นด้วยการบอกว่านี่เป็นปัญหาที่ยากมากซึ่งไม่มีใครพบวิธีแก้ปัญหา สังคมและ AI จะพัฒนาและมีอิทธิพลซึ่งกันและกันในลักษณะที่ยากต่อการคาดเดา ส่วนหนึ่งของกลยุทธ์ที่มีประสิทธิภาพในการค้นหาแนวทางปฏิบัติด้านกฎระเบียบที่มีประสิทธิภาพและมีประโยชน์คือการให้ความสนใจกับสิ่งที่เกิดขึ้นใน AI วิธีที่ผู้คนตอบสนองต่อสิ่งนี้ และผลกระทบที่มีต่ออุตสาหกรรมต่างๆ

ฉันคิดว่าอุปสรรคสำคัญต่อการควบคุม AI ที่มีประสิทธิภาพคือการขาดความเข้าใจว่าโมเดล AI ทำอะไรได้บ้างและทำไม่ได้ และวิธีการทำงานของโมเดลเหล่านั้น ในทางกลับกัน ทำให้ยากต่อการทำนายผลที่ตามมาของโมเดลเหล่านี้ต่อภาคส่วนต่างๆ และภาคตัดขวางของสังคมอย่างแม่นยำมากขึ้น อีกด้านที่ยังขาดอยู่คือการเป็นผู้นำทางความคิดในการจัดโมเดล AI ให้สอดคล้องกับคุณค่าของมนุษย์ และความปลอดภัยในแง่ที่เป็นรูปธรรมมากขึ้น

หน่วยงานกำกับดูแลได้ขอความร่วมมือกับผู้เชี่ยวชาญในสาขา AI ระมัดระวังที่จะไม่ปิดกั้นนวัตกรรมด้วยกฎเกณฑ์ที่เข้มงวดเกี่ยวกับ AI มากเกินไป และเริ่มพิจารณาผลที่ตามมาจาก AI ต่อการโยกย้ายงาน ซึ่งล้วนเป็นประเด็นสำคัญที่ต้องให้ความสำคัญมาก สิ่งสำคัญคือต้องตั้งหัวข้ออย่างระมัดระวัง เนื่องจากความคิดของเราเกี่ยวกับกฎระเบียบของ AI มีความชัดเจนเมื่อเวลาผ่านไป และต้องให้ผู้คนมีส่วนร่วมมากที่สุดเพื่อแก้ไขปัญหานี้ด้วยวิธีที่เป็นประชาธิปไตย

โซลูชัน Prolific สามารถช่วยองค์กรต่างๆ ในการลดอคติด้าน AI และปัญหาอื่นๆ ที่เราพูดคุยไปแล้วได้อย่างไร

การรวบรวมข้อมูลสำหรับโครงการ AI ไม่ได้อยู่ในกระบวนการพิจารณาหรือพิจารณาเสมอไป ก่อนหน้านี้เราเคยเห็นวิธีการขูด การขุดนอกชายฝั่ง และวิธีการอื่น ๆ ที่มีอยู่มากมาย อย่างไรก็ตาม วิธีที่เราฝึกอบรม AI นั้นมีความสำคัญ และโมเดลรุ่นต่อไปจะต้องสร้างขึ้นจากข้อมูลคุณภาพสูงที่รวบรวมโดยตั้งใจ จากคนจริงและจากผู้ที่คุณติดต่อโดยตรง นี่คือจุดที่ Prolific กำลังสร้างชื่อเสียง

โดเมนอื่นๆ เช่นการสำรวจความคิดเห็น การวิจัยตลาด หรือการวิจัยทางวิทยาศาสตร์ ได้เรียนรู้เรื่องนี้มานานแล้ว ผู้ชมที่คุณสุ่มตัวอย่างมีผลกระทบอย่างมากต่อผลลัพธ์ที่คุณได้รับ AI เริ่มตามทัน และตอนนี้เรากำลังมาถึงทางแยกแล้ว

ตอนนี้เป็นเวลาที่จะเริ่มใส่ใจเกี่ยวกับการใช้ตัวอย่างที่ดีขึ้น และทำงานร่วมกับกลุ่มตัวแทนเพิ่มเติมสำหรับการฝึกอบรมและการปรับแต่ง AI ทั้งสองอย่างมีความสำคัญอย่างยิ่งต่อการพัฒนาโมเดลที่ปลอดภัย เป็นกลาง และสอดคล้องกัน

Prolific สามารถช่วยจัดหาเครื่องมือที่เหมาะสมสำหรับองค์กรในการดำเนินการทดลอง AI อย่างปลอดภัย และรวบรวมข้อมูลจากผู้เข้าร่วมซึ่งมีการตรวจสอบและบรรเทาอคติไปพร้อมกัน เราสามารถช่วยให้คำแนะนำเกี่ยวกับแนวทางปฏิบัติที่ดีที่สุดในการรวบรวมข้อมูล การคัดเลือก การชดเชย และการปฏิบัติต่อผู้เข้าร่วมอย่างยุติธรรม

คุณมีความคิดเห็นอย่างไรเกี่ยวกับความโปร่งใสของ AI ผู้ใช้ควรสามารถเห็นข้อมูลใดบ้างที่อัลกอริทึม AI ได้รับการฝึกฝน

ฉันคิดว่ามีข้อดีและข้อเสียสำหรับความโปร่งใส และยังไม่พบความสมดุลที่ดี บริษัทต่างๆ กำลังระงับข้อมูลเกี่ยวกับข้อมูลที่พวกเขาใช้ในการฝึกอบรมโมเดล AI เนื่องจากกลัวว่าจะถูกดำเนินคดี คนอื่นๆ พยายามทำให้โมเดล AI ของตนเปิดเผยต่อสาธารณะ และได้เผยแพร่ข้อมูลทั้งหมดเกี่ยวกับข้อมูลที่พวกเขาใช้ ความโปร่งใสอย่างสมบูรณ์เปิดโอกาสมากมายในการใช้ประโยชน์จากช่องโหว่ของโมเดลเหล่านี้ การรักษาความลับอย่างสมบูรณ์ไม่ได้ช่วยสร้างความไว้วางใจและการมีส่วนร่วมของสังคมในการสร้าง AI ที่ปลอดภัย จุดกึ่งกลางที่ดีจะให้ความโปร่งใสเพียงพอที่จะปลูกฝังความไว้วางใจในตัวเราว่าโมเดล AI ได้รับการฝึกอบรมเกี่ยวกับข้อมูลที่เกี่ยวข้องและมีคุณภาพดีซึ่งเรายินยอม เราจำเป็นต้องให้ความสนใจอย่างใกล้ชิดว่า AI ส่งผลกระทบต่ออุตสาหกรรมต่างๆ อย่างไร และเปิดการเจรจากับฝ่ายที่ได้รับผลกระทบ และตรวจสอบให้แน่ใจว่าเราได้พัฒนาแนวทางปฏิบัติที่เหมาะกับทุกคน

ฉันคิดว่าสิ่งสำคัญคือต้องคำนึงถึงสิ่งที่ผู้ใช้พบว่าน่าพอใจในแง่ของคำอธิบาย หากพวกเขาต้องการเข้าใจว่าเหตุใดแบบจำลองจึงสร้างการตอบสนองบางอย่าง การให้ข้อมูลดิบที่แบบจำลองได้รับการฝึกฝนมากที่สุดนั้นไม่น่าจะช่วยตอบคำถามของพวกเขาได้ ดังนั้นการสร้างเครื่องมือที่สามารถอธิบายและตีความได้ดีจึงเป็นสิ่งสำคัญ

การวิจัยการจัดตำแหน่ง AI มีวัตถุประสงค์เพื่อนำทางระบบ AI ไปสู่เป้าหมาย ความชอบ หรือหลักจริยธรรมของมนุษย์ คุณช่วยหารือเกี่ยวกับวิธีการฝึกอบรมพนักงาน AI และวิธีการใช้เพื่อให้แน่ใจว่า AI ได้รับการจัดตำแหน่งให้ดีที่สุดเท่าที่จะทำได้

นี่เป็นขอบเขตการวิจัยที่กระตือรือร้นและยังไม่มีความเห็นเป็นเอกฉันท์ว่าเราควรใช้กลยุทธ์ใดในการจัดโมเดล AI ให้สอดคล้องกับค่านิยมของมนุษย์ หรือแม้แต่ค่านิยมชุดใดที่เราควรมุ่งเป้าไปที่การปรับให้สอดคล้องกัน

โดยปกติแล้วพนักงาน AI จะถูกขอให้แสดงความต้องการของตนอย่างแท้จริง และตอบคำถามเกี่ยวกับความชอบของตนตามความเป็นจริง ในขณะเดียวกันก็ปฏิบัติตามหลักการด้านความปลอดภัย การไม่มีอคติ การไม่เป็นอันตราย และการช่วยเหลือ

ในส่วนของการจัดตำแหน่งตามเป้าหมาย หลักการทางจริยธรรมหรือค่านิยมนั้น มีแนวทางหลายประการที่ดูมีแนวโน้ม ตัวอย่างหนึ่งที่น่าสังเกตคืองานของ The Meaning Alignment Institute เมื่อ การปรับแต่งแบบประชาธิปไตย. มีกระทู้แนะนำไอเดียดีๆ ครับ  โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.

ขอบคุณสำหรับบทสัมภาษณ์ดีๆ และแบ่งปันมุมมองเกี่ยวกับอคติของ AI ผู้อ่านที่ต้องการเรียนรู้เพิ่มเติมควรเข้าไปเยี่ยมชม อุดมสมบูรณ์.

ผู้ร่วมก่อตั้ง unite.AI และเป็นสมาชิกของ สภาเทคโนโลยี Forbes อองตวนเป็นอ ผู้เป็นเจ้ายังมาไม่ถึง ผู้หลงใหลเกี่ยวกับอนาคตของ AI และหุ่นยนต์

เขายังเป็นผู้ก่อตั้ง หลักทรัพย์.ioซึ่งเป็นเว็บไซต์ที่เน้นการลงทุนด้านเทคโนโลยีก่อกวน