ต้นขั้ว หลักจริยธรรมของ AI ผ่านการวิเคราะห์เมตาดาต้า เน้นสิทธิมนุษยชน - Unite.AI
เชื่อมต่อกับเรา

จริยธรรม

หลักจริยธรรมของ AI ผ่านการวิเคราะห์เมตาดาต้า เน้นสิทธิมนุษยชน

mm

การตีพิมพ์

 on

ในปี 2019 มีการให้ความสำคัญกับจริยธรรมของ AI มากกว่าที่เคยเป็นมา อย่างไรก็ตาม การสนทนาส่วนใหญ่ดูคลุมเครือ โดยไม่มีแนวทางที่ประมวลไว้ แต่บริษัทต่าง ๆ ได้สร้างกรอบและนโยบายของตนเองเกี่ยวกับจริยธรรมของ AI การมีความเห็นพ้องต้องกันเกี่ยวกับประเด็นด้านจริยธรรมของ AI เป็นสิ่งสำคัญ เนื่องจากช่วยให้ผู้กำหนดนโยบายสร้างและปรับเปลี่ยนนโยบายได้ และยังแจ้งผลงานที่ทำโดยนักวิจัยและนักวิชาการอีกด้วย นอกเหนือจากนั้น บริษัทด้าน AI จะต้องรู้ว่าขีดจำกัดทางจริยธรรมอยู่ที่ใด หากพวกเขาหวังว่าจะหลีกเลี่ยงการนำ AI ไปใช้อย่างผิดจรรยาบรรณ เพื่อสร้างภาพที่ดีขึ้นเกี่ยวกับแนวโน้มด้านจริยธรรมของ AI ตามที่ VentureBeats รายงานBerkman Klein Center แห่งมหาวิทยาลัยฮาร์วาร์ด ทำการวิเคราะห์อภิมาน ของหลักการและกรอบจริยธรรมด้าน AI ต่างๆ ที่มีอยู่

ตามที่ผู้เขียนวิเคราะห์ นักวิจัยต้องการเปรียบเทียบหลักการแบบเคียงข้างกันเพื่อค้นหาการทับซ้อนและความแตกต่าง Jessica Fjeld ผู้ช่วยผู้อำนวยการ Harvard Law School Cyberlaw Clinic อธิบายว่าทีมวิจัยต้องการ “เปิดเผยโมเมนตัมที่ซ่อนอยู่ในการสนทนาทั่วโลกที่แตกหักเกี่ยวกับอนาคตของ AI ส่งผลให้เอกสารไวท์เปเปอร์นี้และการแสดงข้อมูลที่เกี่ยวข้อง”

ในระหว่างการวิเคราะห์ ทีมงานได้ตรวจสอบเอกสารหลักการ AI ที่แตกต่างกัน 36 ฉบับจากทั่วโลกและมาจากประเภทองค์กรต่างๆ มากมาย ผลการวิจัยพบว่ามีแปดหัวข้อที่ยังคงปรากฏในเอกสารจำนวนมาก

ความเป็นส่วนตัวและความรับผิดชอบเป็นสองหัวข้อหลักทางจริยธรรมที่ปรากฏบ่อยที่สุด เช่นเดียวกับความปลอดภัย/ความปลอดภัยของ AI ความโปร่งใส/การอธิบายได้ยังเป็นเป้าหมายที่ถูกอ้างถึงโดยทั่วไป โดยมีความพยายามหลายครั้งในการทำให้อัลกอริทึมสามารถอธิบายได้มากขึ้นในช่วงปี 2019 ความเป็นธรรม/การไม่เลือกปฏิบัติเป็นอีกประเด็นหลักทางจริยธรรม ซึ่งสะท้อนถึงความกังวลที่เพิ่มขึ้นเกี่ยวกับอคติของข้อมูล การควบคุมเทคโนโลยีโดยมนุษย์ และการไม่มอบอำนาจการตัดสินใจให้กับ AI ก็ได้รับการกล่าวถึงอย่างมากเช่นกัน ความรับผิดชอบในวิชาชีพเป็นประเด็นหลักประการที่เจ็ดที่นักวิจัยค้นพบ ในที่สุด นักวิจัยพบว่ามีการกล่าวถึงการส่งเสริมคุณค่าของมนุษย์อย่างต่อเนื่องในเอกสารจริยธรรมของ AI ที่พวกเขาตรวจสอบ

ทีมวิจัยได้แจกแจงรายละเอียดในเชิงคุณภาพและเชิงปริมาณว่าประเด็นเหล่านี้แสดงออกอย่างไรในเอกสารจริยธรรมของ AI ในเอกสารของพวกเขาและในเอกสารประกอบ แผนที่. แผนที่จะแสดงตำแหน่งที่มีการกล่าวถึงแต่ละธีม

ทีมวิจัยตั้งข้อสังเกตว่าการอภิปรายด้านจริยธรรมของ AI ส่วนใหญ่เกี่ยวข้องกับการคำนึงถึงคุณค่าและสิทธิของมนุษย์ ดังที่งานวิจัยบันทึกไว้ว่า:

“64% ของเอกสารของเรามีการอ้างอิงถึงสิทธิมนุษยชน และเอกสาร 14 ฉบับ [XNUMX%) ใช้สิทธิมนุษยชนระหว่างประเทศเป็นกรอบสำหรับความพยายามโดยรวม”

การอ้างอิงถึงสิทธิมนุษยชนและค่านิยมมีอยู่ทั่วไปในเอกสารที่จัดทำโดยกลุ่มภาคเอกชนและกลุ่มประชาสังคม สิ่งนี้บ่งชี้ว่าบริษัทเอกชนด้าน AI ไม่ได้สนใจเพียงผลกำไร แต่ให้ความสำคัญกับการผลิต AI อย่างมีจริยธรรม ในขณะเดียวกัน หน่วยงานภาครัฐดูเหมือนจะไม่ค่อยใส่ใจหรือตระหนักถึงจริยธรรมของ AI โดยรวม โดยมีเอกสารที่เกี่ยวข้องกับ AI น้อยกว่าครึ่งหนึ่งที่มาจากหน่วยงานของรัฐที่เกี่ยวข้องกับจริยธรรมของ AI

นักวิจัยยังตั้งข้อสังเกตอีกว่า หากเอกสารที่พวกเขาตรวจสอบเป็นเอกสารล่าสุด พวกเขามีแนวโน้มที่จะกล่าวถึงประเด็นสำคัญทั้งแปดเรื่องแทนที่จะเป็นเพียงไม่กี่ประเด็น ข้อเท็จจริงนี้บ่งบอกเป็นนัยว่าแนวคิดที่อยู่เบื้องหลังสิ่งที่ก่อให้เกิดการใช้ AI อย่างมีจริยธรรมนั้นเริ่มที่จะรวมตัวกันในหมู่ผู้ที่เป็นผู้นำการอภิปรายเกี่ยวกับจริยธรรมของ AI สุดท้ายนี้ นักวิจัยระบุว่าความสำเร็จของหลักการเหล่านี้ในการชี้นำการพัฒนา AI จะขึ้นอยู่กับการบูรณาการเข้ากับชุมชนการพัฒนา AI ในวงกว้างได้ดีเพียงใด นักวิจัยระบุในกระดาษ:

“ยิ่งไปกว่านั้น หลักการยังเป็นจุดเริ่มต้นสำหรับการปกครอง ไม่ใช่จุดสิ้นสุด ด้วยตัวของมันเอง หลักการชุดหนึ่งไม่น่าจะมากไปกว่าการโน้มน้าวใจอย่างนุ่มนวล ผลกระทบน่าจะขึ้นอยู่กับวิธีที่ฝังตัวอยู่ในระบบนิเวศการกำกับดูแลที่ใหญ่ขึ้น รวมถึงนโยบายที่เกี่ยวข้อง (เช่น แผนระดับชาติของ AI) กฎหมาย ข้อบังคับ แต่ยังรวมถึงแนวปฏิบัติทางวิชาชีพและกิจวัตรประจำวันด้วย”

บล็อกเกอร์และโปรแกรมเมอร์ที่มีความเชี่ยวชาญด้าน เครื่องเรียนรู้ และ การเรียนรู้ลึก ๆ หัวข้อ Daniel หวังว่าจะช่วยให้ผู้อื่นใช้พลังของ AI เพื่อประโยชน์ทางสังคม