Connect with us

OpenAI ก่อตั้ง Safety Council ฝึกอบรมโมเดล AI รุ่นต่อไประหว่างความขัดแย้ง

ปัญญาประดิษฐ์

OpenAI ก่อตั้ง Safety Council ฝึกอบรมโมเดล AI รุ่นต่อไประหว่างความขัดแย้ง

mm

OpenAI ได้ทำความก้าวหน้าอย่างมีนัยสำคัญในการพัฒนาเทคโนโลยี trí tuệ nhân tạo โดยผลงานล่าสุดคือระบบ GPT-4o ที่เป็นพลังหลักของ ChatGPT ชาตบอตที่ได้รับความนิยม ในวันนี้ OpenAI ประกาศ การก่อตั้งคณะกรรมการความปลอดภัยใหม่ คือ OpenAI Safety Council และเปิดเผยว่าได้เริ่มฝึกอบรมโมเดล AI ใหม่แล้ว

ใครอยู่ใน Safety Council ของ OpenAI?

OpenAI Safety Council ที่ก่อตั้งใหม่นี้มีจุดมุ่งหมายเพื่อให้คำแนะนำและกำกับดูแลการตัดสินใจที่สำคัญเกี่ยวกับความปลอดภัยและความมั่นคงเกี่ยวกับโครงการและดำเนินการของบริษัท วัตถุประสงค์หลักของคณะกรรมการความปลอดภัยคือเพื่อให้แน่ใจว่าการพัฒนา AI ของ OpenAI ให้ความสำคัญกับความปลอดภัยและเป็นไปตามหลักการทางจริยธรรม คณะกรรมการความปลอดภัยประกอบด้วยบุคคลที่หลากหลาย รวมถึงผู้บริหารของ OpenAI สมาชิกคณะกรรมการ และผู้เชี่ยวชาญด้านเทคนิคและนโยบาย

สมาชิกที่มีชื่อเสียงของ OpenAI Safety Council ได้แก่:

  • Sam Altman CEO ของ OpenAI
  • Bret Taylor ประธาน OpenAI
  • Adam D’Angelo CEO ของ Quora และสมาชิกคณะกรรมการ OpenAI
  • Nicole Seligman อดีตทนายความทั่วไปของ Sony และสมาชิกคณะกรรมการ OpenAI

ในระยะแรก คณะกรรมการความปลอดภัยและความมั่นคงใหม่นี้จะเน้นประเมินและเสริมสร้างกระบวนการและมาตรการความปลอดภัยที่มีอยู่ของ OpenAI แล้ว OpenAI Safety Council ได้ตั้งเวลา 90 วันเพื่อให้คำแนะนำต่อคณะกรรมการเกี่ยวกับวิธีการปรับปรุงแนวปฏิบัติในการพัฒนา AI และระบบความปลอดภัยของบริษัท เมื่อคำแนะนำถูกนำมาใช้ OpenAI มีแผนจะเผยแพร่สู่สาธารณะในลักษณะที่สอดคล้องกับความปลอดภัยและข้อพิจารณาด้านความมั่นคง

การฝึกอบรมโมเดล AI ใหม่

พร้อมกับการก่อตั้ง OpenAI Safety Council OpenAI ได้ประกาศว่าได้เริ่มฝึกอบรมโมเดล AI รุ่นต่อไปแล้ว โมเดล AI ล่าสุดนี้คาดว่าจะมีความสามารถที่เหนือกว่าระบบ GPT-4 ที่ใช้ใน ChatGPT ปัจจุบัน แม้ว่ารายละเอียดเกี่ยวกับโมเดล AI ใหม่จะยังไม่ชัดเจน แต่ OpenAI ได้กล่าวว่าจะนำอุตสาหกรรมในด้านความสามารถและความปลอดภัย

การพัฒนาโมเดล AI ใหม่นี้เน้นย้ำถึงความก้าวหน้าอย่างรวดเร็วในด้าน trí tuệ nhân tạo และศักยภาพของ trí tuệทั่วไปของมนุษย์ (AGI) เมื่อระบบ AI มีความทันสมัยและทรงพลังมากขึ้น จึงจำเป็นต้องให้ความสำคัญกับความปลอดภัยและรับรองว่าเทคโนโลยีเหล่านี้ถูกพัฒนาอย่างมีความรับผิดชอบ

ความขัดแย้งและออกเดินทางล่าสุดของ OpenAI

การเน้นย้ำถึงความปลอดภัยของ OpenAI ในครั้งนี้เกิดขึ้นระหว่างที่บริษัทต้องเผชิญกับความวุ่นวายภายในและความตรวจสอบจากสาธารณะ ในช่วงไม่กี่สัปดาห์ที่ผ่านมา บริษัทได้รับการวิพากษ์วิจารณ์จากภายใน โดยนักวิจัย Jan Leike ลาออกและแสดงความกังวลว่าความปลอดภัยถูกทอดทิ้งให้พัฒนา “ผลิตภัณฑ์ที่สวยงาม” การลาออกของ Leike ตามด้วยการออกเดินทางของ Ilya Sutskever ผู้ร่วมก่อตั้งและหัวหน้านักวิทยาศาสตร์ของ OpenAI

การออกเดินทางของ Leike และ Sutskever ทำให้เกิดคำถามเกี่ยวกับจุดมุ่งหมายของบริษัทและแนวทางในการรักษาความปลอดภัย AI ทั้งสองนักวิจัย曾 領導ทีม “superalignment” ของ OpenAI ซึ่งอุทิศให้กับการแก้ไขความเสี่ยง AI ในระยะยาว หลังจากการลาออก ทีม superalignment ถูกยุบ ทำให้เกิดความกังวลเกี่ยวกับการมุ่งเน้นความปลอดภัยของบริษัท

นอกเหนือจากความวุ่นวายภายใน OpenAI ยังเผชิญข้อกล่าวหาว่าทำการปลอมแปลงเสียงใน ChatGPT ชาตบอต บางผู้ใช้กล่าวหาว่าเสียงของชัตบอทมีลักษณะคล้ายกับของนักแสดง Scarlett Johansson แม้ว่า OpenAI จะปฏิเสธการปลอมแปลงเสียง Johansson อย่างเจตนา แต่เหตุการณ์นี้ก็ทำให้เกิดการอภิปรายที่กว้างขึ้นเกี่ยวกับผลกระทบทางจริยธรรมของเนื้อหาที่สร้างโดย AI และศักยภาพในการใช้ในทางที่ผิด

การอภิปรายที่กว้างขึ้นเกี่ยวกับจริยธรรม AI

เมื่อ trí tuệ nhân tạoดำเนินไปอย่างรวดเร็ว จึงจำเป็นต้องมีการมีส่วนร่วมและการทำงานร่วมกันอย่างต่อเนื่องระหว่างบริษัทต่างๆ เช่น OpenAI นักวิจัย ผู้กำหนดนโยบาย และสาธารณะ เพื่อให้แน่ใจว่าเทคโนโลยี AI ถูกพัฒนาอย่างมีความรับผิดชอบและมีการป้องกันที่เข้มแข็ง คำแนะนำที่คณะกรรมการความปลอดภัยของ OpenAI และความมุ่งมั่นของ OpenAI ต่อความโปร่งใสจะช่วยให้เกิดการอภิปรายที่กว้างขึ้นเกี่ยวกับการกำกับดูแล AI และช่วยกำหนดอนาคตของเทคโนโลยีที่เปลี่ยนแปลงโลกนี้ แต่จะเห็นได้ว่าจะเกิดอะไรขึ้นต่อไป

Alex McFarland เป็นนักข่าวและนักเขียน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมงานกับสตาร์ทอัพ AI และสื่อสิ่งพิมพ์ต่างๆ ทั่วโลก