ต้นขั้ว ผู้นำด้านเทคโนโลยีเน้นย้ำถึงความเสี่ยงของ AI และความเร่งด่วนของกฎระเบียบด้าน AI ที่เข้มงวด - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์

ผู้นำด้านเทคโนโลยีเน้นย้ำถึงความเสี่ยงของ AI และความเร่งด่วนของกฎระเบียบด้าน AI ที่เข้มงวด

mm

การตีพิมพ์

 on

บล็อกเด่น ผู้นำด้านเทคโนโลยีภาพเน้นย้ำถึงความเสี่ยงของ AI และความเร่งด่วนของกฎระเบียบด้าน AI ที่เข้มงวด

การเติบโตและความก้าวหน้าของ AI เพิ่มขึ้นอย่างมากในช่วงไม่กี่ปีที่ผ่านมา รายงานสถิติ ภายในปี 2024 ตลาด AI ทั่วโลกจะสร้างรายได้ประมาณ 3000 พันล้านดอลลาร์ เทียบกับ 126 ล้านดอลลาร์ในปี 2015 อย่างไรก็ตาม ขณะนี้ผู้นำเทคโนโลยีกำลังเตือนเราเกี่ยวกับความเสี่ยงต่างๆ ของ AI

โดยเฉพาะอย่างยิ่งคลื่นลูกล่าสุดของ AI กำเนิด โมเดลเช่น ChatGPT ได้นำความสามารถใหม่ๆ มาใช้ในภาคส่วนต่างๆ ที่มีความสำคัญต่อข้อมูล เช่น การดูแลสุขภาพ การศึกษา เงินทุนฯลฯ การพัฒนาที่สนับสนุนโดย AI เหล่านี้มีความเสี่ยงเนื่องจากข้อบกพร่องของ AI หลายอย่างที่เจ้าหน้าที่ที่เป็นอันตรายสามารถเปิดเผยได้

เรามาหารือกันว่าผู้เชี่ยวชาญด้าน AI กำลังพูดถึงการพัฒนาล่าสุดและเน้นย้ำถึงความเสี่ยงที่อาจเกิดขึ้นจาก AI อย่างไร เราจะกล่าวถึงวิธีการจัดการความเสี่ยงเหล่านี้โดยสังเขป

ผู้นำเทคโนโลยีและข้อกังวลที่เกี่ยวข้องกับความเสี่ยงของ AI

จอฟฟรีย์ฮินตัน

Geoffrey Hinton – ผู้นำด้านเทคโนโลยี AI ที่มีชื่อเสียง (และเป็นเจ้าพ่อของสาขานี้) ซึ่งเพิ่งลาออกจาก Google ได้ แสดงความกังวลของเขา เกี่ยวกับการพัฒนาอย่างรวดเร็วของ AI และอันตรายที่อาจเกิดขึ้น ฮินตันเชื่อว่าแชทบอท AI อาจกลายเป็น "ค่อนข้างน่ากลัว" หากพวกมันมีสติปัญญาเกินมนุษย์

ฮินตัน พูดว่า:

“ตอนนี้ สิ่งที่เราเห็นคือ GPT-4 บดบังความรู้ทั่วไปของคนๆ หนึ่ง และบดบังความรู้ทั่วไปของคนๆ หนึ่ง ในแง่ของการใช้เหตุผล มันไม่ดีเท่า แต่มันให้เหตุผลง่ายๆ อยู่แล้ว และด้วยอัตราความก้าวหน้า เราคาดว่าสิ่งต่างๆ จะดีขึ้นอย่างรวดเร็ว ดังนั้นเราต้องกังวลเกี่ยวกับเรื่องนี้”

ยิ่งไปกว่านั้น เขาเชื่อว่า “ผู้ไม่ประสงค์ดี” สามารถใช้ AI สำหรับ “สิ่งเลวร้าย” ได้ เช่น การอนุญาตให้หุ่นยนต์มีเป้าหมายย่อย แม้เขาจะกังวล แต่ Hinton เชื่อว่า AI สามารถให้ประโยชน์ในระยะสั้นได้ แต่เราควรลงทุนอย่างมากในด้านความปลอดภัยและการควบคุมของ AI

Elon Musk

การมีส่วนร่วมของ Elon Musk ใน AI เริ่มต้นจากการลงทุนในช่วงแรกๆ ของเขาใน Deepmind ในปี 2010 เพื่อร่วมก่อตั้ง OpenAI และรวมเอา AI เข้ากับยานยนต์ไร้คนขับของเทสลา

แม้ว่าเขาจะกระตือรือร้นเกี่ยวกับ AI แต่เขาก็มักจะแสดงความกังวลเกี่ยวกับความเสี่ยงของ AI Musk กล่าวว่าระบบ AI อันทรงพลังอาจเป็นอันตรายต่ออารยธรรมมากกว่าอาวุธนิวเคลียร์ ในการสัมภาษณ์ที่ ข่าวฟ็อกซ์ ในเดือนเมษายน พ.ศ. 2023 เขากล่าวว่า:

“AI นั้นอันตรายมากกว่า เช่น การออกแบบเครื่องบินหรือการบำรุงรักษาการผลิตที่ผิดพลาด หรือการผลิตรถยนต์ที่ไม่ดี ในแง่ที่ว่ามันมีศักยภาพ — อย่างไรก็ตาม คนตัวเล็กๆ อาจมองว่าน่าจะเป็นนั้น — แต่มันไม่เล็กน้อยและมีศักยภาพในการทำลายล้างอารยธรรม”

ยิ่งไปกว่านั้น Musk ยังสนับสนุนกฎระเบียบของรัฐบาลเกี่ยวกับ AI เพื่อความปลอดภัยจากความเสี่ยงที่อาจเกิดขึ้น แม้ว่า “จะไม่สนุกเลยก็ตาม”

หยุดการทดลอง AI ยักษ์ชั่วคราว: จดหมายเปิดผนึกที่สนับสนุนโดยผู้เชี่ยวชาญด้าน AI กว่า 1000 คน

Future of Life Institute เผยแพร่จดหมายเปิดผนึก เมื่อวันที่ 22 มีนาคม 2023 จดหมายเรียกร้องให้หยุดชั่วคราวหกเดือน พัฒนาระบบ AI ให้ก้าวหน้ายิ่งขึ้น กว่า จีพีที-4. ผู้เขียนแสดงความกังวลเกี่ยวกับการก้าวไปพร้อมกับการพัฒนาระบบ AI ซึ่งก่อให้เกิดความท้าทายทางเศรษฐกิจและสังคมอย่างรุนแรง

นอกจากนี้ จดหมายระบุว่านักพัฒนา AI ควรทำงานร่วมกับผู้กำหนดนโยบายเพื่อบันทึกระบบการกำกับดูแล AI ในเดือนมิถุนายน 2023 จดหมายดังกล่าวได้รับการลงนามโดยนักพัฒนา AI ผู้เชี่ยวชาญ และผู้นำด้านเทคโนโลยีมากกว่า 31,000 คน ผู้ลงนามที่โดดเด่น ได้แก่ Elon Musk, Steve Wozniak (ผู้ร่วมก่อตั้ง Apple), Emad Mostaque (CEO, Stability AI), Yoshua Bengio (ผู้ชนะรางวัล Turing) และอีกมากมาย

ตอบโต้ข้อโต้แย้งเกี่ยวกับการหยุดการพัฒนา AI

ผู้นำ AI ที่โดดเด่นสองคน Andrew Ng และ Yann LeCunได้คัดค้านการห้ามพัฒนาระบบ AI ขั้นสูงเป็นเวลา XNUMX เดือน และถือว่าการหยุดชั่วคราวเป็นความคิดที่ไม่ดี

Ng กล่าวว่า แม้ว่า AI จะมีความเสี่ยงอยู่บ้าง เช่น ความลำเอียง การรวมพลัง ฯลฯ แต่คุณค่าที่ AI สร้างขึ้นในด้านต่างๆ เช่น การศึกษา การดูแลสุขภาพ และการฝึกสอนแบบตอบสนองนั้นมีมากมายมหาศาล

Yann LeCun กล่าวว่าไม่ควรหยุดการวิจัยและพัฒนา แม้ว่าผลิตภัณฑ์ AI ที่เข้าถึงผู้ใช้ปลายทางจะได้รับการควบคุมก็ตาม

อะไรคืออันตรายที่อาจเกิดขึ้น & ความเสี่ยงในทันทีของ AI?

อันตรายที่อาจเกิดขึ้น & ความเสี่ยงในทันทีของ AI

1. การย้ายงาน

ผู้เชี่ยวชาญด้าน AI เชื่อว่าระบบ AI อัจฉริยะสามารถแทนที่งานด้านความรู้ความเข้าใจและความคิดสร้างสรรค์ได้ ธนาคารเพื่อการลงทุน Goldman Sachs ประมาณการว่า 300 ล้านงาน จะถูกทำให้เป็นไปโดยอัตโนมัติโดย generative AI

จึงควรมีกฎระเบียบในการพัฒนา AI เพื่อไม่ให้เกิดภาวะเศรษฐกิจตกต่ำอย่างรุนแรง ควรมีโปรแกรมการศึกษาเพื่อเพิ่มทักษะและเสริมทักษะให้กับพนักงานเพื่อรับมือกับความท้าทายนี้

2. ระบบ AI ที่มีอคติ

อคติ เรื่องที่แพร่หลายในหมู่มนุษย์เกี่ยวกับเพศ เชื้อชาติ หรือสีผิวสามารถแทรกซึมข้อมูลที่ใช้สำหรับการฝึกอบรมระบบ AI โดยไม่ได้ตั้งใจ ทำให้ระบบ AI มีอคติในภายหลัง

ตัวอย่างเช่น ในบริบทของการรับสมัครงาน ระบบ AI ที่มีอคติสามารถละทิ้งเรซูเม่ของบุคคลที่มีภูมิหลังทางชาติพันธุ์เฉพาะ ซึ่งทำให้เกิดการเลือกปฏิบัติในตลาดงาน ใน การบังคับใช้กฎหมายการตรวจรักษาเชิงคาดการณ์ที่มีอคติอาจกำหนดเป้าหมายย่านหรือกลุ่มประชากรเฉพาะเจาะจงอย่างไม่สมส่วน

ดังนั้นจึงจำเป็นอย่างยิ่งที่จะต้องมีกลยุทธ์ข้อมูลที่ครอบคลุมซึ่งจัดการกับความเสี่ยงของ AI โดยเฉพาะอย่างยิ่งความลำเอียง ระบบ AI ต้องได้รับการประเมินและตรวจสอบบ่อยครั้งเพื่อให้มีความยุติธรรม

3. แอปพลิเคชัน AI ที่เน้นความปลอดภัย

ยานพาหนะอัตโนมัติ การวินิจฉัยและการรักษาทางการแพทย์ ระบบการบิน การควบคุมโรงไฟฟ้านิวเคลียร์ ฯลฯ ล้วนเป็นตัวอย่างของการใช้งาน AI ที่มีความสำคัญต่อความปลอดภัย ระบบ AI เหล่านี้ควรได้รับการพัฒนาอย่างระมัดระวัง เพราะข้อผิดพลาดแม้เพียงเล็กน้อยก็อาจส่งผลร้ายแรงต่อชีวิตมนุษย์และสิ่งแวดล้อมได้

ตัวอย่างเช่น การทำงานผิดพลาดของซอฟต์แวร์ AI ที่เรียกว่า ระบบเพิ่มลักษณะการหลบหลีก (MCAS) สาเหตุส่วนหนึ่งมาจากการตกของเครื่องบินโบอิ้ง 737 MAX ทั้งสองลำ ครั้งแรกในเดือนตุลาคม 2018 และจากนั้นในเดือนมีนาคม 2019 น่าเศร้าที่การตกทั้งสองครั้งคร่าชีวิตผู้คนไป 346 คน

เราจะเอาชนะความเสี่ยงของระบบ AI ได้อย่างไร – การพัฒนา AI อย่างมีความรับผิดชอบและการปฏิบัติตามกฎระเบียบ

การพัฒนา AI อย่างมีความรับผิดชอบและการปฏิบัติตามกฎระเบียบ

AI ที่รับผิดชอบ (ไร่) หมายถึงการพัฒนาและปรับใช้ระบบ AI ที่ยุติธรรม รับผิดชอบ โปร่งใส และปลอดภัย ซึ่งรับรองความเป็นส่วนตัวและปฏิบัติตามข้อบังคับทางกฎหมายและบรรทัดฐานทางสังคม การนำ RAI ไปใช้อาจมีความซับซ้อนเนื่องจากระบบ AI มีการพัฒนาอย่างรวดเร็วและรวดเร็ว

อย่างไรก็ตาม บริษัทเทคโนโลยีขนาดใหญ่ได้พัฒนากรอบ RAI เช่น:

  1. AI ที่มีความรับผิดชอบของ Microsoft
  2. หลักการ AI ของ Google
  3. AI ที่เชื่อถือได้ของ IBM

ห้องปฏิบัติการ AI ทั่วโลกสามารถรับแรงบันดาลใจจากหลักการเหล่านี้หรือพัฒนาเฟรมเวิร์ก AI ที่รับผิดชอบของตนเองเพื่อสร้างระบบ AI ที่เชื่อถือได้

การปฏิบัติตามกฎข้อบังคับของ AI

เนื่องจากข้อมูลเป็นองค์ประกอบสำคัญของระบบ AI องค์กรและห้องปฏิบัติการที่ใช้ AI จะต้องปฏิบัติตามข้อบังคับต่อไปนี้เพื่อรับรองความปลอดภัย ความเป็นส่วนตัว และความปลอดภัยของข้อมูล

  1. GDPR (กฎการคุ้มครองข้อมูลทั่วไป) – กรอบการคุ้มครองข้อมูลโดยสหภาพยุโรป
  2. CCPA (พระราชบัญญัติความเป็นส่วนตัวของผู้บริโภคในแคลิฟอร์เนีย) – กฎหมายของรัฐแคลิฟอร์เนียสำหรับสิทธิความเป็นส่วนตัวและการคุ้มครองผู้บริโภค
  3. HIPAA (พระราชบัญญัติการเคลื่อนย้ายและความรับผิดชอบในการประกันสุขภาพ) – กฎหมายของสหรัฐอเมริกาที่คุ้มครองข้อมูลทางการแพทย์ของผู้ป่วย   
  4. พระราชบัญญัติ AI ของสหภาพยุโรปและ แนวทางจริยธรรมสำหรับ AI ที่น่าเชื่อถือ – กฎระเบียบด้าน AI ของคณะกรรมาธิการยุโรป

มีกฎหมายระดับภูมิภาคและท้องถิ่นหลายฉบับที่ตราขึ้นโดยประเทศต่างๆ เพื่อปกป้องพลเมืองของตน องค์กรที่ล้มเหลวในการรับรองการปฏิบัติตามกฎระเบียบเกี่ยวกับข้อมูลอาจส่งผลให้เกิดบทลงโทษที่รุนแรง ตัวอย่างเช่น GDPR ได้กำหนดค่าปรับไว้ € 20 ล้านหรือ 4% ของกำไรประจำปี สำหรับการละเมิดอย่างร้ายแรง เช่น การประมวลผลข้อมูลที่ผิดกฎหมาย ความยินยอมในข้อมูลที่ไม่ได้รับการพิสูจน์ การละเมิดสิทธิ์ของเจ้าของข้อมูล หรือการถ่ายโอนข้อมูลที่ไม่ได้รับการคุ้มครองไปยังองค์กรระหว่างประเทศ

การพัฒนา AI และข้อบังคับ – ปัจจุบันและอนาคต

ในทุก ๆ เดือนที่ผ่านไป ความก้าวหน้าของ AI พุ่งสูงขึ้นอย่างที่ไม่เคยมีมาก่อน แต่กฎระเบียบและกรอบการกำกับดูแลของ AI ที่เกี่ยวข้องยังล้าหลัง พวกเขาต้องแข็งแกร่งและเฉพาะเจาะจงมากขึ้น

ผู้นำด้านเทคโนโลยีและนักพัฒนา AI ได้ส่งสัญญาณเตือนภัยเกี่ยวกับความเสี่ยงของ AI หากไม่ได้รับการควบคุมอย่างเพียงพอ การวิจัยและพัฒนาใน AI สามารถสร้างมูลค่าเพิ่มได้ในหลายภาคส่วน แต่เป็นที่ชัดเจนว่ากฎระเบียบที่ระมัดระวังนั้นมีความจำเป็น

สำหรับเนื้อหาเกี่ยวกับ AI เพิ่มเติม โปรดไปที่ unite.ai.