ปัญญาประดิษฐ์
การต่อสู้เพื่อ AI ที่เปิดกว้างในยุค AI ที่สร้างสรรค์

AI ที่เปิดกว้างกำลังเปลี่ยนแปลงระบบนิเวศของซอฟต์แวร์อย่างรวดเร็ว โดยทำให้โมเดลและเครื่องมือ AI สามารถเข้าถึงได้โดยองค์กรต่างๆ ซึ่งนำไปสู่ประโยชน์หลายอย่าง รวมถึงการสร้างนวัตกรรมที่เร็วขึ้น คุณภาพที่ดีขึ้น และต้นทุนที่ลดลง
ตามรายงาน OpenLogic ปี 2023 80% ขององค์กรใช้ซอฟต์แวร์ที่เปิดกว้างมากกว่าปีที่แล้วเพื่อเข้าถึงนวัตกรรมล่าสุด ปรับปรุงความเร็วในการพัฒนา ลดการผูกพันกับผู้ขาย และลดต้นทุนใบอนุญาต
ภูมิทัศน์ปัจจุบันของ AI ที่เปิดกว้างยังคงพัฒนาอยู่ ยักษ์ใหญ่ด้านเทคโนโลยี เช่น Google (Meena, Bard และ PaLM) Microsoft (Turing NLG) และ Amazon Web Services (Amazon Lex) ได้แสดงความระมัดระวังในการเผยแพร่นวัตกรรม AI ของตน อย่างไรก็ตาม องค์กรบางแห่ง เช่น Meta และบริษัทวิจัย AI อื่นๆ กำลังเผยแพร่โมเดล AI ที่เปิดกว้างอย่างแข็งขัน
นอกจากนี้ยังมีการถกเถียงกันอย่างเข้มข้นเกี่ยวกับ AI ที่เปิดกว้างที่围绕 вокругศักยภาพในการท้าทายเทคโนโลยีใหญ่ๆ บทความนี้มีจุดมุ่งหมายเพื่อให้การวิเคราะห์อย่างลึกซึ้งเกี่ยวกับประโยชน์ที่เป็นไปได้ของ AI ที่เปิดกว้างและเน้นย้ำถึงความท้าทายที่จะเกิดขึ้น
การเป็นผู้บุกเบิก – ศักยภาพของ AI ที่เปิดกว้าง
ผู้ปฏิบัติงานหลายคนถือว่าการเพิ่มขึ้นของ AI ที่เปิดกว้างเป็นการพัฒนาที่ดี เนื่องจากทำให้ AI มีความโปร่งใส มีความยืดหยุ่น มีความรับผิดชอบ มีความสามารถในการเข้าถึงได้ และมีราคาไม่แพง แต่ยักษ์ใหญ่ด้านเทคโนโลยี เช่น OpenAI และ Google มีความระมัดระวังในการเผยแพร่โมเดลของตนเนื่องจากความกังวลเกี่ยวกับเชิงพาณิชย์ ความเป็นส่วนตัว และความปลอดภัย
อย่างไรก็ตาม ของมีค่ามากที่สุดของการเผยแพร่โมเดล AI ที่เปิดกว้างคือการสร้างนวัตกรรมที่เร็วขึ้น การพัฒนาที่สำคัญหลายอย่างได้กลายเป็นไปได้สำหรับสาธารณชนผ่านการทำงานร่วมกันแบบเปิดกว้าง ตัวอย่างเช่น Meta ได้ทำการเคลื่อนไหวที่เป็นก้าวหน้าโดยการเผยแพร่โมเดล LLM ของตน LLaMA
เมื่อชุมชนวิจัยได้รับโมเดล LLaMA มันทำให้เกิดการสร้างนวัตกรรม AI ที่สำคัญ ซึ่งนำไปสู่การพัฒนาของโมเดลที่ได้รับอนุญาต เช่น Alpaca และ Vicuna ในเดือนกรกฎาคม Stability AI ได้สร้าง LLM สองตัวที่เรียกว่า Beluga 1 และ Beluga 2 โดยใช้ LLaMA และ LLaMA 2 ตามลำดับ ซึ่งแสดงผลลัพธ์ที่ดีกว่าในหลายงานภาษา เช่น การให้เหตุผล การตอบคำถามเฉพาะโดเมน และการเข้าใจความแตกต่างของภาษา เมื่อไม่นานมานี้ Meta ได้แนะนำ Code LLaMA – เครื่องมือ AI ที่เปิดกว้างสำหรับการเขียนโค้ดที่มีประสิทธิภาพเหนือกว่าโมเดลที่มีอยู่ในงานเขียนโค้ด – ซึ่งก็สร้างขึ้นบน LLaMA 2
นักวิจัยและผู้ปฏิบัติงานกำลังปรับปรุงความสามารถของ LLaMA เพื่อแข่งขันกับโมเดลที่มีลิขสิทธิ์ ตัวอย่างเช่น โมเดลที่เปิดกว้าง เช่น Giraffe จาก Abacus AI และ Llama-2-7B-32K-Instruct จาก Together AI สามารถจัดการกับข้อความยาว 32K – คุณสมบัติที่มีอยู่ในโมเดลที่มีลิขสิทธิ์ เช่น GPT-4 นอกจากนี้ โครงการอุตสาหกรรม เช่น MosaicML’s MPT 7B และ 30B ที่เปิดกว้าง กำลังให้อำนาจนักวิจัยในการฝึกโมเดล AI ที่สร้างสรรค์ของตนเอง
โดยรวมแล้ว ความพยายามร่วมกันนี้ได้เปลี่ยนแปลงภูมิทัศน์ AI โดยส่งเสริมการทำงานร่วมกันและการแบ่งปันความรู้ที่ขับเคลื่อนการค้นพบใหม่ๆ
ประโยชน์ของ AI ที่เปิดกว้างสำหรับบริษัท
AI ที่เปิดกว้างมีประโยชน์มากมาย ทำให้เป็นแนวทางที่น่าสนใจในด้านปัญญาประดิษฐ์ โดยการยอมรับการทำงานร่วมกันและการทำงานร่วมกันของชุมชน AI ที่เปิดกว้างมีศักยภาพในการปฏิวัติวิธีการพัฒนาและใช้โซลูชัน AI
ประโยชน์ของ AI ที่เปิดกว้าง ได้แก่:
- การสร้างที่รวดเร็ว: โมเดล AI ที่เปิดกว้างช่วยให้นักพัฒนาสามารถสร้างบนเฟรมเวิร์กและสถาปัตยกรรมที่มีอยู่แล้ว ทำให้สามารถพัฒนาและสร้างโมเดลใหม่ๆ ได้อย่างรวดเร็ว
- ความโปร่งใสที่เพิ่มขึ้น: ความโปร่งใสเป็นคุณลักษณะสำคัญของ AI ที่เปิดกว้าง โดยให้มุมมองที่ชัดเจนเกี่ยวกับอัลกอริทึมและข้อมูลที่ใช้ ความโปร่งใสนี้ช่วยลดความเอนเอียงและเพิ่มความยุติธรรม ทำให้เกิดสภาพแวดล้อม AI ที่เท่าเทียมกัน
- การทำงานร่วมกันที่เพิ่มขึ้น: AI ที่เปิดกว้างทำให้การสร้าง AI เปิดกว้างและเป็นประชาธิปไตย ซึ่งนำไปสู่ชุมชนผู้ร่วมให้ข้อมูลที่หลากหลายและมีความเชี่ยวชาญที่แตกต่างกัน
การนำทางความท้าทาย – ความเสี่ยงของ AI ที่เปิดกว้าง
ในขณะที่ AI ที่เปิดกว้างมีประโยชน์มากมาย แต่ก็มีความเสี่ยงที่อาจเกิดขึ้น ต่อไปนี้คือความกังวลหลักๆ ที่เกี่ยวข้องกับ AI ที่เปิดกว้าง:
- ความท้าทายด้านกฎระเบียบ: การเพิ่มขึ้นของโมเดล AI ที่เปิดกว้างนำไปสู่การสร้างที่ไม่มีการควบคุมและมีความเสี่ยงที่อาจเกิดขึ้น ซึ่งต้องการการควบคุมอย่างระมัดระวัง ความสามารถในการเข้าถึง AI และการทำให้ AI เป็นประชาธิปไตยทำให้เกิดความกังวลเกี่ยวกับการใช้ AI ในทางที่ผิด
- การเสื่อมสภาพของคุณภาพ: ในขณะที่ AI ที่เปิดกว้างนำมาซึ่งความโปร่งใสและการทำงานร่วมกันของชุมชน แต่ก็อาจเสื่อมสภาพลงเมื่อเวลาผ่านไป ไม่เหมือนกับโมเดลที่มีลิขสิทธิ์ที่ได้รับการบำรุงรักษาโดยทีมที่อุทิศตน การบำรุงรักษาโมเดลที่เปิดกว้างมักจะอยู่กับชุมชน ซึ่งอาจนำไปสู่การละเลยและรุ่นโมเดลที่ล้าสมัย
- ความซับซ้อนของกฎระเบียบ AI: การเผยแพร่โมเดล AI ที่เปิดกว้างนำไปสู่ความซับซ้อนใหม่ๆ สำหรับผู้ควบคุม AI ต้องคำนึงถึงปัจจัยหลายอย่าง เช่น วิธีการปกป้องข้อมูลที่ละเอียดอ่อน วิธีการป้องกันไม่ให้โมเดลถูกใช้ในทางที่ผิด และวิธีการรับรองว่าโมเดลได้รับการบำรุงรักษาอย่างดี
การเปลี่ยนแปลงของการถกเถียง AI ที่เปิดกว้าง
“การเปิดกว้างขึ้นเป็นพลังในการขับเคลื่อนนวัตกรรม เนื่องจากช่วยให้นักพัฒนามากขึ้นสามารถสร้างสรรค์งานใหม่ๆ ได้ นอกจากนี้ยังช่วยเพิ่มความปลอดภัยและความมั่นคง เนื่องจากเมื่อซอฟต์แวร์เปิดกว้าง ผู้คนจำนวนมากขึ้นสามารถตรวจสอบและแก้ไขปัญหาที่อาจเกิดขึ้นได้” ตามที่ Mark Zuckerberg กล่าวเมื่อเขาประกาศโมเดล LLaMA 2 ในเดือนกรกฎาคม
ในทางกลับกัน ผู้เล่นหลักๆ เช่น OpenAI ที่ได้รับการสนับสนุนจาก Microsoft และ Google กำลังเก็บโมเดล AI ไว้แบบปิด พวกเขาตั้งเป้าที่จะสร้างความได้เปรียบในการแข่งขันและลดความเสี่ยงของการใช้ AI ในทางที่ผิด
Ilya Sutskever ผู้ร่วมก่อตั้งและหัวหน้านักวิทยาศาสตร์ของ OpenAI กล่าวว่า “โมเดลเหล่านี้มีศักยภาพสูงและกำลังจะเพิ่มขึ้นเรื่อยๆ ในที่สุดก็จะง่ายที่จะก่อให้เกิดอันตรายได้มาก หากต้องการไม่ให้โมเดลเหล่านี้ถูกเปิดเผยเมื่อความสามารถเพิ่มขึ้น” ดังนั้นจึงมีความเสี่ยงที่อาจเกิดขึ้นจากโมเดล AI ที่เปิดกว้างที่มนุษย์ไม่สามารถเพิกเฉยได้
ในขณะที่ AI ที่สามารถก่อให้เกิดอันตรายต่อมนุษย์อาจอยู่ห่างออกไปหลายทศวรรษ โมเดล AI ที่เปิดกว้างได้ถูกใช้ในทางที่ผิดแล้ว ตัวอย่างเช่น โมเดล LLaMA แรกถูกเผยแพร่เพื่อใช้ในการวิจัย AI แต่ผู้กระทำความผิดใช้มันเพื่อสร้างชาตบอตที่เผยแพร่เนื้อหาที่เกลียดชัง เช่น คำพูดที่มีเชื้อชาติและสเตอริโอไทป์
การรักษาสมดุลระหว่างการทำงานร่วมกันของ AI ที่เปิดกว้างและการกำกับดูแลที่รับผิดชอบเป็นสิ่งสำคัญ เพื่อให้แน่ใจว่าการพัฒนาของ AI ยังคงเป็นประโยชน์ต่อสังคมในขณะเดียวกันก็ป้องกันไม่ให้เกิดอันตราย













