ปัญญาประดิษฐ์
การเชื่อมโยงโมเดลภาษาขนาดใหญ่และธุรกิจ: LLMops

รากฐานของ LLM เช่น GPT-3 ของ OpenAI หรือ GPT-4 ที่สืบทอดมาจากมันนั้นอยู่ที่การเรียนรู้เชิงลึก ซึ่งเป็นชุดย่อยของ AI ซึ่งใช้ประโยชน์จากโครงข่ายประสาทเทียมที่มีสามชั้นขึ้นไป โมเดลเหล่านี้ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดใหญ่ที่ครอบคลุมข้อความทางอินเทอร์เน็ตที่หลากหลาย ผ่านการฝึกอบรม LLM เรียนรู้ที่จะทำนายคำถัดไปตามลำดับ โดยพิจารณาจากคำที่อยู่ก่อนหน้า ความสามารถนี้ ซึ่งมีสาระสำคัญเรียบง่าย เป็นรากฐานความสามารถของ LLM ในการสร้างข้อความที่เกี่ยวข้องและสอดคล้องตามบริบทเหนือลำดับที่ขยายออกไป
แอปพลิเคชันที่เป็นไปได้นั้นไร้ขอบเขต ตั้งแต่การร่างอีเมล การสร้างโค้ด การตอบคำถาม ไปจนถึงการเขียนอย่างสร้างสรรค์ อย่างไรก็ตาม ด้วยพลังอันยิ่งใหญ่มาพร้อมกับความรับผิดชอบอันยิ่งใหญ่ และการจัดการโมเดลขนาดใหญ่เหล่านี้ในการตั้งค่าการผลิตก็ไม่ใช่เรื่องเล็กน้อย นี่คือจุดที่ LLMOps ก้าวเข้ามา โดยรวบรวมชุดแนวทางปฏิบัติ เครื่องมือ และกระบวนการที่ดีที่สุดเพื่อให้มั่นใจถึงการดำเนินงานที่เชื่อถือได้ ปลอดภัย และมีประสิทธิภาพของ LLM
แผนงานสู่การบูรณาการ LLM มีสามเส้นทางหลัก:
- แจ้ง LLM วัตถุประสงค์ทั่วไป:
- โมเดลอย่าง ChatGPT และ Bard มีเกณฑ์ขั้นต่ำสำหรับการนำไปใช้โดยมีค่าใช้จ่ายล่วงหน้าขั้นต่ำ แม้ว่าจะมีป้ายราคาที่อาจเกิดขึ้นในระยะยาวก็ตาม
- อย่างไรก็ตาม ความเป็นส่วนตัวของข้อมูลและความปลอดภัยยังมีอุปสรรคมากมาย โดยเฉพาะในภาคส่วนต่างๆ เช่น Fintech และการดูแลสุขภาพที่มีกรอบการกำกับดูแลที่เข้มงวด
- ปรับจูน LLM วัตถุประสงค์ทั่วไป:
- ด้วยโมเดลโอเพ่นซอร์สเช่น ดูรายละเอียด, ฟอลคอน และ Mistralองค์กรต่างๆ สามารถปรับแต่ง LLM เหล่านี้ให้สอดคล้องกับกรณีการใช้งานเฉพาะของตนได้โดยใช้ทรัพยากรการปรับแต่งโมเดลเป็นค่าใช้จ่าย
- แม้ว่าแนวทางนี้จะจัดการกับความไม่มั่นใจด้านความเป็นส่วนตัวและความปลอดภัย แต่ก็ยังต้องการการเลือกโมเดลที่ลึกซึ้งยิ่งขึ้น การเตรียมข้อมูล การปรับแต่งอย่างละเอียด การปรับใช้ และการตรวจสอบ
- ลักษณะวงจรของเส้นทางนี้จำเป็นต้องมีการมีส่วนร่วมอย่างยั่งยืน แต่นวัตกรรมล่าสุด เช่น LoRA (การปรับอันดับต่ำ) และ Q (Quantized) -LoRa ได้ปรับปรุงกระบวนการปรับแต่งอย่างละเอียดให้มีประสิทธิภาพมากขึ้น ทำให้เป็นตัวเลือกที่ได้รับความนิยมมากขึ้น
- การฝึกอบรม LLM แบบกำหนดเอง:
- การพัฒนา LLM ตั้งแต่เริ่มต้นรับประกันความแม่นยำที่ไม่มีใครเทียบได้ซึ่งปรับให้เหมาะกับงานที่ทำอยู่ อย่างไรก็ตาม ความต้องการที่สูงชันในด้านความเชี่ยวชาญด้าน AI ทรัพยากรการคำนวณ ข้อมูลที่กว้างขวาง และการลงทุนด้านเวลาทำให้เกิดอุปสรรคสำคัญ
ในบรรดาสามตัวเลือกดังกล่าว การปรับแต่ง LLM สำหรับใช้งานทั่วไปอย่างละเอียดเป็นตัวเลือกที่ดีที่สุดสำหรับบริษัทต่างๆ การสร้างโมเดลพื้นฐานใหม่อาจมีราคาสูงถึง 100 ล้านดอลลาร์ ในขณะที่การปรับแต่งโมเดลที่มีอยู่จะอยู่ระหว่าง 100 ถึง 1 ล้านดอลลาร์ ตัวเลขเหล่านี้มาจากค่าใช้จ่ายในการคำนวณ การได้มาซึ่งข้อมูลและการติดฉลาก ตลอดจนค่าใช้จ่ายด้านวิศวกรรมและการวิจัยและพัฒนา
LLMOps กับ MLOps
การดำเนินการด้านการเรียนรู้ของเครื่อง (MLOps) ได้รับการตอบรับอย่างดี โดยนำเสนอเส้นทางที่มีโครงสร้างในการเปลี่ยนโมเดลการเรียนรู้ของเครื่อง (ML) จากการพัฒนาไปสู่การใช้งานจริง อย่างไรก็ตาม ด้วยการเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ (LLM) กระบวนทัศน์การดำเนินงานใหม่ที่เรียกว่า LLMOps ได้เกิดขึ้นเพื่อจัดการกับความท้าทายเฉพาะที่เกี่ยวข้องกับการปรับใช้และการจัดการ LLM ความแตกต่างระหว่าง LLMOps และ MLOps ขึ้นอยู่กับหลายปัจจัย:
- ทรัพยากรการคำนวณ:
- LLM ต้องการความสามารถในการคำนวณอย่างมากสำหรับการฝึกอบรมและการปรับแต่งอย่างละเอียด โดยมักจะต้องใช้ฮาร์ดแวร์พิเศษ เช่น GPU เพื่อเร่งการทำงานแบบขนานของข้อมูล
- ค่าใช้จ่ายในการอนุมานยังตอกย้ำถึงความสำคัญของการบีบอัดแบบจำลองและการกลั่นเทคนิคเพื่อลดค่าใช้จ่ายในการคำนวณ
- ถ่ายทอดการเรียนรู้:
- ต่างจากโมเดล ML ทั่วไปที่มักฝึกตั้งแต่เริ่มต้น LLM อาศัยการถ่ายโอนการเรียนรู้อย่างมาก โดยเริ่มจากโมเดลที่ได้รับการฝึกล่วงหน้า และปรับแต่งอย่างละเอียดสำหรับงานโดเมนเฉพาะ
- แนวทางนี้ช่วยประหยัดข้อมูลและทรัพยากรการคำนวณในขณะที่บรรลุประสิทธิภาพที่ล้ำสมัย
- ห่วงตอบรับของมนุษย์:
- การเพิ่มประสิทธิภาพแบบวนซ้ำของ LLM ได้รับแรงผลักดันอย่างมากจากการเรียนรู้แบบเสริมแรงจากผลตอบรับของมนุษย์ (RLHF)
- การรวมวงจรป้อนกลับภายในไปป์ไลน์ LLMOps ไม่เพียงทำให้การประเมินง่ายขึ้น แต่ยังช่วยกระตุ้นกระบวนการปรับแต่งอย่างละเอียดอีกด้วย
- การปรับแต่งไฮเปอร์พารามิเตอร์:
- ในขณะที่ ML แบบคลาสสิกเน้นการปรับปรุงความแม่นยำผ่านการปรับแต่งไฮเปอร์พารามิเตอร์ ในเวที LLM การโฟกัสยังครอบคลุมถึงการลดความต้องการในการคำนวณอีกด้วย
- การปรับพารามิเตอร์ เช่น ขนาดชุดและอัตราการเรียนรู้สามารถเปลี่ยนแปลงความเร็วและต้นทุนการฝึกอบรมได้อย่างเห็นได้ชัด
- การวัดประสิทธิภาพ:
- โมเดล ML แบบดั้งเดิมยึดตามตัววัดประสิทธิภาพที่กำหนดไว้อย่างดี เช่น ความแม่นยำ AUC หรือคะแนน F1 ในขณะที่ LLM มีชุดตัววัดที่แตกต่างกัน เช่น BLEU และ ROUGE
- BLEU และ ROUGE เป็นหน่วยเมตริกที่ใช้ในการประเมินคุณภาพของการแปลและข้อมูลสรุปที่สร้างโดยเครื่อง BLEU ใช้สำหรับงานแปลด้วยเครื่องเป็นหลัก ในขณะที่ ROUGE ใช้สำหรับงานสรุปข้อความ
- BLEU วัดความแม่นยำ หรือจำนวนคำในสรุปที่เครื่องสร้างขึ้นปรากฏในสรุปการอ้างอิงโดยมนุษย์ ROUGE วัดการเรียกคืน หรือจำนวนคำในสรุปการอ้างอิงที่มนุษย์ปรากฏในสรุปที่เครื่องสร้างขึ้น
- พร้อมรับงานวิศวกรรม:
- การแจ้งเตือนที่แม่นยำทางวิศวกรรมมีความสำคัญอย่างยิ่งในการกระตุ้นให้เกิดการตอบสนองที่แม่นยำและเชื่อถือได้จาก LLM ซึ่งช่วยลดความเสี่ยงต่างๆ เช่น ภาพหลอนแบบจำลอง และแฮ็คทันที
- การก่อสร้างท่อ LLM:
- เครื่องมืออย่าง LangChain หรือ LlamaIndex ช่วยให้สามารถประกอบท่อ LLM ได้ ซึ่งผสมผสานการเรียก LLM หลายครั้งหรือการโต้ตอบของระบบภายนอกสำหรับงานที่ซับซ้อน เช่น การถามตอบในฐานความรู้
การทำความเข้าใจขั้นตอนการทำงานของ LLMOps: การวิเคราะห์เชิงลึก
Language Model Operations หรือ LLMOps คล้ายกับแกนหลักในการปฏิบัติงานของโมเดลภาษาขนาดใหญ่ ช่วยให้มั่นใจได้ถึงการทำงานที่ราบรื่นและการผสานรวมในแอปพลิเคชันต่างๆ แม้ว่า LLMOps จะแตกต่างจาก MLOps หรือ DevOps แต่ LLMOps ก็มีความแตกต่างที่เป็นเอกลักษณ์ซึ่งรองรับความต้องการของโมเดลภาษาขนาดใหญ่ มาเจาะลึกขั้นตอนการทำงานของ LLMOps ที่ปรากฎในภาพประกอบ โดยสำรวจแต่ละขั้นตอนอย่างครอบคลุม
- ข้อมูลการฝึกอบรม:
- สาระสำคัญของโมเดลภาษาอยู่ที่ข้อมูลการฝึกอบรม ขั้นตอนนี้เกี่ยวข้องกับการรวบรวมชุดข้อมูล เพื่อให้แน่ใจว่าชุดข้อมูลได้รับการทำความสะอาด มีสมดุล และมีคำอธิบายประกอบอย่างเหมาะสม คุณภาพและความหลากหลายของข้อมูลส่งผลกระทบอย่างมากต่อความแม่นยำและความคล่องตัวของแบบจำลอง ใน LLMOps การเน้นไม่ได้อยู่ที่ระดับเสียงเท่านั้น แต่ยังสอดคล้องกับกรณีการใช้งานที่ตั้งใจไว้ของโมเดลอีกด้วย
- แบบจำลองมูลนิธิโอเพ่นซอร์ส:
- ภาพประกอบนี้อ้างอิงถึง "แบบจำลองพื้นฐานโอเพ่นซอร์ส" ซึ่งเป็นแบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าซึ่งมักเผยแพร่โดยหน่วยงาน AI ชั้นนำ โมเดลเหล่านี้ซึ่งได้รับการฝึกฝนบนชุดข้อมูลขนาดใหญ่ ทำหน้าที่เป็นจุดเริ่มต้นที่ยอดเยี่ยม ประหยัดเวลาและทรัพยากร ช่วยให้ปรับแต่งงานเฉพาะเจาะจงได้อย่างละเอียด แทนที่จะฝึกอบรมใหม่
- การฝึกอบรม / การปรับแต่ง:
- ด้วยโมเดลพื้นฐานและข้อมูลการฝึกอบรมเฉพาะ การปรับแต่งจึงเกิดขึ้น ขั้นตอนนี้จะปรับแต่งโมเดลเพื่อวัตถุประสงค์พิเศษ เช่น การปรับแต่งโมเดลข้อความทั่วไปอย่างละเอียดด้วยเอกสารทางการแพทย์สำหรับการใช้งานด้านการดูแลสุขภาพ ใน LLMOps การปรับแต่งอย่างเข้มงวดพร้อมการตรวจสอบอย่างสม่ำเสมอเป็นสิ่งสำคัญในการป้องกันการติดตั้งมากเกินไป และรับประกันการวางนัยทั่วไปที่ดีกับข้อมูลที่มองไม่เห็น
- โมเดลที่ผ่านการฝึกอบรม:
- หลังการปรับแต่ง โมเดลที่ผ่านการฝึกอบรมที่พร้อมสำหรับการใช้งานก็ปรากฏขึ้น โมเดลนี้เป็นเวอร์ชันปรับปรุงของโมเดลพื้นฐาน ปัจจุบันมีความเชี่ยวชาญเฉพาะสำหรับการใช้งานโดยเฉพาะ อาจเป็นโอเพ่นซอร์สที่มีน้ำหนักและสถาปัตยกรรมที่สาธารณชนเข้าถึงได้ หรือเป็นกรรมสิทธิ์ที่องค์กรเก็บไว้เป็นส่วนตัว
- ปรับใช้:
- การปรับใช้เกี่ยวข้องกับการรวมโมเดลเข้ากับสภาพแวดล้อมจริงสำหรับการประมวลผลแบบสอบถามในโลกแห่งความเป็นจริง มันเกี่ยวข้องกับการตัดสินใจเกี่ยวกับการโฮสต์ทั้งในสถานที่หรือบนแพลตฟอร์มคลาวด์ ใน LLMOps ข้อควรพิจารณาเกี่ยวกับเวลาแฝง ค่าใช้จ่ายในการคำนวณ และการเข้าถึงเป็นสิ่งสำคัญ พร้อมด้วยการรับรองว่าโมเดลจะปรับขนาดได้ดีสำหรับคำขอจำนวนมากพร้อมกัน
- รวดเร็ว:
- ในโมเดลภาษา พรอมต์คือแบบสอบถามอินพุตหรือคำสั่ง การสร้างพรอมต์ที่มีประสิทธิภาพ ซึ่งมักต้องใช้ความเข้าใจพฤติกรรมของโมเดล มีความสำคัญอย่างยิ่งในการกระตุ้นผลลัพธ์ที่ต้องการเมื่อโมเดลประมวลผลพร้อมท์เหล่านี้
- ฝังร้านหรือ ฐานข้อมูลเวกเตอร์:
- หลังการประมวลผล โมเดลอาจส่งคืนมากกว่าการตอบกลับด้วยข้อความธรรมดา แอปพลิเคชันขั้นสูงอาจต้องมีการฝัง – เวกเตอร์มิติสูงที่แสดงเนื้อหาเชิงความหมาย การฝังเหล่านี้สามารถจัดเก็บหรือนำเสนอเป็นบริการได้ ช่วยให้สามารถเรียกค้นหรือเปรียบเทียบข้อมูลเชิงความหมายได้อย่างรวดเร็ว ช่วยเพิ่มประสิทธิภาพของโมเดลในการใช้ประโยชน์นอกเหนือจากการสร้างข้อความเพียงอย่างเดียว
- โมเดลที่ปรับใช้ (โฮสต์ด้วยตนเองหรือ API):
- เมื่อประมวลผลแล้ว เอาต์พุตของโมเดลก็พร้อม ขึ้นอยู่กับกลยุทธ์ สามารถเข้าถึงเอาต์พุตผ่านอินเทอร์เฟซที่โฮสต์เองหรือ API โดยแบบแรกให้การควบคุมที่มากขึ้นแก่องค์กรโฮสต์ และแบบหลังให้ความสามารถในการปรับขนาดและการผสานรวมที่ง่ายดายสำหรับนักพัฒนาบุคคลที่สาม
- Outputs:
- ขั้นตอนนี้ให้ผลลัพธ์ที่เป็นรูปธรรมของเวิร์กโฟลว์ โมเดลรับพร้อมต์ ประมวลผล และส่งคืนเอาต์พุต ซึ่งขึ้นอยู่กับแอปพลิเคชัน อาจเป็นบล็อกข้อความ คำตอบ เรื่องราวที่สร้างขึ้น หรือแม้แต่การฝังตามที่กล่าวไว้
สตาร์ทอัพ LLM ชั้นนำ
ภูมิทัศน์ของการดำเนินการแบบจำลองภาษาขนาดใหญ่ (LLMOps) ได้เห็นการเกิดขึ้นของแพลตฟอร์มเฉพาะทางและสตาร์ทอัพ ต่อไปนี้เป็นสตาร์ทอัพ/แพลตฟอร์มสองแห่งและคำอธิบายที่เกี่ยวข้องกับพื้นที่ LLMOps:
Comet ช่วยปรับปรุงวงจรการเรียนรู้ของเครื่อง โดยเฉพาะเพื่อรองรับการพัฒนาโมเดลภาษาขนาดใหญ่ มีสิ่งอำนวยความสะดวกสำหรับการติดตามการทดลองและการจัดการแบบจำลองการผลิต แพลตฟอร์มนี้เหมาะสำหรับทีมองค์กรขนาดใหญ่ที่นำเสนอกลยุทธ์การใช้งานที่หลากหลาย รวมถึงการตั้งค่าคลาวด์ส่วนตัว ไฮบริด และในสถานที่
ดิฟาย
Dify เป็นแพลตฟอร์ม LLMOps แบบโอเพ่นซอร์สที่ช่วยในการพัฒนาแอปพลิเคชัน AI โดยใช้โมเดลภาษาขนาดใหญ่ เช่น GPT-4 โดยมีอินเทอร์เฟซที่ใช้งานง่ายและให้การเข้าถึงโมเดลที่ราบรื่น การฝังบริบท การควบคุมต้นทุน และความสามารถในการใส่คำอธิบายประกอบข้อมูล ผู้ใช้สามารถจัดการโมเดลของตนด้วยภาพได้อย่างง่ายดาย และใช้เอกสาร เนื้อหาเว็บ หรือบันทึกของ Notion เป็นบริบทของ AI ซึ่ง Dify จัดการสำหรับการประมวลผลล่วงหน้าและการดำเนินการอื่นๆ
Portkey.ai
Portkey.ai เป็นสตาร์ทอัพสัญชาติอินเดียที่เชี่ยวชาญด้านการดำเนินงานโมเดลภาษา (LLMOps) ด้วยการระดมทุนเริ่มต้นล่าสุดจำนวน 3 ล้านดอลลาร์ ซึ่งนำโดย Lightspeed Venture Partners ทำให้ Portkey.ai นำเสนอการบูรณาการกับโมเดลภาษาขนาดใหญ่ที่สำคัญ เช่น จาก OpenAI และ Anthropic บริการของพวกเขารองรับ AI กำเนิด บริษัทต่างๆ ที่มุ่งเน้นไปที่การเพิ่มประสิทธิภาพการดำเนินงาน LLM ซึ่งรวมถึงการทดสอบ Canary แบบเรียลไทม์ และความสามารถในการปรับแต่งโมเดลอย่างละเอียด