เชื่อมต่อกับเรา

การเชื่อมโยงโมเดลภาษาขนาดใหญ่และธุรกิจ: LLMops

ปัญญาประดิษฐ์

การเชื่อมโยงโมเดลภาษาขนาดใหญ่และธุรกิจ: LLMops

mm
วันที่อัพเดท on
AI เจนเนอเรชั่นและ LLMOps

รากฐานของ LLM เช่น GPT-3 ของ OpenAI หรือ GPT-4 ที่สืบทอดมาจากมันนั้นอยู่ที่การเรียนรู้เชิงลึก ซึ่งเป็นชุดย่อยของ AI ซึ่งใช้ประโยชน์จากโครงข่ายประสาทเทียมที่มีสามชั้นขึ้นไป โมเดลเหล่านี้ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดใหญ่ที่ครอบคลุมข้อความทางอินเทอร์เน็ตที่หลากหลาย ผ่านการฝึกอบรม LLM เรียนรู้ที่จะทำนายคำถัดไปตามลำดับ โดยพิจารณาจากคำที่อยู่ก่อนหน้า ความสามารถนี้ ซึ่งมีสาระสำคัญเรียบง่าย เป็นรากฐานความสามารถของ LLM ในการสร้างข้อความที่เกี่ยวข้องและสอดคล้องตามบริบทเหนือลำดับที่ขยายออกไป

แอปพลิเคชันที่เป็นไปได้นั้นไร้ขอบเขต ตั้งแต่การร่างอีเมล การสร้างโค้ด การตอบคำถาม ไปจนถึงการเขียนอย่างสร้างสรรค์ อย่างไรก็ตาม ด้วยพลังอันยิ่งใหญ่มาพร้อมกับความรับผิดชอบอันยิ่งใหญ่ และการจัดการโมเดลขนาดใหญ่เหล่านี้ในการตั้งค่าการผลิตก็ไม่ใช่เรื่องเล็กน้อย นี่คือจุดที่ LLMOps ก้าวเข้ามา โดยรวบรวมชุดแนวทางปฏิบัติ เครื่องมือ และกระบวนการที่ดีที่สุดเพื่อให้มั่นใจถึงการดำเนินงานที่เชื่อถือได้ ปลอดภัย และมีประสิทธิภาพของ LLM

แผนงานสู่การบูรณาการ LLM มีสามเส้นทางหลัก:

  1. แจ้ง LLM วัตถุประสงค์ทั่วไป:
    • โมเดลอย่าง ChatGPT และ Bard มีเกณฑ์ขั้นต่ำสำหรับการนำไปใช้โดยมีค่าใช้จ่ายล่วงหน้าขั้นต่ำ แม้ว่าจะมีป้ายราคาที่อาจเกิดขึ้นในระยะยาวก็ตาม
    • อย่างไรก็ตาม ความเป็นส่วนตัวของข้อมูลและความปลอดภัยยังมีอุปสรรคมากมาย โดยเฉพาะในภาคส่วนต่างๆ เช่น Fintech และการดูแลสุขภาพที่มีกรอบการกำกับดูแลที่เข้มงวด
  2. ปรับจูน LLM วัตถุประสงค์ทั่วไป:
    • ด้วยโมเดลโอเพ่นซอร์สเช่น ดูรายละเอียด, ฟอลคอน และ Mistralองค์กรต่างๆ สามารถปรับแต่ง LLM เหล่านี้ให้สอดคล้องกับกรณีการใช้งานเฉพาะของตนได้โดยใช้ทรัพยากรการปรับแต่งโมเดลเป็นค่าใช้จ่าย
    • แม้ว่าแนวทางนี้จะจัดการกับความไม่มั่นใจด้านความเป็นส่วนตัวและความปลอดภัย แต่ก็ยังต้องการการเลือกโมเดลที่ลึกซึ้งยิ่งขึ้น การเตรียมข้อมูล การปรับแต่งอย่างละเอียด การปรับใช้ และการตรวจสอบ
    • ลักษณะวงจรของเส้นทางนี้จำเป็นต้องมีการมีส่วนร่วมอย่างยั่งยืน แต่นวัตกรรมล่าสุด เช่น LoRA (การปรับอันดับต่ำ) และ Q (Quantized) -LoRa ได้ปรับปรุงกระบวนการปรับแต่งอย่างละเอียดให้มีประสิทธิภาพมากขึ้น ทำให้เป็นตัวเลือกที่ได้รับความนิยมมากขึ้น
  3. การฝึกอบรม LLM แบบกำหนดเอง:
    • การพัฒนา LLM ตั้งแต่เริ่มต้นรับประกันความแม่นยำที่ไม่มีใครเทียบได้ซึ่งปรับให้เหมาะกับงานที่ทำอยู่ อย่างไรก็ตาม ความต้องการที่สูงชันในด้านความเชี่ยวชาญด้าน AI ทรัพยากรการคำนวณ ข้อมูลที่กว้างขวาง และการลงทุนด้านเวลาทำให้เกิดอุปสรรคสำคัญ

ในบรรดาสามตัวเลือกดังกล่าว การปรับแต่ง LLM สำหรับใช้งานทั่วไปอย่างละเอียดเป็นตัวเลือกที่ดีที่สุดสำหรับบริษัทต่างๆ การสร้างโมเดลพื้นฐานใหม่อาจมีราคาสูงถึง 100 ล้านดอลลาร์ ในขณะที่การปรับแต่งโมเดลที่มีอยู่จะอยู่ระหว่าง 100 ถึง 1 ล้านดอลลาร์ ตัวเลขเหล่านี้มาจากค่าใช้จ่ายในการคำนวณ การได้มาซึ่งข้อมูลและการติดฉลาก ตลอดจนค่าใช้จ่ายด้านวิศวกรรมและการวิจัยและพัฒนา

LLMOps กับ MLOps

การดำเนินการด้านการเรียนรู้ของเครื่อง (MLOps) ได้รับการตอบรับอย่างดี โดยนำเสนอเส้นทางที่มีโครงสร้างในการเปลี่ยนโมเดลการเรียนรู้ของเครื่อง (ML) จากการพัฒนาไปสู่การใช้งานจริง อย่างไรก็ตาม ด้วยการเพิ่มขึ้นของโมเดลภาษาขนาดใหญ่ (LLM) กระบวนทัศน์การดำเนินงานใหม่ที่เรียกว่า LLMOps ได้เกิดขึ้นเพื่อจัดการกับความท้าทายเฉพาะที่เกี่ยวข้องกับการปรับใช้และการจัดการ LLM ความแตกต่างระหว่าง LLMOps และ MLOps ขึ้นอยู่กับหลายปัจจัย:

  1. ทรัพยากรการคำนวณ:
    • LLM ต้องการความสามารถในการคำนวณอย่างมากสำหรับการฝึกอบรมและการปรับแต่งอย่างละเอียด โดยมักจะต้องใช้ฮาร์ดแวร์พิเศษ เช่น GPU เพื่อเร่งการทำงานแบบขนานของข้อมูล
    • ค่าใช้จ่ายในการอนุมานยังตอกย้ำถึงความสำคัญของการบีบอัดแบบจำลองและการกลั่นเทคนิคเพื่อลดค่าใช้จ่ายในการคำนวณ
  2. ถ่ายทอดการเรียนรู้:
    • ต่างจากโมเดล ML ทั่วไปที่มักฝึกตั้งแต่เริ่มต้น LLM อาศัยการถ่ายโอนการเรียนรู้อย่างมาก โดยเริ่มจากโมเดลที่ได้รับการฝึกล่วงหน้า และปรับแต่งอย่างละเอียดสำหรับงานโดเมนเฉพาะ
    • แนวทางนี้ช่วยประหยัดข้อมูลและทรัพยากรการคำนวณในขณะที่บรรลุประสิทธิภาพที่ล้ำสมัย
  3. ห่วงตอบรับของมนุษย์:
    • การเพิ่มประสิทธิภาพแบบวนซ้ำของ LLM ได้รับแรงผลักดันอย่างมากจากการเรียนรู้แบบเสริมแรงจากผลตอบรับของมนุษย์ (RLHF)
    • การรวมวงจรป้อนกลับภายในไปป์ไลน์ LLMOps ไม่เพียงทำให้การประเมินง่ายขึ้น แต่ยังช่วยกระตุ้นกระบวนการปรับแต่งอย่างละเอียดอีกด้วย
  4. การปรับแต่งไฮเปอร์พารามิเตอร์:
    • ในขณะที่ ML แบบคลาสสิกเน้นการปรับปรุงความแม่นยำผ่านการปรับแต่งไฮเปอร์พารามิเตอร์ ในเวที LLM การโฟกัสยังครอบคลุมถึงการลดความต้องการในการคำนวณอีกด้วย
    • การปรับพารามิเตอร์ เช่น ขนาดชุดและอัตราการเรียนรู้สามารถเปลี่ยนแปลงความเร็วและต้นทุนการฝึกอบรมได้อย่างเห็นได้ชัด
  5. การวัดประสิทธิภาพ:
    • โมเดล ML แบบดั้งเดิมยึดตามตัววัดประสิทธิภาพที่กำหนดไว้อย่างดี เช่น ความแม่นยำ AUC หรือคะแนน F1 ในขณะที่ LLM มีชุดตัววัดที่แตกต่างกัน เช่น BLEU และ ROUGE
    • BLEU และ ROUGE เป็นหน่วยเมตริกที่ใช้ในการประเมินคุณภาพของการแปลและข้อมูลสรุปที่สร้างโดยเครื่อง BLEU ใช้สำหรับงานแปลด้วยเครื่องเป็นหลัก ในขณะที่ ROUGE ใช้สำหรับงานสรุปข้อความ
    • BLEU วัดความแม่นยำ หรือจำนวนคำในสรุปที่เครื่องสร้างขึ้นปรากฏในสรุปการอ้างอิงโดยมนุษย์ ROUGE วัดการเรียกคืน หรือจำนวนคำในสรุปการอ้างอิงที่มนุษย์ปรากฏในสรุปที่เครื่องสร้างขึ้น
  6. พร้อมรับงานวิศวกรรม:
    • การแจ้งเตือนที่แม่นยำทางวิศวกรรมมีความสำคัญอย่างยิ่งในการกระตุ้นให้เกิดการตอบสนองที่แม่นยำและเชื่อถือได้จาก LLM ซึ่งช่วยลดความเสี่ยงต่างๆ เช่น ภาพหลอนแบบจำลอง และแฮ็คทันที
  7. การก่อสร้างท่อ LLM:
    • เครื่องมืออย่าง LangChain หรือ LlamaIndex ช่วยให้สามารถประกอบท่อ LLM ได้ ซึ่งผสมผสานการเรียก LLM หลายครั้งหรือการโต้ตอบของระบบภายนอกสำหรับงานที่ซับซ้อน เช่น การถามตอบในฐานความรู้

การทำความเข้าใจขั้นตอนการทำงานของ LLMOps: การวิเคราะห์เชิงลึก

Language Model Operations หรือ LLMOps คล้ายกับแกนหลักในการปฏิบัติงานของโมเดลภาษาขนาดใหญ่ ช่วยให้มั่นใจได้ถึงการทำงานที่ราบรื่นและการผสานรวมในแอปพลิเคชันต่างๆ แม้ว่า LLMOps จะแตกต่างจาก MLOps หรือ DevOps แต่ LLMOps ก็มีความแตกต่างที่เป็นเอกลักษณ์ซึ่งรองรับความต้องการของโมเดลภาษาขนาดใหญ่ มาเจาะลึกขั้นตอนการทำงานของ LLMOps ที่ปรากฎในภาพประกอบ โดยสำรวจแต่ละขั้นตอนอย่างครอบคลุม

  1. ข้อมูลการฝึกอบรม:
    • สาระสำคัญของโมเดลภาษาอยู่ที่ข้อมูลการฝึกอบรม ขั้นตอนนี้เกี่ยวข้องกับการรวบรวมชุดข้อมูล เพื่อให้แน่ใจว่าชุดข้อมูลได้รับการทำความสะอาด มีสมดุล และมีคำอธิบายประกอบอย่างเหมาะสม คุณภาพและความหลากหลายของข้อมูลส่งผลกระทบอย่างมากต่อความแม่นยำและความคล่องตัวของแบบจำลอง ใน LLMOps การเน้นไม่ได้อยู่ที่ระดับเสียงเท่านั้น แต่ยังสอดคล้องกับกรณีการใช้งานที่ตั้งใจไว้ของโมเดลอีกด้วย
  2. แบบจำลองมูลนิธิโอเพ่นซอร์ส:
    • ภาพประกอบนี้อ้างอิงถึง "แบบจำลองพื้นฐานโอเพ่นซอร์ส" ซึ่งเป็นแบบจำลองที่ได้รับการฝึกอบรมล่วงหน้าซึ่งมักเผยแพร่โดยหน่วยงาน AI ชั้นนำ โมเดลเหล่านี้ซึ่งได้รับการฝึกฝนบนชุดข้อมูลขนาดใหญ่ ทำหน้าที่เป็นจุดเริ่มต้นที่ยอดเยี่ยม ประหยัดเวลาและทรัพยากร ช่วยให้ปรับแต่งงานเฉพาะเจาะจงได้อย่างละเอียด แทนที่จะฝึกอบรมใหม่
  3. การฝึกอบรม / การปรับแต่ง:
    • ด้วยโมเดลพื้นฐานและข้อมูลการฝึกอบรมเฉพาะ การปรับแต่งจึงเกิดขึ้น ขั้นตอนนี้จะปรับแต่งโมเดลเพื่อวัตถุประสงค์พิเศษ เช่น การปรับแต่งโมเดลข้อความทั่วไปอย่างละเอียดด้วยเอกสารทางการแพทย์สำหรับการใช้งานด้านการดูแลสุขภาพ ใน LLMOps การปรับแต่งอย่างเข้มงวดพร้อมการตรวจสอบอย่างสม่ำเสมอเป็นสิ่งสำคัญในการป้องกันการติดตั้งมากเกินไป และรับประกันการวางนัยทั่วไปที่ดีกับข้อมูลที่มองไม่เห็น
  4. โมเดลที่ผ่านการฝึกอบรม:
    • หลังการปรับแต่ง โมเดลที่ผ่านการฝึกอบรมที่พร้อมสำหรับการใช้งานก็ปรากฏขึ้น โมเดลนี้เป็นเวอร์ชันปรับปรุงของโมเดลพื้นฐาน ปัจจุบันมีความเชี่ยวชาญเฉพาะสำหรับการใช้งานโดยเฉพาะ อาจเป็นโอเพ่นซอร์สที่มีน้ำหนักและสถาปัตยกรรมที่สาธารณชนเข้าถึงได้ หรือเป็นกรรมสิทธิ์ที่องค์กรเก็บไว้เป็นส่วนตัว
  5. ปรับใช้:
    • การปรับใช้เกี่ยวข้องกับการรวมโมเดลเข้ากับสภาพแวดล้อมจริงสำหรับการประมวลผลแบบสอบถามในโลกแห่งความเป็นจริง มันเกี่ยวข้องกับการตัดสินใจเกี่ยวกับการโฮสต์ทั้งในสถานที่หรือบนแพลตฟอร์มคลาวด์ ใน LLMOps ข้อควรพิจารณาเกี่ยวกับเวลาแฝง ค่าใช้จ่ายในการคำนวณ และการเข้าถึงเป็นสิ่งสำคัญ พร้อมด้วยการรับรองว่าโมเดลจะปรับขนาดได้ดีสำหรับคำขอจำนวนมากพร้อมกัน
  6. รวดเร็ว:
    • ในโมเดลภาษา พรอมต์คือแบบสอบถามอินพุตหรือคำสั่ง การสร้างพรอมต์ที่มีประสิทธิภาพ ซึ่งมักต้องใช้ความเข้าใจพฤติกรรมของโมเดล มีความสำคัญอย่างยิ่งในการกระตุ้นผลลัพธ์ที่ต้องการเมื่อโมเดลประมวลผลพร้อมท์เหล่านี้
  7. ฝังร้านหรือ ฐานข้อมูลเวกเตอร์:
    • หลังการประมวลผล โมเดลอาจส่งคืนมากกว่าการตอบกลับด้วยข้อความธรรมดา แอปพลิเคชันขั้นสูงอาจต้องมีการฝัง – เวกเตอร์มิติสูงที่แสดงเนื้อหาเชิงความหมาย การฝังเหล่านี้สามารถจัดเก็บหรือนำเสนอเป็นบริการได้ ช่วยให้สามารถเรียกค้นหรือเปรียบเทียบข้อมูลเชิงความหมายได้อย่างรวดเร็ว ช่วยเพิ่มประสิทธิภาพของโมเดลในการใช้ประโยชน์นอกเหนือจากการสร้างข้อความเพียงอย่างเดียว
  8. โมเดลที่ปรับใช้ (โฮสต์ด้วยตนเองหรือ API):
    • เมื่อประมวลผลแล้ว เอาต์พุตของโมเดลก็พร้อม ขึ้นอยู่กับกลยุทธ์ สามารถเข้าถึงเอาต์พุตผ่านอินเทอร์เฟซที่โฮสต์เองหรือ API โดยแบบแรกให้การควบคุมที่มากขึ้นแก่องค์กรโฮสต์ และแบบหลังให้ความสามารถในการปรับขนาดและการผสานรวมที่ง่ายดายสำหรับนักพัฒนาบุคคลที่สาม
  9. Outputs:
    • ขั้นตอนนี้ให้ผลลัพธ์ที่เป็นรูปธรรมของเวิร์กโฟลว์ โมเดลรับพร้อมต์ ประมวลผล และส่งคืนเอาต์พุต ซึ่งขึ้นอยู่กับแอปพลิเคชัน อาจเป็นบล็อกข้อความ คำตอบ เรื่องราวที่สร้างขึ้น หรือแม้แต่การฝังตามที่กล่าวไว้

สตาร์ทอัพ LLM ชั้นนำ

ภูมิทัศน์ของการดำเนินการแบบจำลองภาษาขนาดใหญ่ (LLMOps) ได้เห็นการเกิดขึ้นของแพลตฟอร์มเฉพาะทางและสตาร์ทอัพ ต่อไปนี้เป็นสตาร์ทอัพ/แพลตฟอร์มสองแห่งและคำอธิบายที่เกี่ยวข้องกับพื้นที่ LLMOps:

ดาวหางดาวหาง llmops

Comet ช่วยปรับปรุงวงจรการเรียนรู้ของเครื่อง โดยเฉพาะเพื่อรองรับการพัฒนาโมเดลภาษาขนาดใหญ่ มีสิ่งอำนวยความสะดวกสำหรับการติดตามการทดลองและการจัดการแบบจำลองการผลิต แพลตฟอร์มนี้เหมาะสำหรับทีมองค์กรขนาดใหญ่ที่นำเสนอกลยุทธ์การใช้งานที่หลากหลาย รวมถึงการตั้งค่าคลาวด์ส่วนตัว ไฮบริด และในสถานที่

ดิฟาย

Dify เป็นแพลตฟอร์ม LLMOps แบบโอเพ่นซอร์สที่ช่วยในการพัฒนาแอปพลิเคชัน AI โดยใช้โมเดลภาษาขนาดใหญ่ เช่น GPT-4 โดยมีอินเทอร์เฟซที่ใช้งานง่ายและให้การเข้าถึงโมเดลที่ราบรื่น การฝังบริบท การควบคุมต้นทุน และความสามารถในการใส่คำอธิบายประกอบข้อมูล ผู้ใช้สามารถจัดการโมเดลของตนด้วยภาพได้อย่างง่ายดาย และใช้เอกสาร เนื้อหาเว็บ หรือบันทึกของ Notion เป็นบริบทของ AI ซึ่ง Dify จัดการสำหรับการประมวลผลล่วงหน้าและการดำเนินการอื่นๆ​

Portkey.ai

Portkey.ai เป็นสตาร์ทอัพสัญชาติอินเดียที่เชี่ยวชาญด้านการดำเนินงานโมเดลภาษา (LLMOps) ด้วยการระดมทุนเริ่มต้นล่าสุดจำนวน 3 ล้านดอลลาร์ ซึ่งนำโดย Lightspeed Venture Partners ทำให้ Portkey.ai นำเสนอการบูรณาการกับโมเดลภาษาขนาดใหญ่ที่สำคัญ เช่น จาก OpenAI และ Anthropic บริการของพวกเขารองรับ AI กำเนิด บริษัทต่างๆ ที่มุ่งเน้นไปที่การเพิ่มประสิทธิภาพการดำเนินงาน LLM ซึ่งรวมถึงการทดสอบ Canary แบบเรียลไทม์ และความสามารถในการปรับแต่งโมเดลอย่างละเอียด

ฉันใช้เวลาห้าปีที่ผ่านมาหมกมุ่นอยู่กับโลกแห่งการเรียนรู้ของเครื่องและการเรียนรู้เชิงลึกที่น่าสนใจ ความหลงใหลและความเชี่ยวชาญของฉันทำให้ฉันมีส่วนร่วมในโครงการวิศวกรรมซอฟต์แวร์ที่หลากหลายกว่า 50 โครงการ โดยเน้นเฉพาะที่ AI/ML ความอยากรู้อยากเห็นอย่างต่อเนื่องของฉันยังดึงฉันไปสู่การประมวลผลภาษาธรรมชาติ ซึ่งเป็นสาขาที่ฉันกระตือรือร้นที่จะสำรวจเพิ่มเติม