Connect with us

RAFT – วิธีการ Fine-Tuning และ RAG สำหรับการตอบคำถามเฉพาะโดเมน

ปัญญาประดิษฐ์

RAFT – วิธีการ Fine-Tuning และ RAG สำหรับการตอบคำถามเฉพาะโดเมน

mm

เมื่อการประยุกต์ใช้โมเดลภาษาขนาดใหญ่ขยายไปสู่โดเมนเฉพาะ การปรับตัวให้เข้ากับเทคนิคการปรับให้เหมาะสมและประสิทธิภาพจึงมีความสำคัญมากขึ้น ด้วย RAFT (Retrieval Augmented Fine Tuning) ซึ่งเป็นวิธีการใหม่ที่รวมความแข็งแกร่งของการสร้างแบบจำลองที่ช่วยการค้นหา (RAG) และการปรับให้เหมาะสม โดยออกแบบมาเฉพาะสำหรับการตอบคำถามเฉพาะโดเมน

ความท้าทายของการปรับตัวให้เข้ากับโดเมน

แม้ว่าโมเดลภาษาขนาดใหญ่จะถูกฝึกฝนบนข้อมูลจำนวนมาก แต่ความสามารถในการทำงานได้ดีในโดเมนเฉพาะ เช่น การวิจัยทางการแพทย์ การจัดทำเอกสารทางกฎหมาย หรือฐานความรู้เฉพาะขององค์กร มักมีการจำกัด เนื่องจากข้อมูลการฝึกฝนอาจไม่สามารถแสดงถึงความแตกต่างและความซับซ้อนของโดเมนเหล่านี้ได้อย่างเพียงพอ เพื่อแก้ไขความท้าทายนี้ นักวิจัยได้ใช้เทคนิคสองแบบหลักๆ คือ การสร้างแบบจำลองที่ช่วยการค้นหา (RAG) และการปรับให้เหมาะสม

การสร้างแบบจำลองที่ช่วยการค้นหา (RAG)

RAG

RAG

RAG เป็นเทคนิคที่ทำให้ LLMs สามารถเข้าถึงและใช้แหล่งข้อมูลภายนอกระหว่างการอนุมานได้

มันทำได้โดยการรวมการค้นหาข้อมูลแบบเรียลไทม์เข้ากับกระบวนการสร้าง ทำให้ผลลัพธ์ของโมเดลมีความแม่นยำและเป็นปัจจุบันมากขึ้น RAG ประกอบด้วยสามขั้นตอนหลักๆ คือ การค้นหา โดยที่เอกสารที่เกี่ยวข้องจะถูกเก็บไว้ การสร้าง โดยที่โมเดลจะสร้างผลลัพธ์ตามข้อมูลที่ค้นหา และการเพิ่มเติม ซึ่งจะทำให้ผลลัพธ์มีความแม่นยำมากขึ้น

การค้นหาใน RAG เริ่มต้นด้วยคำถามของผู้ใช้ LLMs วิเคราะห์คำถามและดึงข้อมูลที่เกี่ยวข้องจากฐานข้อมูลภายนอก โดยนำเสนอชุดข้อมูลที่โมเดลสามารถใช้เพื่อสร้างคำตอบได้ ขั้นตอนการสร้างจะสังเคราะห์ข้อมูลนี้เป็นเรื่องราวหรือคำตอบที่สอดคล้องกัน ขั้นตอนการเพิ่มเติมจะทำให้การสร้างมีความแม่นยำมากขึ้นโดยการเพิ่มบริบทหรือปรับให้เหมาะสมกับความสอดคล้องและความเกี่ยวข้อง

โมเดล RAG สามารถประเมินได้โดยใช้เมตริกต่างๆ ในการประเมินความสามารถในการให้ข้อมูลที่แม่นยำ เหมาะสม และเป็นปัจจุบัน

การปรับให้เหมาะสม

supervised-fine-tuning

supervised-fine-tuning

การปรับให้เหมาะสม อีกด้านหนึ่งเกี่ยวข้องกับการปรับโมเดลภาษาขนาดใหญ่ที่ถูกฝึกฝนแล้วให้เหมาะสมกับงานหรือโดเมนเฉพาะโดยการฝึกฝนเพิ่มเติมบนชุดข้อมูลที่เล็กกว่าและเฉพาะงาน วิธีนี้ช่วยให้โมเดลสามารถเรียนรู้รูปแบบและจัดตำแหน่งผลลัพธ์ให้เหมาะสมกับงานหรือโดเมนที่ต้องการได้ แม้ว่าการปรับให้เหมาะสมจะสามารถปรับปรุงประสิทธิภาพของโมเดลได้ แต่มักจะล้มเหลวในการรวมแหล่งข้อมูลภายนอกหรือคำนึงถึงข้อผิดพลาดในการค้นหาระหว่างการอนุมาน

วิธีการ RAFT

RAFT

RAFT

RAFT ย่อมาจาก Retrieval-Aware Fine-Tuning เป็นวิธีการฝึกฝนแบบใหม่ที่ออกแบบมาเพื่อปรับปรุงประสิทธิภาพของโมเดลภาษาในงานเฉพาะโดเมน โดยเฉพาะสำหรับการสอบแบบเปิดหนังสือ RAFT แตกต่างจากการปรับให้เหมาะสมมาตรฐานโดยการเตรียมข้อมูลการฝึกที่รวมคำถามพร้อมเอกสารที่เกี่ยวข้องและไม่เกี่ยวข้อง พร้อมด้วยคำตอบที่มีการให้เหตุผลแบบเชื่อมโยงความคิดที่ได้มาจากเอกสารที่เกี่ยวข้อง วิธีนี้มีจุดมุ่งหมายเพื่อปรับปรุงความสามารถของโมเดลในการเรียกคืนข้อมูลและให้เหตุผลจากเนื้อหาที่ให้มา

โดยสรุป RAFT ปรับโมเดลภาษาให้สามารถทำงานได้ดีขึ้นในงานที่เกี่ยวข้องกับการอ่านและการค้นหาความรู้จากชุดเอกสาร โดยการฝึกฝนพร้อมเอกสาร “ออราเคิล” (ที่มีคำตอบ) และเอกสาร “ดิสแทรกเตอร์” (ที่ไม่มีคำตอบ) โมเดลจะเรียนรู้ว่าจะพึ่งพาความรู้ภายในของตนเองเมื่อใดและจะดึงข้อมูลจากบริบทที่ให้มาเมื่อใด

กระบวนการฝึกฝนของ RAFT ยังเน้นการสร้างกระบวนการให้เหตุผลที่ไม่เพียงแต่ช่วยในการสร้างคำตอบ แต่ยังช่วยอ้างอิงแหล่งข้อมูล เช่นเดียวกับวิธีที่มนุษย์ใช้ในการอ้างอิงสิ่งที่อ่านมาเพื่อสนับสนุนคำตอบของตน วิธีนี้ไม่เพียงแต่เตรียมโมเดลสำหรับการใช้งาน RAG (Retrieval Augmented Generation) ที่ต้องพิจารณาเอกสารที่ค้นหามาแบบ top-k แต่ยังทำให้การฝึกฝนของโมเดลไม่ขึ้นอยู่กับโมดูลการค้นหา ทำให้สามารถนำไปใช้กับระบบการค้นหาต่างๆ ได้อย่างยืดหยุ่น

ฉันใช้เวลา 5 ปีที่ผ่านมาในการศึกษาและเรียนรู้เกี่ยวกับโลกของ Machine Learning และ Deep Learning อย่างลึกซึ้ง ความรู้และความเชี่ยวชาญของฉันทำให้ฉันได้เข้าร่วมในโครงการพัฒนาซอฟต์แวร์มากกว่า 50 โครงการที่มีความหลากหลาย โดยมุ่งเน้นไปที่ AI/ML ความอยากรู้อยากเห็นของฉันยังดึงดูดให้ฉันสนใจไปที่ Natural Language Processing ซึ่งเป็นสาขาที่ฉันกระตือรือร้นที่จะสำรวจเพิ่มเติม