ผู้นำทางความคิด
หาก AI ของคุณมีอาการหลงลืม อย่าตำหนิ AI

อาการหลงลืมของ AI หรือคำตอบที่ฟังดูสมเหตุสมผลแต่ไม่ถูกต้อง ได้รับความสนใจจากสื่อมากขึ้น เช่น ในบทความของ New York Times เร็วๆ นี้ AI Is Getting More Powerful, But Its Hallucinations Are Getting Worse อาการหลงลืมเป็นอันตรายจริงเมื่อคุณต้องจัดการกับแชทบอทสำหรับผู้บริโภค ในบริบทของการประยุกต์ใช้ AI ในธุรกิจ นี่เป็นปัญหาที่ร้ายแรงกว่า幸นั้น ในฐานะผู้นำด้านเทคโนโลยีธุรกิจ ฉันมีอำนาจควบคุมมากขึ้น ฉันสามารถ đảm bảoได้ว่าตัวแทนมีข้อมูลที่ถูกต้องเพื่อให้คำตอบที่มีความหมาย
เพราะนั่นเป็นปัญหาแท้จริง ในธุรกิจ ไม่มีคำอธิบายสำหรับ อาการหลงลืมของ AI หยุดตำหนิ AI ตำหนิตัวเองที่ไม่ใช้ AI อย่างเหมาะสม
เมื่อเครื่องมือ AI ที่สร้างข้อความ generative AI มีอาการหลงลืม พวกมันทำสิ่งที่ถูกออกแบบมาให้ทำ – ให้คำตอบที่ดีที่สุดตามข้อมูลที่มีอยู่ เมื่อพวกมันสร้างข้อความที่ไม่มีจริง เพราะพวกมันไม่มีข้อมูลที่เกี่ยวข้อง ไม่สามารถหามันได้ หรือไม่เข้าใจคำถาม ใช่ โมเดลใหม่ๆ เช่น OpenAI’s o3 และ o4-mini มีอาการหลงลืมมากขึ้น ทำงานได้ “สร้างสรรค์” มากขึ้นเมื่อไม่มีคำตอบที่ดีสำหรับคำถามที่ถูกถาม ใช่ เครื่องมือที่มีพลังมากขึ้นสามารถมีอาการหลงลืมมากขึ้น – แต่ก็สามารถให้ผลลัพธ์ที่มีพลังและมีค่ามากขึ้นหากเราเตรียมให้พร้อมสำหรับความสำเร็จ
หากคุณไม่ต้องการให้ AI ของคุณมีอาการหลงลืม อย่าขาดข้อมูลให้กับมัน ให้ AI ด้วยข้อมูลที่ดีที่สุดและเกี่ยวข้องกับปัญหาที่คุณต้องการให้มันแก้ไข และมันจะไม่หลงลืม
แม้ว่าเมื่อทำงานกับเครื่องมือ AI ใดๆ ฉันแนะนำให้คุณรักษาความคิดวิพากษ์ไว้ ผลลัพธ์ที่ตัวแทน AI ให้มาสามารถเป็นผลลัพธ์ที่ดีและน่าพึงพอใจ แต่จุดมุ่งหมายไม่ใช่การปิดสมองและปล่อยให้ซอฟต์แวร์ทำการคิดแทนคุณ รักษาความคิดวิพากษ์ไว้ เมื่อตัวแทน AI ให้คำตอบ คุณควรตั้งคำถามกับคำตอบนั้นเพื่อให้แน่ใจว่ามันสมเหตุสมผลและถูกต้องตามข้อมูล หากใช่ นั่นควรเป็นสัญญาณที่ดีว่ามันคุ้มค่าที่จะถามคำถามเพิ่มเติม
คุณถามมากเท่าไหร่ คุณจะได้ข้อมูลเชิงลึกมากขึ้นเท่านั้น
ทำไมอาการหลงลืมจึงเกิดขึ้น
ไม่ใช่เรื่องลึกลับ AI ไม่ได้พยายามที่จะหลอกลวงคุณ ทุกๆ โมเดลภาษาขนาดใหญ่ (LLM) ของ AI โดยพื้นฐานแล้วคือการทำนายคำหรือตัวเลขถัดไปตามความน่าจะเป็น
ในระดับสูง สิ่งที่เกิดขึ้นที่นี่คือ LLMs เชื่อมต่อประโยคและย่อหนึ่งๆ ต่อคำตามความน่าจะเป็น โดยพิจารณาจากตัวอย่างอื่นๆ ในข้อมูลการฝึกอบรมหลายพันล้านชิ้น พ่อแม่ของ LLMs (นอกเหนือจาก Clippy) คือการเติมคำอัตโนมัติสำหรับข้อความ SMS และโค้ดคอมพิวเตอร์ เครื่องมือแปลภาษาแบบอัตโนมัติ และระบบภาษาอื่นๆ ที่ใช้ความน่าจะเป็น ด้วยพลังการประมวลผลที่เพิ่มขึ้น และการฝึกอบรมบนข้อมูลขนาดอินเทอร์เน็ต ทำให้ระบบเหล่านี้ “ฉลาด” พอที่จะสนทนาทางแชทได้เต็มรูปแบบ เช่นที่โลกได้เรียนรู้ด้วยการแนะนำ ChatGPT
ผู้คัดค้าน AI ชอบที่จะชี้ว่ามันไม่ใช่ “ความฉลาด” จริงๆ แต่เป็นเพียงซอฟต์แวร์ที่สามารถแยกและพ่นความฉลาดของมนุษย์ที่ถูกป้อนเข้าไปเท่านั้น ถามมันให้สรุปข้อมูลในรายงานที่เขียนแล้ว มันจะเลียนแบบวิธีที่นักเขียนคนอื่นๆ สรุปข้อมูลที่คล้ายกัน
สิ่งนี้ดูเหมือนจะเป็นข้อโต้แย้งทางวิชาการ ตราบเท่าที่ข้อมูลถูกต้องและวิเคราะห์เป็นประโยชน์
สิ่ง gìเกิดขึ้นถ้า AI ไม่มีข้อมูล มันจะเติมช่องว่าง บางครั้งมันอาจจะตลก บางครั้งมันอาจจะยุ่งเหยิง
เมื่อสร้าง ตัวแทน AI สิ่งนี้เป็นอันตราย 10 เท่า ตัวแทนควรให้ข้อมูลเชิงลึกที่สามารถนำไปใช้ได้ แต่มันทำการตัดสินใจมากกว่านั้น มันทำงานหลายขั้นตอน โดยผลลัพธ์ของขั้นตอนที่ 1 ส่งผลต่อขั้นตอนที่ 2, 3, 4, 5, … 10 … 20 หากผลลัพธ์ของขั้นตอนที่ 1 ไม่ถูกต้อง ข้อผิดพลาดจะถูกขยาย ทำให้ผลลัพธ์ที่ขั้นตอนที่ 20 ยิ่งเลวร้ายมากขึ้น โดยเฉพาะอย่างยิ่ง ตัวแทนสามารถตัดสินใจและข้ามขั้นตอนได้
ทำได้ดี ตัวแทนสามารถทำได้มากกว่าสำหรับธุรกิจที่ใช้งานพวกมัน อย่างไรก็ตาม ในฐานะผู้จัดการผลิตภัณฑ์ AI เราต้องตระหนักถึงความเสี่ยงที่มากขึ้นที่มาพร้อมกับรางวัลที่มากขึ้น
ซึ่งเป็นสิ่งที่ทีมของเราทำ เราเห็นความเสี่ยงและจัดการกับมัน เราไม่ได้สร้างหุ่นยนต์ที่หรูหราเท่านั้น แต่ยังแน่ใจว่ามันทำงานบนข้อมูลที่ถูกต้อง นี่คือสิ่งที่ฉันคิดว่าเราทำถูกต้อง:
- สร้างตัวแทนให้ถามคำถามที่ถูกต้องและตรวจสอบว่ามีข้อมูลที่ถูกต้องหรือไม่ ให้แน่ใจว่ากระบวนการป้อนข้อมูลเริ่มต้นของตัวแทนเป็นกระบวนการที่แน่นอนและน้อย “สร้างสรรค์” มากขึ้น คุณต้องการให้ตัวแทนบอกเมื่อไม่มีข้อมูลที่ถูกต้องและไม่ดำเนินการต่อขั้นตอนถัดไป แต่ไม่สร้างข้อมูลขึ้นมา
- สร้างคู่มือสำหรับตัวแทน – ให้แน่ใจว่ามันไม่สร้างแผนใหม่ทุกครั้ง แต่มีแนวทางที่มีโครงสร้างบางส่วน โครงสร้างและบริบทมีความสำคัญอย่างมากในขั้นตอนการรวบรวมและวิเคราะห์ข้อมูล คุณสามารถปล่อยให้ตัวแทนทำงานได้ “สร้างสรรค์” เมื่อมีข้อมูลและพร้อมที่จะเขียนสรุป แต่ก่อนอื่นให้แน่ใจว่าข้อมูลถูกต้อง
- สร้างเครื่องมือที่มีคุณภาพสูงเพื่อขุดข้อมูล สิ่งนี้ควรเป็นมากกว่าแค่การเรียก API ให้ใช้เวลาในการเขียนโค้ด (คนยังคงทำสิ่งนี้) ที่ทำให้ได้ข้อมูลที่มีคุณภาพและหลากหลายที่จะถูกรวบรวม โดยมีการตรวจสอบคุณภาพในกระบวนการ
- ให้ตัวแทนแสดงงานของมัน ตัวแทนควรอ้างอิงแหล่งที่มาและเชื่อมโยงไปยังที่ผู้ใช้สามารถตรวจสอบข้อมูลได้ จากแหล่งที่มาเดิม และสำรวจเพิ่มเติม ไม่มีการหลอกลวง!
- ราวหลัก: คิดถึงสิ่งที่อาจผิดพลาดและสร้างการป้องกันข้อผิดพลาดที่คุณไม่สามารถยอมรับได้ ในกรณีของเรา สิ่งนี้หมายถึงเมื่อตัวแทนซึ่งได้รับมอบหมายให้วิเคราะห์ตลาดไม่มีข้อมูล – ซึ่งหมายถึงข้อมูล Similarweb ของเรา ไม่ใช่แหล่งข้อมูลสุ่มที่ดึงมาจากเว็บ – การให้แน่ใจว่ามันไม่สร้างข้อมูลขึ้นมาเป็นสิ่งสำคัญ มันจะดีกว่าหากตัวแทนไม่สามารถตอบได้มากกว่าที่จะให้คำตอบที่ผิดหรือทำให้เข้าใจผิด
เรามีหลักการเหล่านี้ในตัวแทนใหม่ 3 ตัวที่เราเพิ่งเปิดตัวไป และจะมีตัวแทนเพิ่มเติมตามมา ตัวอย่างเช่น ตัวแทน AI Meeting Prep สำหรับพนักงานขายไม่เพียงแต่ถามชื่อบริษัทเป้าหมายเท่านั้น แต่ยังขอข้อมูลเกี่ยวกับวัตถุประสงค์ของการประชุมและใครที่อยู่ในการประชุมด้วย ซึ่งเตรียมให้ตัวแทนพร้อมที่จะให้คำตอบที่ดีกว่า มันไม่ต้องเดาเพราะใช้ข้อมูลบริษัท ข้อมูลดิจิทัล และโปรไฟล์ผู้บริหารเพื่อแจ้งคำแนะนำของมัน
ตัวแทนของเราพัฒนาแล้วหรือไม่? ไม่ ไม่มีใครสร้าง AI ที่สมบูรณ์แบบในขณะนี้ ไม่แม้แต่บริษัทที่ใหญ่ที่สุดในโลก แต่การเผชิญหน้ากับปัญหาเป็นสิ่งที่ดีกว่าการเพิกเฉย
ต้องการให้ AI มีอาการหลงลืมน้อยลง? ให้ AI ด้วยข้อมูลที่มีคุณภาพสูง ข้อมูลที่มีคุณภาพสูง
หากมันหลงลืม อาจเป็นไปได้ว่าไม่ใช่ AI ที่ต้องการการแก้ไข แต่อาจเป็นวิธีการของคุณในการใช้ความสามารถใหม่เหล่านี้โดยไม่ใช้เวลาและความพยายามในการทำสิ่งเหล่านี้ให้ถูกต้อง












