มุมมองของ Anderson
การเปลี่ยนแปลงสู่เศรษฐกิจการยืนยัน

การตรวจสอบงานของ AI อาจกลายเป็นภาคส่วนสำคัญในเศรษฐกิจการเรียนรู้ของเครื่องใหม่ ซึ่งจะต้องขยายขนาดอย่างมาก และไม่สามารถทำอัตโนมัติได้ แต่เมื่อเวลาผ่านไป ‘ผู้เชี่ยวชาญ’ ของมนุษย์มีแนวโน้มที่จะเสื่อมสภาพในด้านคุณภาพ
ความคิดเห็น ภรรยาของฉันเป็นสถาปนิกในหนึ่งในระบบราชการอันซับซ้อนและเข้มงวดที่สุดในยุโรป ส่วนสำคัญของมูลค่าของการศึกษาของเธออยู่ใน การได้รับและบำรุงรักษา สิทธิ์ในการลงนาม – ใบอนุญาตที่มีค่าใช้จ่ายซึ่งต้องต่ออายุรายปี และช่วยให้เธอสามารถ ‘ลงนาม’ ในข้อเสนอที่มีการใช้จ่ายหลายแสนหรือหลายล้านยูโรได้
เธอบอกฉันว่านี่ไม่ใช่ส่วนหนึ่งที่ยากที่สุดของงานเธอ เนื่องจากมันเพียงแต่ทำให้การคำนวณของเธอเองหรือของคนอื่นเป็นทางการเท่านั้น และวัตถุประสงค์นี้งานภายนอกมักไม่ยากที่จะตรวจสอบ
โดยพื้นฐานแล้ว – เช่นเดียวกับการแต่งตั้ง CEO – ที่นี่ (เป็นตรายางจริงๆ) มอบให้ผู้มีส่วนได้ส่วนเสีย ‘ที่นั่ง’ หากสิ่งต่างๆ ผิดพลาด ในการรับประกันความรับผิดชอบ มันทำให้ การประกันภัย และความเชื่อมั่นของนักลงทุนเป็นไปได้ ซึ่งจะไม่สามารถทำได้หากไม่มีการรับรองดังกล่าว
นี่เป็นครั้งที่สองในชีวิตของฉันที่ได้เห็นกระบวนการนี้อย่างชัดเจน 25 ปีที่แล้ว ฉันคบหาสมาคมกับแพทย์ผู้เชี่ยวชาญด้านมะเร็งในระบบราชการอื่นที่มีชื่อเสียงในอิตาลี และได้เห็นถึงขอบเขตที่เธอลงนามโดยผู้เชี่ยวชาญเป็นขั้นตอนสุดท้ายในห่วงโซ่แห่งความไว้วางใจที่ผู้อื่นนอกจากเธอจะต้องมีส่วนร่วมด้วย
ฉันเคยได้ยินจากอดีตคู่หมั้นของฉันในขณะนั้น และภรรยาของฉันเมื่อเร็วๆ นี้ วงการของพวกเขาเต็มไปด้วยคนมีใบอนุญาตที่ขายตรายางและหลีกเลี่ยงการทำงานที่มีประโยชน์หรือสร้างสรรค์มากกว่านี้ เนื่องจากงานดังกล่าวไม่ได้รับผลตอบแทนที่ดี ผู้ปฏิบัติงานที่เห็นแก่ประโยชน์เหล่านี้สามารถเรียกเก็บเงินจำนวนมากได้ เนื่องจากพวกเขาเป็นตัวแทนของทรัพยากรที่หายากและจำเป็น
ตรวจสอบสิ่งนี้
หัวข้อนี้เกิดขึ้นในใจเมื่อฉันพบ เอกสาร ใหม่และกว้างขวางวันนี้ โดยมีชื่อเรื่องว่า เศรษฐศาสตร์ง่ายๆ ของ AGI ในนั้น นักวิจัยสามคนจาก MIT มหาวิทยาลัยวอชิงตันในเซนต์หลุยส์ และ UCLA อธิบายถึงอนาคตที่ใกล้จะเกิดขึ้น ซึ่งแรงผลักดันที่น่ากลัวในการทำงานอัตโนมัติด้วย AI พบว่าต้องมีการตรวจสอบและรับรองในสถานการณ์ที่มีความเสี่ยงสูง – ซึ่งนำไปสู่เศรษฐกิจใหม่ของการยืนยัน การรับรอง และความรับผิดชอบ*
เอกสารนี้ขัดแย้งกับการจินตนาการของสื่อในปัจจุบันเกี่ยวกับภาคธุรกิจที่ถูกทำลาย ซึ่งมีสำนักงานใหญ่ที่มีพนักงานมากถูกย่อให้เล็กลงจนเหลือเพียง ‘ผู้ดูแล’ คนเดียว ซึ่งการตัดสินใจของพวกเขาถูกใช้เป็นข้อมูลฝึกอบรมเพื่อ (หวังว่าจะ) ไล่พนักงาน ‘เนื้อและเลือด’ ส่วนสุดท้ายออกไป
แต่นักวิจัยเชื่อว่าข้อพิจารณาทางปฏิบัติและข้อกำหนดด้านการปฏิบัติตามกฎระเบียบจะดึงดูดความสนใจอย่างมากต่อ ‘ผู้ลงนาม’ ที่เป็นมนุษย์ซึ่งทำให้ฝ่ายกฎหมาย (AI/มนุษย์/AI ที่ช่วยเหลือ) ของบริษัทฯ พึงพอใจ:
‘สำหรับบริษัทต่างๆ ข้อคิดเชิงกลยุทธ์ที่สำคัญคือการตรวจสอบไม่ใช่เพียงฟังก์ชันการปฏิบัติตามกฎระเบียบ แต่เป็นเทคโนโลยีการผลิตหลัก — และเพิ่มขึ้นเรื่อยๆ ซึ่งกำหนดให้เกิดการเปลี่ยนแปลงโครงสร้าง: การลงทุนอย่างมากในการสังเกต การขยายพื้นฐานความจริงที่ถูกตรวจสอบ และการจัดระเบียบใหม่โดยใช้ “โครงสร้างซендวิช” (ความตั้งใจของมนุษย์ → การดำเนินการของเครื่อง → การตรวจสอบและรับรองของมนุษย์)
‘ในเศรษฐกิจที่ผลผลิตดิบถูกทำให้เป็นสินค้า คุณค่าในการแข่งขันจะย้ายไปยังทักษะและข้อมูลที่หายากซึ่งสามารถชี้นำและรับรองระบบได้อย่างน่าเชื่อถือ — สร้างผลกระทบต่อเครือข่ายไม่ใช่ผลผลิตที่แท้จริง แต่ผลลัพธ์ที่เชื่อถือได้’
นักวิจัยคาดการณ์ว่าข้อจำกัดที่สำคัญต่อการเติบโตอาจไม่ใช่ความฉลาด — ซึ่ง AI ได้ ‘แยกออกจากชีววิทยา’ แล้ว — แต่ การตรวจสอบแบนด์วิธ
การเปลี่ยนแปลงคุณค่าไปสู่การยืนยันของมนุษย์
เอกสารอธิบายถึงการเคลื่อนไหวสู่ AGI ว่าเป็นการแยกความแตกต่างที่เพิ่มขึ้นระหว่างต้นทุนการผลิตผลลัพธ์ของเครื่องจักรและต้นทุนการตรวจสอบผลลัพธ์ — ซึ่งหลังยังคงผูกกับเวลาของมนุษย์และประสบการณ์ที่มีชีวิต
การสร้างแผน การรายงาน การออกแบบ และคำแนะนำจะกลายเป็นสิ่งที่ถูกและมากมาย ในสถานการณ์นี้ ในขณะที่การกำหนดว่าสิ่งเหล่านั้นเป็นไปตามหลักการ มีความสอดคล้อง และปลอดภัยพอที่จะดำเนินการจะกลายเป็น ‘ฟังก์ชันที่หายาก’ ขีดจำกัดที่มีประสิทธิภาพในการใช้งานจะไม่ใช่ว่าระบบสามารถผลิตผลลัพธ์ได้มากเพียงใด แต่เป็นว่าผลลัพธ์เหล่านั้นสามารถ ตรวจสอบได้อย่างน่าเชื่อถือ เพียงใด
ดังนั้น แทนที่จะให้รางวัลทักษะที่มีเอกลักษณ์เฉพาะในงานที่วัดผลได้ ระบบจะ เริ่มให้รางวัลการวัดผล : งานที่สามารถกำหนดพารามิเตอร์ได้จะเคลื่อนไปสู่การทำให้เป็นสินค้า เนื่องจากต้นทุนการดำเนินการจะเข้าใกล้ต้นทุนการคำนวณขั้นต่ำ โดยมีคุณค่าเพิ่มขึ้นในความจริงที่ถูกตรวจสอบ คุณภาพการตรวจสอบ และกลไกทางสถาบันที่มอบหมายและรับภาระความรับผิดชอบ
ดังนั้น ในเศรษฐกิจการยืนยัน คุณค่าจะอยู่น้อยกว่าในการผลิตเนื้อหา และมากกว่าในการรับรองผลลัพธ์ และการรับประกันความเสี่ยงที่เกี่ยวข้อง
หากการทำงานอัตโนมัติยังคงเร่งความเร็วขึ้น ในขณะที่การตรวจสอบยังคงถูกจำกัดโดยเวลาและความสนใจของมนุษย์ เอกสารคาดการณ์ว่า เศรษฐกิจที่กลวง จะเกิดขึ้น โดยที่เมื่อต้นทุนการทำงานอัตโนมัติลดลง ตัวแทนจะถูกใช้งานมากขึ้น เนื่องจากมันสมเหตุสมผลทางเศรษฐกิจ — แม้ว่าความสามารถในการตรวจสอบผลลัพธ์ของพวกมันจะไม่เติบโตด้วยความเร็วเท่ากัน ในสถานการณ์นั้น ส่วนแบ่งงานที่ได้รับการตรวจสอบอย่างแท้จริงจะลดลง โดยมีผลเสียตามมา
ในทางกลับกัน เศรษฐกิจที่เพิ่มขึ้น จะทำให้ความสามารถในการตรวจสอบขยายตัวพร้อมกับการทำงานอัตโนมัติ ซึ่งจะเกี่ยวข้องกับการลงทุนอย่างตั้งใจในการฝึกอบรมแบบมีโครงสร้างเพื่อรักษาความเชี่ยวชาญ และกรอบความรับผิดชอบใหม่ที่สามารถดูดซับความเสี่ยงได้ การใช้งานจะผูกกับสิ่งที่สามารถตรวจสอบและประกันภัยได้จริงๆ — โดยพื้นฐานแล้วเป็นข้อจำกัดเก่าแก่ที่ถูกนำมาใช้โดยการเปลี่ยนแปลงทางเทคโนโลยีที่ไม่เคยเกิดขึ้นมาก่อน:
‘ในภาคเทคโนโลยี โมเดลรายได้หลักจะเปลี่ยนจากการทำเงินจากซอฟต์แวร์ (Software-as-a-Service) ไปเป็นการทำเงินจากผลลัพธ์ (“Software-as-Labor”) ดังนั้น บริษัทต่างๆ จะถูกประเมินหลักๆ ตามความสามารถในการดูดซับความเสี่ยงด้านหาง (tail risk) ผ่าน Liability-as-a-Service.
‘การดำเนินการสามารถขยายขนาดได้อย่างไม่มีขอบเขต; ความสามารถทางกฎหมายและทางการเงินในการดูดซับความล้มเหลวที่ไม่避免ได้จะเป็นข้อจำกัดใหม่’
ผลตอบแทนที่ลดลง
แท้จริงแล้ว การรักษาความเชี่ยวชาญในด้านของมนุษย์เป็นสิ่งสำคัญต่อปัญหา เนื่องจากวัฒนธรรมการตรวจสอบทางอุตสาหกรรมอาจเสี่ยงต่อการเสื่อมสภาพคุณภาพของผู้ที่ ดำเนินการ การตรวจสอบ — เนื่องจากผู้ดูแลรุ่นต่อๆ ไปจะไม่มีประสบการณ์โดยตรงและเป็นประสบการณ์ที่มีชีวิตในด้านที่ต้องการการตรวจสอบ
น่าโต้แย้งว่า เมื่อถึงขั้นนั้น คุณภาพของการตรวจสอบจะจริงๆ เสี่ยงต่อการทำให้เป็นอัตโนมัติ เนื่องจากการตัดสินใจใหม่จะเกิดขึ้นเพียงจากการตัดสินใจก่อนหน้าเท่านั้น อย่างไรก็ตาม สิ่งนี้จะทำให้ผู้มีส่วนได้ส่วนเสีย ไม่มี ‘ที่นั่ง’ ที่จะเตะ หรือแบบจำลองธุรกิจที่ใช้ได้ นอกจากนี้ยังทำให้บทบาทดังกล่าวอันตรายและเสี่ยงต่อความผิดพลาดจนไม่น่าดึงดูดใจ แม้ในช่วงเวลาที่มีการจ้างงานต่ำ
การแยกผู้เชี่ยวชาญที่มีใบอนุญาต เช่น แพทย์และสถาปนิก เข้าสู่ตำแหน่ง ‘การลงนาม’ ที่มีรายได้ดีแต่มีภาระหนักมาก มีแนวโน้มที่จะกัดกร่อนคุณค่าของพวกเขาในบทบาทดังกล่าวเมื่อเวลาผ่านไป: ยิ่งประสบการณ์จริงในสนามของพวกเขาอยู่ในอดีตมากขึ้น ความตัดสินใจของพวกเขาอาจกลายเป็น ‘ทฤษฎี’ มากขึ้น เนื่องจากสาขาที่ถูกทิ้งร้างของพวกเขายังคงพัฒนาไปในความไม่มีใครดูแล
(สิ่งนี้คุ้นเคยแม้กระทั่งในวัฒนธรรมธุรกิจก่อนยุค AI ในรูปแบบของพนักงานที่มีทักษะซึ่งเลื่อนขั้นเป็นผู้จัดการและไม่เชื่อมโยงกับการพัฒนาที่เป็นนวัตกรรมใหม่ๆ จนกระทั่งพวกเขาทำลายคุณค่าของตนเองในฐานะผู้ดูแลและจัดระเบียบ)
การดำเนินการระดับเริ่มต้นได้ทำหน้าที่เป็นพื้นฐานการฝึกอบรมสำหรับผู้เชี่ยวชาญในอนาคต แต่หากการทำงานอัตโนมัติขจัดงานประจำที่ผ่านมาทำให้การตัดสินใจไม่ดี อุปทานของผู้ตรวจสอบที่มีความสามารถจะลดลง นักวิจัยเสนอว่า
ดังนั้น เอกสารจึงทำนายความขัดแย้ง: ยิ่งระบบอัติคารมีพลังมากขึ้น สังคมก็จะพึ่งพาทรัพยากรความเชี่ยวชาญของมนุษย์ ที่ระบบเหล่านั้นอาจกัดกร่อน มากขึ้น
และให้เรารำลึกไว้ว่านี่ไม่ใช่ ปัญหาทางเทคนิค หรือสามารถแก้ไขได้ด้วยวิธีทางเทคนิค ในหลายวิธี สิ่งนี้ชี้ให้เห็นถึงสภาพที่เทียบเท่ากับการ การล่มสลายของโมเดล AI — ยกเว้นว่าในกรณีนี้ เรากำลังพิจารณาการทำลาย แบบจำลองทางเศรษฐกิจ
‘จากมุมมองนโยบาย ปัญหาหลักคือความไม่สมดุลโครงสร้างที่ลึกซึ้ง: ผลประโยชน์ของการนำ AI ไปใช้ถูกแยกออกเป็นส่วนตัวอย่างรุนแรง ในขณะที่ความเสี่ยงที่เป็นระบบถูกทำให้กลายเป็นสาธารณะ บริษัทและบุคคลจับผลประโยชน์ของการทำงานอัตโนมัติ ในขณะที่ภาระความเสี่ยงที่อาจเกิดขึ้นอย่างรุนแรงให้กับสาธารณะ
‘หากไม่มีโครงสร้างพื้นฐานในการตรวจสอบร่วมกันและการกำหนดราคาความรับผิดชอบอย่างเข้มงวด ตลาดจะเคลื่อนตัวสู่ เศรษฐกิจที่กลวง — จุดสมดุลที่มีกิจกรรมที่วัดได้เพิ่มขึ้น แต่ในขณะเดียวกันก็ขาดการควบคุมของมนุษย์อย่างแท้จริง’
สรุป: วิกฤตที่แตกต่าง
นักวิจัยกำหนดวิกฤตที่คาดการณ์ไว้ว่าเป็น ช่องว่างการวัดผล โดยที่กระบวนการที่สามารถวัดผลได้สามารถทำให้เป็นอัตโนมัติออกจากส่วนร่วมของมนุษย์ทั้งหมด โดยทิ้งกระบวนการที่ยังคงต้องการความเชี่ยวชาญของมนุษย์ไว้
อย่างไรก็ตาม ประสบการณ์ของภรรยาของฉันชี้ให้เห็นว่าความซับซ้อนหรือความยากของกระบวนการไม่จำเป็นต้องเกี่ยวข้องกับความต้องการความรับผิดชอบในกระบวนการนั้น สิ่งเหล่านั้นหลายอย่างที่เธอ ‘ลงนาม’ แทนปัญหาหรือการคำนวณที่ไม่สำคัญในตัวเอง แต่มีผลกระทบต่อการละเมิด และยิ่งวัฒนธรรมธุรกิจที่มีการฟ้องร้องมากขึ้น ผู้รับประกันและนักลงทุนจะต้องการความรับผิดชอบของมนุษย์ข้ามกระบวนการหลายอย่าง
ดังนั้น การเปลี่ยนแปลงสู่เศรษฐกิจการยืนยันอาจทำให้เกิดวิกฤตที่แตกต่างจากที่กำลังได้รับความสนใจอยู่ในปัจจุบัน ปัญหาในกรณีนี้จะไม่ใช่ว่า AI สามารถผลิตได้มากเพียงใด แต่ว่าสถาบันสามารถตรวจสอบผลผลิตที่ผลิตได้เพียงพอที่จะเปลี่ยนความฉลาดของเครื่องจักรให้เป็นมูลค่าที่ยั่งยืนหรือไม่
เนื่องจากความฉลาดของเครื่องจักรอาจขยายตัวโดยไม่มีprecedent และความพร้อมของ เวลาและประสบการณ์ของมนุษย์ที่เกี่ยวข้อง ไม่สามารถตามทันความเร็วได้ ปัญหาที่กล่าวถึงในงานใหม่ดูเหมือนจะเกิดขึ้นอย่างรวดเร็ว — แม้ว่าอาจถูกบดบังด้วยผลกระทบทางเศรษฐกิจที่กว้างขึ้นของการนำ AI ไปใช้
* เอกสารนี้ยาวเกินกว่าที่จะแบ่งออกเป็นรูปแบบปกติ และไม่เหมาะสมกับการวิเคราะห์ประเภทนั้น ดังนั้นฉันจึงตัดสินใจวิจารณ์เกี่ยวกับมันและพิจารณาความสำคัญของมันแทน และอ้างอิงผู้อ่านไปยังงานต้นฉบับเพื่อให้พวกเขาทำเช่นเดียวกัน
† /s
เผยแพร่ครั้งแรกวันพุธที่ 25 กุมภาพันธ์ 2026












