Connect with us

ไม่ใช่เรื่องของ AI สามารถทำอะไรให้เรา แต่เป็นเรื่องของเราที่สามารถทำอะไรให้ AI

ผู้นำทางความคิด

ไม่ใช่เรื่องของ AI สามารถทำอะไรให้เรา แต่เป็นเรื่องของเราที่สามารถทำอะไรให้ AI

mm

ผู้คนส่วนใหญ่มองว่าปัญญาประดิษฐ์ (AI) ผ่านเลนส์แบบ one-way เทคโนโลยีนี้มีไว้เพื่อใช้บริการมนุษย์และบรรลุระดับความสามารถใหม่ๆ ในด้านประสิทธิภาพ ความแม่นยำ และผลผลิต แต่สมมติว่าเรากำลังพลาดส่วนสำคัญของสมการไป และสมมติว่าการทำเช่นนี้ เรากำลังเพิ่มจุดอ่อนของเทคโนโลยีนี้ขึ้นมา

AI ยังอยู่ในช่วงวัยเด็กและยังเผชิญกับการจำกัดที่สำคัญในด้านการให้เหตุผล คุณภาพของข้อมูล และการทำความเข้าใจแนวคิด เช่น ความไว้วางใจ คุณค่า และแรงจูงใจ ระยะห่างระหว่างความสามารถในปัจจุบันและ “ปัญญา” ที่แท้จริงมีมาก ข่าวดีก็คือ เราสามารถเปลี่ยนแปลงสิ่งนี้ได้โดยการกลายเป็นผู้ร่วมงานที่กระตือรือร้นมากกว่าการเป็นผู้บริโภคที่ไม่มีพลังของ AI

มนุษย์ถือหางจิ้งจอกของการวิวัฒน์ปัญญาโดยการให้โครงสร้างการให้เหตุผลที่ดีขึ้น การให้ข้อมูลที่มีคุณภาพ และการข้ามช่องว่างของความไว้วางใจ ในทางกลับกัน มนุษย์และเครื่องจักรสามารถทำงานร่วมกันเพื่อชัยชนะร่วมกัน โดยการทำงานร่วมกันที่ดีขึ้นจะทำให้เกิดข้อมูลที่ดีขึ้นและผลลัพธ์ที่ดีขึ้น

มาทำความเข้าใจกันว่าความสัมพันธ์ที่สอดคล้องกันมากขึ้นอาจดูเหมือนอย่างไร และวิธีการทำงานร่วมกันที่มีความหมายสามารถสร้างประโยชน์ให้กับทั้งสองฝ่ายของสมการ AI

ความสัมพันธ์ที่จำเป็นระหว่างมนุษย์และเครื่องจักร

AI ไม่ต้องสงสัยเลยว่าดีในการวิเคราะห์ข้อมูลขนาดใหญ่และทำให้การทำงานที่ซับซ้อนเป็นอัตโนมัติ แต่เทคโนโลยีนี้ยังคงถูกจำกัดอย่างมากในการคิดเหมือนมนุษย์ ประการแรก โมเดลและแพลตฟอร์มเหล่านี้ต่อสู้กับการให้เหตุผลที่อยู่นอกข้อมูลการฝึกอบรม การตระหนักแบบแผนและการทำนายทางสถิติไม่ใช่ปัญหา แต่การให้เหตุผลตามบริบทและการให้เหตุผลเชิงตรรกะที่เราคิดว่าเป็นเรื่องปกตินั้นยากที่จะทำซ้ำ การขาดการให้เหตุผลนี้ทำให้ AI ล้มเหลวเมื่อเผชิญกับสถานการณ์ที่ซับซ้อนหรือการให้เหตุผลทางจริยธรรม

ประการสอง มี “ขยะเข้าขยะออก” ในด้านคุณภาพของข้อมูล โมเดลปัจจุบันถูกฝึกอบรมจากข้อมูลจำนวนมากโดยมีหรือไม่มีการอนุญาต ข้อมูลที่ไม่ได้รับการยืนยันหรือข้อมูลที่มีอคติจะถูกใช้โดยไม่คำนึงถึงการอ้างอิงที่เหมาะสมหรือการอนุญาต ซึ่งนำไปสู่ ข้อมูลที่ไม่ได้รับการยืนยันหรือมีอคติของ AI “อาหารข้อมูล” ของโมเดลจึงน่าสงสัยที่สุดและกระจายกระจายที่สุด เมื่อเปรียบเทียบกับเรื่องโภชนาการ ถ้ามนุษย์กินอาหารขยะตลอดเวลา เราจะช้าและซบเซา ถ้าเอเย่นต์กินข้อมูลลิขสิทธิ์และวัสดุสองมือโดยไม่มีการอนุญาต การทำงานของพวกเขาจะถูกขัดขวางด้วยการผลิตที่ไม่ถูกต้อง ไม่น่าเชื่อถือ และทั่วไปมากกว่าที่จะเฉพาะเจาะจง สิ่งนี้ยังคงห่างไกล จากการทำการตัดสินใจอัตโนมัติและกระตือรือร้นที่สัญญาไว้ในคลื่นลูกหน้าของเอเย่นต์

อย่างสำคัญ AI ยังคงไม่เห็นใครและอะไรที่มันโต้ตอบ มันไม่สามารถแยกแยะระหว่างผู้ใช้ที่สอดคล้องกันและไม่สอดคล้องกัน ต่อสู้กับการยืนยันความสัมพันธ์ และล้มเหลวในการทำความเข้าใจแนวคิด เช่น ความไว้วางใจ การแลกเปลี่ยนคุณค่า และแรงจูงใจของผู้มีส่วนได้ส่วนเสีย – องค์ประกอบหลักที่ควบคุมการโต้ตอบของมนุษย์

ปัญหาของ AI ที่มีคำตอบจากมนุษย์

เราต้องคิดถึงแพลตฟอร์ม AI เครื่องมือ และเอเย่นต์ น้อยกว่าผู้รับใช้ และมากกว่าเป็นผู้ช่วยที่เราสามารถช่วยฝึกอบรมได้ ประการแรก มาทำความเข้าใจเรื่องการให้เหตุผลกัน เราสามารถแนะนำโครงสร้างการให้เหตุผลใหม่ๆ แนวทางจริยธรรม และการคิดเชิงกลยุทธ์ที่ระบบ AI ไม่สามารถพัฒนาขึ้นมาได้ด้วยตัวเอง ผ่านการกระตุ้นที่มีเหตุผลและการดูแลอย่างรอบคอบ เราสามารถเสริมสร้างความแข็งแกร่งทางสถิติของ AI ด้วยความฉลาดของมนุษย์ – สอนให้พวกมันรู้จักตระหนักแบบแผนและเข้าใจบริบทที่ทำให้แบบแผนนั้นมีความหมาย

ในทำนองเดียวกัน แทนที่จะปล่อยให้ AI ฝึกอบรมจากข้อมูลใดๆ ที่สามารถเก็บจากอินเทอร์เน็ตได้ มนุษย์สามารถจัดเตรียมชุดข้อมูลที่มีคุณภาพสูงขึ้นซึ่งมีการยืนยัน มีความหลากหลาย และมีการจัดหาที่มีจริยธรรม

สิ่งนี้หมายถึงการพัฒนาระบบการอ้างอิงที่ดีขึ้นซึ่งผู้สร้างเนื้อหาจะได้รับการยอมรับและได้รับค่าตอบแทนสำหรับการมีส่วนร่วมในการฝึกอบรม

โครงสร้างที่เกิดขึ้นใหม่ทำให้สิ่งนี้เป็นไปได้ โดยการ รวมตัวตนออนไลน์ภายใต้ธงเดียว และตัดสินใจว่าพวกเขาสบายใจที่จะแบ่งปันอะไร ผู้ใช้สามารถให้โมเดลข้อมูลที่ไม่มีการแบ่งปันซึ่งเคารพความเป็นส่วนตัว การอนุญาต และข้อบังคับ ดีกว่านั้น โดยการติดตามข้อมูลนี้บนบล็อกเชน ผู้ใช้และผู้สร้างโมเดลสามารถเห็นได้ว่าข้อมูลมาจากไหนและชดเชยผู้สร้างสำหรับการให้ “น้ำมันใหม่” นี้ สิ่งนี้คือวิธีที่เรารับรู้ผู้ใช้สำหรับข้อมูลของตนและนำพวกเขาเข้าสู่การปฏิวัติข้อมูล

สุดท้าย การข้ามช่องว่างของความไว้วางใจหมายถึงการให้โมเดลพร้อมคุณค่าและทัศนคติของมนุษย์ สิ่งนี้หมายถึงการออกแบบกลไกที่ตระหนักผู้มีส่วนได้ส่วนเสีย ยืนยันความสัมพันธ์ และแยกแยะระหว่างผู้ใช้ที่สอดคล้องกันและไม่สอดคล้องกัน ในทางกลับกัน เราช่วยให้ AI เข้าใจบริบทการทำงาน – ใครได้รับประโยชน์จากการกระทำของมัน สิ่งใดที่ช่วยให้พัฒนามัน และวิธีการไหลเวียนของคุณค่าผ่านระบบที่มันเข้าร่วม

ตัวอย่างเช่น เอเย่นต์ที่ได้รับการสนับสนุนจากโครงสร้างพื้นฐานบล็อกเชนเป็นเรื่องที่ดีในการทำเช่นนี้ พวกเขาสามารถตระหนักและจัดลำดับความสำคัญของผู้ใช้ที่มีการมีส่วนร่วมที่พิสูจน์ได้จากชื่อเสียง อิทธิพลทางสังคม หรือการเป็นเจ้าของโทเค็น สิ่งนี้ช่วยให้ AI จัดลำดับความสำคัญของแรงจูงใจโดยการให้น้ำหนักมากขึ้นแก่ผู้มีส่วนได้ส่วนเสียที่มีส่วนร่วมในระบบ ทำให้เกิดระบบการกำกับดูแลที่ผู้สนับสนุนที่ยืนยันตัวตนเข้าร่วมในการตัดสินใจตามระดับการมีส่วนร่วมของพวกเขา ในทางกลับกัน AI เข้าใจระบบนิเวศของมันลึกซึ้งยิ่งขึ้นและสามารถตัดสินใจได้โดยอาศัยความสัมพันธ์ของผู้มีส่วนได้ส่วนเสียที่แท้จริง

อย่าลืมส่วนสำคัญของมนุษย์ใน AI

มีการพูดถึงมากมายเกี่ยวกับการเพิ่มขึ้นของเทคโนโลยีนี้และวิธีที่มันคุกคามที่จะเปลี่ยนแปลงอุตสาหกรรมและลบงานออกไป แต่การสร้างรั้วสามารถรับประกันได้ว่า AI เพิ่มประสิทธิภาพประสบการณ์ของมนุษย์มากกว่าการแทนที่มัน ตัวอย่างเช่น การใช้งาน AI ที่ประสบความสำเร็จมากที่สุดไม่ได้แทนที่มนุษย์ แต่ขยายสิ่งที่เราทำได้ร่วมกัน เมื่อ AI จัดการการวิเคราะห์ตามปกติและมนุษย์ให้คำแนะนำเชิงสร้างสรรค์และการดูแลด้านจริยธรรม ทั้งสองฝ่ายมีส่วนร่วมด้วยความแข็งแกร่งที่ไม่เหมือนใคร

เมื่อทำได้อย่างถูกต้อง AI สัญญาว่าจะปรับปรุงคุณภาพและประสิทธิภาพของกระบวนการของมนุษย์มากมาย แต่เมื่อทำไม่ถูกต้อง มันถูกจำกัดด้วยแหล่งข้อมูลที่น่าสงสัยและเพียงแต่เลียนแบบความฉลาดมากกว่าการแสดงความฉลาดที่แท้จริง มันอยู่ที่เรา ฝ่ายมนุษย์ของสมการ เพื่อทำให้โมเดลเหล่านี้ฉลาดขึ้นและรับประกันว่าค่านิยม การตัดสินใจ และจริยธรรมของเรายังคงอยู่ในใจกลางของมัน

ความไว้วางใจเป็นสิ่งจำเป็นสำหรับเทคโนโลยีนี้ที่จะเข้าสู่กระแสหลัก เมื่อผู้ใช้สามารถตรวจสอบได้ว่าข้อมูลของตนไปที่ไหน เห็นว่ามันถูกใช้อย่างไร และเข้าร่วมในการสร้างคุณค่าที่มันสร้าง พวกเขากลายเป็นหุ้นส่วนที่เต็มใจมากกว่าผู้ที่ไม่เต็มใจ ในทำนองเดียวกัน เมื่อระบบ AI สามารถใช้ผู้มีส่วนได้ส่วนเสียที่สอดคล้องกันและท่อข้อมูลที่โปร่งใส พวกมันกลายเป็นน่าเชื่อถือมากขึ้น และมีแนวโน้มที่จะเข้าถึงพื้นที่ส่วนตัวและวิชาชีพที่สำคัญที่สุดของเรา ทำให้เกิดการหมุนเวียนของการเข้าถึงข้อมูลที่ดีขึ้นและผลลัพธ์ที่ดีขึ้น

ดังนั้น ในการเข้าสู่ระยะต่อไปของ AI มาทำความเข้าใจกันว่าเราสามารถเชื่อมโยงมนุษย์และเครื่องจักรด้วยความสัมพันธ์ที่ตรวจสอบได้ แหล่งข้อมูลที่มีคุณภาพ และระบบที่แม่นยำ เราควรถามไม่ใช่ AI สามารถทำอะไรให้เรา แต่เราสามารถทำอะไรให้ AI

ยูกาย ตู เป็น Chief Technology Officer ที่ CARV ยูกายเป็นนักวิชาการด้านการคำนวณที่มีการรักษาความลับและบล็อกเชน และมีปริญญาโทสาขาวิทยาการคอมพิวเตอร์จาก UCLA ที่ CARV ยูกายช่วยสร้าง CARV SVM Chain และ CARV’s D.A.T.A. Framework ซึ่งเป็นโครงสร้างพื้นฐานที่ขยายความสามารถของ SVM ไปยัง Ethereum และเพิ่มขีดความสามารถให้กับ AI agents ด้วยข้อมูลที่มีคุณภาพสูงบนและนอกเชน เขายัง曾ทำงานเป็นซอฟต์แวร์เอนจิเนียร์ที่ Google และ Coinbase ผู้ร่วมให้ข้อมูลใน Cosmos SDK และผู้นำด้านวิศวกรรมบล็อกเชน tại LINO