เชื่อมต่อกับเรา

ไม่ใช่ว่า AI จะทำอะไรให้เราได้ แต่เกี่ยวกับสิ่งที่เราสามารถทำเพื่อ AI ได้

ผู้นำทางความคิด

ไม่ใช่ว่า AI จะทำอะไรให้เราได้ แต่เกี่ยวกับสิ่งที่เราสามารถทำเพื่อ AI ได้

mm

การตีพิมพ์

 on

คนส่วนใหญ่มองปัญญาประดิษฐ์ (AI) ผ่านเลนส์ทางเดียว เทคโนโลยีมีไว้เพื่อให้บริการมนุษย์และบรรลุระดับใหม่ของประสิทธิภาพ ความแม่นยำ และผลผลิต แต่จะเกิดอะไรขึ้นหากเราพลาดครึ่งหนึ่งของสมการนี้ และจะเกิดอะไรขึ้นหากการทำเช่นนี้ทำให้เรายิ่งขยายข้อบกพร่องของเทคโนโลยี

AI ยังอยู่ในช่วงเริ่มต้นและยังเผชิญกับข้อจำกัดอย่างมากในการใช้เหตุผล คุณภาพของข้อมูล และการทำความเข้าใจแนวคิดต่างๆ เช่น ความน่าเชื่อถือ มูลค่า และแรงจูงใจ ช่องว่างระหว่างความสามารถในปัจจุบันกับ "ปัญญาประดิษฐ์" ที่แท้จริงนั้นมีมาก ข่าวดีก็คือ เราสามารถเปลี่ยนแปลงสิ่งนี้ได้โดยการเป็นผู้ร่วมมือที่กระตือรือร้นแทนที่จะเป็นผู้บริโภค AI แบบเฉยๆ

มนุษย์ถือเป็นกุญแจสำคัญในการวิวัฒนาการอัจฉริยะด้วยการสร้างกรอบการทำงานด้านการใช้เหตุผลที่ดีกว่า ป้อนข้อมูลที่มีคุณภาพ และเชื่อมช่องว่างความไว้วางใจ ผลลัพธ์ที่ได้คือ มนุษย์และเครื่องจักรสามารถทำงานร่วมกันได้เพื่อผลประโยชน์ของทั้งสองฝ่าย โดยความร่วมมือที่ดีขึ้นจะสร้างข้อมูลที่ดีขึ้นและผลลัพธ์ที่ดีขึ้น

ลองพิจารณาว่าความสัมพันธ์แบบพึ่งพาอาศัยกันมากขึ้นจะเป็นอย่างไร และในฐานะพันธมิตร ความร่วมมือที่มีความหมายสามารถให้ประโยชน์กับทั้งสองด้านของสมการ AI ได้อย่างไร

ความสัมพันธ์ที่จำเป็นระหว่างมนุษย์และเครื่องจักร

AI มีความสามารถอย่างไม่ต้องสงสัยในการวิเคราะห์ชุดข้อมูลจำนวนมากและทำงานที่ซับซ้อนโดยอัตโนมัติ อย่างไรก็ตาม เทคโนโลยีนี้ยังคงมีข้อจำกัดพื้นฐานในการคิดเช่นเดียวกับเรา ประการแรก โมเดลและแพลตฟอร์มเหล่านี้มีปัญหาในการใช้เหตุผลนอกเหนือไปจากข้อมูลการฝึก การจดจำรูปแบบและการทำนายทางสถิติไม่ก่อให้เกิดปัญหา แต่การตัดสินตามบริบทและกรอบการทำงานเชิงตรรกะที่เราถือเป็นเรื่องปกตินั้นท้าทายกว่าที่จะทำซ้ำ ช่องว่างในการใช้เหตุผลนี้หมายความว่า AI มักจะล้มเหลวเมื่อต้องเผชิญกับสถานการณ์ที่ละเอียดอ่อนหรือการตัดสินทางจริยธรรม

ประการที่สอง คือ คุณภาพข้อมูลแบบ “ขยะเข้า ขยะออก” โมเดลปัจจุบันได้รับการฝึกฝนจากข้อมูลจำนวนมากที่มีและไม่มีความยินยอม ข้อมูลที่ไม่ได้รับการตรวจยืนยันหรือลำเอียงจะถูกใช้โดยไม่คำนึงถึงการระบุแหล่งที่มาหรือการอนุญาตที่เหมาะสม ส่งผลให้ AI ที่ไม่ผ่านการตรวจสอบหรือลำเอียง. “ข้อมูลอาหาร” ของโมเดลนั้นจึงน่าสงสัยในกรณีที่ดีที่สุดและในกรณีที่แย่ที่สุดก็เป็นเพียงการกระจัดกระจาย การคิดถึงผลกระทบนี้ในแง่ของโภชนาการจึงเป็นประโยชน์ หากมนุษย์กินแต่จั๊งก์ฟู้ดเท่านั้น เราจะทำงานช้าและเฉื่อยชา หากตัวแทนบริโภคเฉพาะลิขสิทธิ์และสื่อมือสอง ประสิทธิภาพการทำงานของพวกเขาก็จะถูกขัดขวางในลักษณะเดียวกันด้วยผลลัพธ์ที่ไม่แม่นยำ ไม่น่าเชื่อถือ และทั่วไปมากกว่าเฉพาะเจาะจง มันยังห่างไกลอยู่ การตัดสินใจเชิงรุกและอัตโนมัติตามที่สัญญาไว้ในตัวแทนรุ่นใหม่

ที่สำคัญ AI ยังคงมองไม่เห็นว่ากำลังโต้ตอบกับใครและกับอะไร ไม่สามารถแยกแยะระหว่างผู้ใช้ที่สอดคล้องและไม่เหมาะสม มีปัญหาในการตรวจสอบความสัมพันธ์ และไม่สามารถเข้าใจแนวคิดต่างๆ เช่น ความไว้วางใจ การแลกเปลี่ยนมูลค่า และแรงจูงใจจากผู้มีส่วนได้ส่วนเสีย ซึ่งเป็นองค์ประกอบหลักที่ควบคุมการโต้ตอบระหว่างมนุษย์

ปัญหา AI กับการแก้ปัญหาของมนุษย์

เราต้องคิดถึงแพลตฟอร์ม AI เครื่องมือ และตัวแทน น้อยกว่าคนรับใช้ และอีกมากมายในฐานะผู้ช่วยที่เราสามารถช่วยฝึกได้ ขั้นแรก มาดูการใช้เหตุผลกันก่อน เราสามารถแนะนำกรอบการทำงานเชิงตรรกะใหม่ แนวทางจริยธรรม และการคิดเชิงกลยุทธ์ที่ระบบ AI ไม่สามารถพัฒนาได้เพียงลำพัง ผ่านการกระตุ้นที่รอบคอบและการดูแลอย่างระมัดระวัง เราสามารถเสริมจุดแข็งทางสถิติของ AI ด้วยภูมิปัญญาของมนุษย์ โดยสอนให้ AI จดจำรูปแบบและเข้าใจบริบทที่ทำให้รูปแบบเหล่านั้นมีความหมาย

ในทำนองเดียวกัน แทนที่จะปล่อยให้ AI ฝึกฝนด้วยข้อมูลใดๆ ก็ตามที่สามารถรวบรวมมาจากอินเทอร์เน็ต มนุษย์สามารถดูแลชุดข้อมูลที่มีคุณภาพสูงขึ้น ซึ่งได้รับการตรวจยืนยัน มีความหลากหลาย และมีแหล่งที่มาที่ถูกต้องตามจริยธรรม

นั่นหมายถึงการพัฒนาระบบการกำหนดคุณลักษณะที่ดีขึ้น โดยที่ผู้สร้างเนื้อหาจะได้รับการยอมรับและได้รับการชดเชยสำหรับการมีส่วนสนับสนุนในการฝึกอบรม

กรอบงานที่เกิดขึ้นใหม่ทำให้สิ่งนี้เป็นไปได้ โดย รวมตัวตนออนไลน์ภายใต้แบนเนอร์เดียว และตัดสินใจว่าจะแบ่งปันข้อมูลใดหรือไม่ และผู้ใช้สามารถให้โมเดลได้รับข้อมูลที่ไม่เปิดเผยต่อบุคคลภายนอกซึ่งเคารพความเป็นส่วนตัว ความยินยอม และกฎระเบียบ ยิ่งไปกว่านั้น การติดตามข้อมูลนี้บนบล็อคเชนช่วยให้ผู้ใช้และผู้สร้างโมเดลสามารถดูว่าข้อมูลมาจากไหน และชดเชยผู้สร้างโมเดลอย่างเหมาะสมสำหรับการให้ข้อมูลนี้น้ำมันใหม่” นี่คือวิธีที่เราแสดงความยอมรับข้อมูลของผู้ใช้และนำพวกเขาเข้าสู่การปฏิวัติข้อมูล

ในที่สุด การเชื่อมช่องว่างความไว้วางใจหมายถึงการติดอาวุธให้กับโมเดลด้วยค่านิยมและทัศนคติของมนุษย์ ซึ่งหมายถึงการออกแบบกลไกที่รับรู้ผู้มีส่วนได้ส่วนเสีย ตรวจสอบความสัมพันธ์ และแยกแยะระหว่างผู้ใช้ที่สอดคล้องและไม่สอดคล้องกัน เป็นผลให้เราช่วยให้ AI เข้าใจบริบทการทำงานของมันได้ ซึ่งก็คือ ใครได้รับประโยชน์จากการกระทำของมัน สิ่งใดที่ส่งผลต่อการพัฒนาของมัน และมูลค่าไหลผ่านระบบที่มันมีส่วนร่วมอย่างไร

ตัวอย่างเช่น ตัวแทนที่ได้รับการสนับสนุนโดยโครงสร้างพื้นฐานบล็อคเชนนั้นค่อนข้างเก่งในเรื่องนี้ พวกเขาสามารถจดจำและจัดลำดับความสำคัญของผู้ใช้ที่แสดงให้เห็นถึงการซื้อในระบบนิเวศผ่านชื่อเสียง อิทธิพลทางสังคม หรือการเป็นเจ้าของโทเค็น สิ่งนี้ทำให้ AI สามารถจัดแนวแรงจูงใจโดยให้ความสำคัญมากขึ้นกับผู้มีส่วนได้ส่วนเสียที่มีส่วนร่วมในเกม สร้างระบบการกำกับดูแลที่ผู้สนับสนุนที่ผ่านการตรวจสอบมีส่วนร่วมในการตัดสินใจโดยอิงตามระดับการมีส่วนร่วมของพวกเขา เป็นผลให้ AI เข้าใจระบบนิเวศของตัวเองได้ลึกซึ้งยิ่งขึ้น และสามารถตัดสินใจโดยอาศัยข้อมูลจากความสัมพันธ์ที่แท้จริงกับผู้มีส่วนได้ส่วนเสีย

อย่าละเลยองค์ประกอบของมนุษย์ใน AI

มีการกล่าวถึงการเติบโตของเทคโนโลยีนี้มากมาย และวิธีที่เทคโนโลยีนี้คุกคามที่จะพลิกโฉมอุตสาหกรรมและทำลายงาน อย่างไรก็ตาม การปิดกั้นข้อมูลจะทำให้มั่นใจได้ว่า AI จะเข้ามาเสริมประสบการณ์ของมนุษย์แทนที่จะเข้ามาแทนที่ ตัวอย่างเช่น การนำ AI มาใช้อย่างประสบความสำเร็จมากที่สุดไม่ได้เข้ามาแทนที่มนุษย์ แต่ขยายขอบเขตสิ่งที่เราสามารถบรรลุร่วมกันได้ เมื่อ AI จัดการการวิเคราะห์ตามปกติ และมนุษย์ให้แนวทางสร้างสรรค์และดูแลตามจริยธรรม ทั้งสองฝ่ายต่างก็มีส่วนสนับสนุนจุดแข็งเฉพาะตัวของตน

เมื่อทำถูกต้อง AI สัญญาว่าจะปรับปรุงคุณภาพและประสิทธิภาพของกระบวนการต่างๆ ของมนุษย์นับไม่ถ้วน แต่เมื่อทำผิด AI จะถูกจำกัดด้วยแหล่งข้อมูลที่น่าสงสัย และเลียนแบบสติปัญญาเท่านั้น แทนที่จะแสดงสติปัญญาที่แท้จริง ขึ้นอยู่กับเราในฐานะมนุษย์ที่จะทำให้โมเดลเหล่านี้ฉลาดขึ้น และให้แน่ใจว่าค่านิยม การตัดสินใจ และจริยธรรมของเรายังคงเป็นหัวใจสำคัญ

ความไว้วางใจเป็นสิ่งที่ไม่สามารถต่อรองได้สำหรับเทคโนโลยีนี้ที่จะเข้าสู่กระแสหลัก เมื่อผู้ใช้สามารถตรวจสอบว่าข้อมูลของตนไปอยู่ที่ใด ดูว่าข้อมูลนั้นถูกนำไปใช้งานอย่างไร และมีส่วนร่วมในมูลค่าที่ข้อมูลสร้างขึ้น พวกเขาก็จะกลายเป็นพันธมิตรที่เต็มใจแทนที่จะเป็นผู้ใต้บังคับบัญชาที่ไม่เต็มใจ ในทำนองเดียวกัน เมื่อระบบ AI สามารถใช้ประโยชน์จากผู้มีส่วนได้ส่วนเสียที่สอดคล้องกันและท่อส่งข้อมูลที่โปร่งใสได้ ระบบก็จะน่าเชื่อถือมากขึ้น ในทางกลับกัน ระบบเหล่านี้ก็มีแนวโน้มที่จะเข้าถึงพื้นที่ส่วนตัวและมืออาชีพที่สำคัญที่สุดของเราได้มากขึ้น ทำให้เกิดวงจรที่นำไปสู่การเข้าถึงข้อมูลที่ดีขึ้นและผลลัพธ์ที่ดีขึ้น

ในการก้าวเข้าสู่ขั้นต่อไปของ AI เราควรเน้นที่การเชื่อมโยงมนุษย์กับเครื่องจักรด้วยความสัมพันธ์ที่ตรวจสอบได้ แหล่งข้อมูลที่มีคุณภาพ และระบบที่แม่นยำ เราไม่ควรตั้งคำถามว่า AI ทำอะไรให้เราได้บ้าง แต่ควรตั้งคำถามว่าเราทำอะไรให้ AI ได้บ้าง

Yukai Tu เป็นหัวหน้าฝ่ายเทคโนโลยีที่ คาร์วีYukai เป็นผู้เชี่ยวชาญด้านการประมวลผลข้อมูลลับและบล็อคเชน และมีปริญญาโทสาขาวิทยาการคอมพิวเตอร์จาก UCLA ที่ CARV ยูไกกำลังช่วยสร้าง โซ่ CARV SVM และ กรอบงานข้อมูลของ CARVโครงสร้างพื้นฐานแบบเอเจนต์ที่ขยายขีดความสามารถของ SVM ไปสู่ ​​Ethereum และส่งเสริมให้เอเจนต์ AI มีข้อมูลคุณภาพสูงทั้งแบบออนเชนและออฟเชน นอกจากนี้ เขายังทำงานเป็นวิศวกรซอฟต์แวร์ที่ Google และ Coinbase ผู้สนับสนุน Cosmos SDK และหัวหน้าฝ่ายวิศวกรรมบล็อคเชนที่ LINO