ต้นขั้ว ข้อมูลเชิงลึกใหม่เกี่ยวกับการขาดความน่าเชื่อถือสำหรับปัญญาประดิษฐ์ - Unite.AI
เชื่อมต่อกับเรา

ปัญญาประดิษฐ์

ข้อมูลเชิงลึกใหม่เกี่ยวกับการขาดความน่าเชื่อถือของปัญญาประดิษฐ์

การตีพิมพ์

 on

การวิจัยล่าสุดกำลังให้ข้อมูลเชิงลึกใหม่เกี่ยวกับสิ่งที่กำหนดระดับความเชื่อมั่นของบุคคลที่มีต่อปัญญาประดิษฐ์ (AI) ทีมงานจากมหาวิทยาลัย Kansas ซึ่งนำโดยนักจิตวิทยาด้านความสัมพันธ์ Omri Gillath ได้ให้รายละเอียดว่าความสัมพันธ์นั้นได้รับผลกระทบจากความสัมพันธ์ในชีวิตจริงหรือรูปแบบความผูกพันของแต่ละคนอย่างไร

ทีมงานประกอบด้วยผู้เชี่ยวชาญจากสาขาต่างๆ เช่น จิตวิทยา วิศวกรรม ธุรกิจ และการแพทย์ 

กระดาษถูกตีพิมพ์ในวารสาร คอมพิวเตอร์ในพฤติกรรมมนุษย์

จากการวิจัยพบว่าผู้คนมีแนวโน้มที่จะไม่ไว้วางใจระบบ AI น้อยลงหากกังวลเกี่ยวกับความสัมพันธ์ในชีวิตจริงกับมนุษย์ เอกสารยังระบุรายละเอียดว่าเป็นไปได้อย่างไรที่ความเชื่อใจในปัญญาประดิษฐ์จะเพิ่มขึ้นโดยการย้ำเตือนบุคคลถึงความสัมพันธ์ที่มั่นคงระหว่างมนุษย์

เทคโนโลยีปัญญาประดิษฐ์ใหม่ ๆ ยังคงมีความไม่ไว้วางใจในระดับสูง แม้ว่าตลาดปัญญาประดิษฐ์ทั่วโลกคาดว่าจะมีมูลค่าสูงถึง 39.9 พันล้านดอลลาร์ในปี 2019 

เพิ่มความไว้วางใจ

ทีมวิจัยไม่เพียงแค่ระบุปัญหาของการขาดความไว้วางใจสำหรับระบบ AI เท่านั้น แต่พวกเขายังหาวิธีเพิ่มความไว้วางใจอีกด้วย การศึกษาเกี่ยวกับความสัมพันธ์ของมนุษย์ได้เสนอแนะบางสิ่งที่แตกต่างกัน

ประการแรก ผู้ที่มีความวิตกกังวลเกี่ยวกับสิ่งที่แนบมานั้นคาดว่าจะมีความเชื่อมั่นในปัญญาประดิษฐ์น้อยลง ประการที่สอง การเพิ่มความวิตกกังวลในสิ่งที่แนบมาทำให้ความไว้วางใจในปัญญาประดิษฐ์ลดลง ประการสุดท้าย ความไว้วางใจในปัญญาประดิษฐ์จะเพิ่มขึ้นเมื่อมีการเพิ่มความปลอดภัยให้กับไฟล์แนบ 

กิลลาธเป็นศาสตราจารย์ด้านจิตวิทยาแห่งมหาวิทยาลัยเกษตรศาสตร์ 

“การวิจัยส่วนใหญ่เกี่ยวกับความไว้วางใจในปัญญาประดิษฐ์มุ่งเน้นไปที่วิธีการรับรู้เพื่อเพิ่มความไว้วางใจ ที่นี่เราใช้แนวทางที่แตกต่างออกไปโดยมุ่งเน้นไปที่เส้นทาง 'ความสัมพันธ์ทางอารมณ์' เพื่อเพิ่มความไว้วางใจ โดยมองว่า AI เป็นหุ้นส่วนหรือสมาชิกในทีมมากกว่าจะเป็นอุปกรณ์” Gillath กล่าว 

“การค้นหาความเชื่อมโยงระหว่างรูปแบบความผูกพัน — ความแตกต่างของแต่ละบุคคลที่แสดงถึงวิธีที่ผู้คนรู้สึก คิด และประพฤติตนในความสัมพันธ์ที่ใกล้ชิด — และความไว้วางใจของเธอใน AI ปูทางไปสู่ความเข้าใจใหม่และการแทรกแซงใหม่ที่อาจก่อให้เกิดความไว้วางใจ”

ด้วยการวิจัยของพวกเขา ทีมงานกำลังนำเสนอวิธีใหม่ในการมองปัญญาประดิษฐ์และความไว้วางใจที่อยู่รอบตัว โดยเฉพาะอย่างยิ่งสิ่งที่ส่งผลต่อความไว้วางใจนั้น อาจมีบทบาทในการลดการนำ AI เข้าสู่ที่ทำงานและสภาพแวดล้อมใหม่ 

"ผลการวิจัยแสดงให้เห็นว่าคุณสามารถทำนายและเพิ่มระดับความไว้วางใจของผู้คนในคนที่ไม่ใช่คนโดยอิงจากความสัมพันธ์ในช่วงแรกของพวกเขากับมนุษย์" กิลลาธกล่าว “สิ่งนี้มีศักยภาพในการปรับปรุงการนำเทคโนโลยีใหม่มาใช้และการรวม AI ในที่ทำงาน” 

ความไม่ไว้วางใจของ AI

ความไม่ไว้วางใจ AI ในหมู่ประชากรไม่ใช่เรื่องใหม่ ในช่วงไม่กี่ปีที่ผ่านมา มีความสงสัยมากมายเกี่ยวกับเทคโนโลยีและการนำไปใช้งาน นี่ไม่ใช่เรื่องที่ไร้เหตุผล เนื่องจากปัญหาต่างๆ ได้พัฒนาขึ้นตลอดหลายปีที่ผ่านมาซึ่งทำให้เกิดความไม่ไว้วางใจนี้ 

เมื่อเร็ว ๆ นี้ นักวิทยาศาสตร์นานาชาติที่มาจากสถาบันชั้นนำของโลกบางแห่ง วิพากษ์วิจารณ์การขาดความโปร่งใสในการวิจัย AI. ย้อนกลับไปในเดือนมิถุนายน 2019 สหรัฐอเมริกาได้เห็น กรณีแรกของการจับกุมโดยมิชอบเนื่องจากอัลกอริธึมที่ไม่ดี. มีตัวอย่างอีกมากมาย เช่น อคติในการมองเห็นคอมพิวเตอร์ และ การใช้ AI โดยรัฐบาล เพื่อการรบและการเฝ้าระวัง 

แม้ว่าตัวอย่างทั้งหมดเหล่านี้อาจดูห่างไกลจากประสบการณ์ส่วนตัวของแต่ละคนที่มีต่อ AI แต่ก็มีบทบาทในการสร้างการรับรู้โดยรวมของเทคโนโลยีอย่างไม่ต้องสงสัย งานวิจัยใหม่ๆ เช่น สิ่งที่เกิดขึ้นจากมหาวิทยาลัยแคนซัสให้ข้อมูลเชิงลึกที่จำเป็นอย่างมากในการแก้ไขปัญหาเหล่านี้ 

 

Alex McFarland เป็นนักข่าวและนักเขียนด้าน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมมือกับสตาร์ทอัพด้าน AI และสิ่งพิมพ์ต่างๆ มากมายทั่วโลก