ต้นขั้ว ภาวะที่กลืนไม่เข้าคายไม่ออกของความน่าเชื่อถือในยุคของ AI ขั้นสูง - Unite.AI
เชื่อมต่อกับเรา

จริยธรรม

ภาวะที่กลืนไม่เข้าคายไม่ออกของความน่าเชื่อถือในยุคของ AI ขั้นสูง

วันที่อัพเดท on
ภาพ: Jonas Ivarsson และ Oskar Lindwall

การเกิดขึ้นของ AI ที่สมจริงมากขึ้นทำให้เกิดสถานการณ์ที่ซับซ้อน เนื่องจากหน่วยงานดิจิทัลเหล่านี้มีความซับซ้อนมากขึ้น ความสามารถของเราในการไว้วางใจผู้ที่เราโต้ตอบด้วยอาจถูกบุกรุกอย่างมาก ปัญหานี้เป็นศูนย์กลางของการวิจัยล่าสุดที่มหาวิทยาลัยโกเธนเบิร์ก ซึ่งนักวิทยาศาสตร์ได้สำรวจผลกระทบของระบบ AI ขั้นสูงต่อความสัมพันธ์ระหว่างบุคคลและความไว้วางใจของเรา

ในโลกที่สแกมเมอร์สามารถถูกหลอกให้สนทนากับระบบ AI โดยคิดว่าพวกเขากำลังพูดคุยกับมนุษย์จริงๆ เป็นที่ชัดเจนว่าเทคโนโลยีได้พัฒนาไปสู่ระดับความสมจริงที่น่าประทับใจแต่อาจรบกวนจิตใจ ศาสตราจารย์ออสการ์ ลินด์วอลล์ ผู้เชี่ยวชาญด้านการสื่อสารแห่งมหาวิทยาลัยโกเธนเบิร์ก ตั้งข้อสังเกตถึงความเป็นจริงของเรื่องนี้ โดยสังเกตว่าต้องใช้เวลานานแค่ไหนกว่าที่บุคคลจะตระหนักว่าพวกเขากำลังโต้ตอบกับระบบดิจิทัล ไม่ใช่มนุษย์

ผลกระทบของปัญหาความน่าเชื่อถือต่อความสัมพันธ์ระหว่างบุคคล

ปรากฏการณ์นี้ได้รับการวิเคราะห์ในบทความร่วมกันโดยลินด์วอลล์และศาสตราจารย์ด้านสารสนเทศ Jonas Ivarsson ซึ่งมีชื่อว่า “จิตใจที่น่าสงสัย: ปัญหาของความไว้วางใจและตัวแทนการสนทนา”

การศึกษาของพวกเขาชี้ให้เห็นถึงวิธีที่แต่ละบุคคลตีความและตอบสนองต่อสถานการณ์เมื่อพวกเขาสงสัยว่า AI อาจเป็นอีกฝ่ายในการสนทนา นอกจากนี้ยังสำรวจผลเสียที่สงสัยว่าอาจมีต่อความสัมพันธ์ กระตุ้นให้เราไตร่ตรองว่า AI อาจหว่านเมล็ดพันธุ์แห่งความสงสัยในปฏิสัมพันธ์ระหว่างบุคคลของเราโดยไม่ได้ตั้งใจได้อย่างไร

ยกตัวอย่างเช่น ความสัมพันธ์แบบโรแมนติกที่ฝ่ายใดฝ่ายหนึ่งระแวงมากเกินไป นำไปสู่ความหึงหวง และการตามล่าสัญญาณของการหลอกลวงในภายหลัง ความเชื่อใจที่พังทลายนี้สามารถเปลี่ยนเป็นการกัดกร่อนได้อย่างรวดเร็ว และอาจทำให้ความสัมพันธ์คลี่คลายได้ การวิจัยของลินด์วอลล์และไอวาร์สันพบว่าระหว่างการปฏิสัมพันธ์ระหว่างมนุษย์กับมนุษย์ พฤติกรรมบางอย่างถูกตีความผิดว่าเป็นตัวบ่งชี้ว่าผู้เข้าร่วมคนหนึ่งเป็นหุ่นยนต์ สิ่งนี้แสดงให้เห็นถึงความลึกของปัญหาความไว้วางใจเมื่อมันแทรกซึมเข้าไปในปฏิสัมพันธ์ทางสังคมของเรามากขึ้นเรื่อยๆ

ปัญหาเกี่ยวกับ AI ที่เหมือนมนุษย์

ผู้เขียนตั้งคำถามถึงหลักการออกแบบในปัจจุบันที่ชี้นำการพัฒนา AI ซึ่งการผลักดันคุณสมบัติที่เหมือนมนุษย์อย่างไม่หยุดยั้งอาจนำไปสู่ภาวะแทรกซ้อนที่ไม่ได้ตั้งใจ แท้จริงแล้ว แม้ว่า AI ที่เลียนแบบการสื่อสารของมนุษย์อาจดูเหมือนเป็นที่ต้องการ แต่ความกำกวมที่เกิดขึ้นนั้นสามารถสร้างความวิตกกังวลว่าเรากำลังสื่อสารด้วยใครอยู่ ตัวอย่างเช่น Ivarsson แจ้งข้อกังวลเกี่ยวกับ AI ที่มีเสียงเหมือนมนุษย์ โดยสังเกตว่าพวกเขาสามารถสร้างความรู้สึกใกล้ชิดและส่งเสริมการแสดงผลผิดๆ โดยอิงจากการได้ยินเพียงอย่างเดียวได้อย่างไร

งานวิจัยของพวกเขาเกี่ยวกับการโทรหลอกลวงเน้นประเด็นนี้ โดยเน้นว่าความเชื่อเสียงของมนุษย์และข้อสันนิษฐานตามอายุที่รับรู้สามารถยืดอายุการหลอกลวงได้อย่างมีนัยสำคัญอย่างไร เมื่อ AI ใช้คุณลักษณะของมนุษย์มากขึ้น แนวโน้มเชิงอนุมานของเราอาจทำให้วิจารณญาณของเราคลุมเครือ ทำให้เราต้องระบุเพศ อายุ และภูมิหลังทางเศรษฐกิจและสังคมให้กับระบบเหล่านี้ ซึ่งทำให้บดบังความจริงที่ว่าเรากำลังมีปฏิสัมพันธ์กับเครื่องจักร ไม่ใช่มนุษย์

ลินด์วอลล์และไอวาร์สันเสนอว่าเส้นทางข้างหน้าอาจเกี่ยวข้องกับการพัฒนา AI ด้วยเสียงที่สังเคราะห์แต่มีคารมคมคาย วิธีการดังกล่าวจะช่วยให้เกิดความโปร่งใส ลดความสับสนที่อาจเกิดขึ้นโดยไม่ลดทอนคุณภาพการสื่อสาร

อนาคตของการสื่อสารระหว่างมนุษย์กับ AI

ปฏิสัมพันธ์กับผู้อื่นมีหลายแง่มุม ไม่เกี่ยวข้องกับการหลอกลวงที่อาจเกิดขึ้นเท่านั้น แต่ยังรวมถึงองค์ประกอบของการสร้างความสัมพันธ์และการสร้างความหมายร่วมกัน การแนะนำความไม่แน่นอนว่ากำลังสนทนากับมนุษย์หรือเครื่องจักรสามารถส่งผลกระทบอย่างมากต่อประเด็นเหล่านี้ แม้ว่าอาจไม่ใช่ประเด็นสำคัญในบางสถานการณ์ เช่น การบำบัดด้วยความรู้ความเข้าใจและพฤติกรรม แต่การบำบัดรักษาประเภทอื่นๆ ที่ต้องใช้ความสัมพันธ์ระหว่างมนุษย์ในระดับที่มากขึ้นอาจได้รับผลกระทบในทางลบ

การวิจัยของลินด์วอลล์และไอวาร์สัน ซึ่งวิเคราะห์ข้อมูลจาก YouTube ซึ่งมีการสนทนาประเภทต่างๆ และปฏิกิริยาของผู้ชม ได้ช่วยให้กระจ่างถึงพลวัตที่ซับซ้อนเหล่านี้ บทบาทของความไว้วางใจในการโต้ตอบของเรา ภูมิทัศน์ที่เปลี่ยนแปลงไปของการสื่อสารระหว่างมนุษย์กับ AI และนัยยะของ AI ที่เหมือนมนุษย์มากขึ้นเรื่อยๆ ล้วนเป็นแง่มุมที่ซับซ้อนของสาขาที่ก้าวหน้าอย่างรวดเร็วนี้ ซึ่งรับประกันว่าจะต้องมีการสำรวจเพิ่มเติม

การวิจัยนี้เน้นย้ำถึงความจำเป็นในการพิจารณาอย่างรอบคอบในขณะที่เรายังคงพัฒนาและรวม AI เข้ากับชีวิตของเรา การสร้างสมดุลระหว่างฟังก์ชันการทำงาน ความสมจริง และความโปร่งใสจะมีความสำคัญอย่างยิ่งต่อการทำให้แน่ใจว่าเราจะไม่ลดทอนความไว้วางใจ ซึ่งเป็นหนึ่งในแง่มุมพื้นฐานของปฏิสัมพันธ์ทางสังคมของเรา ในขณะที่เราดำเนินการปฏิวัติ AI สิ่งสำคัญคือต้องระลึกถึงความสำคัญของการรักษาสัมผัสของมนุษย์ในการสื่อสารของเรา

Alex McFarland เป็นนักข่าวและนักเขียนด้าน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมมือกับสตาร์ทอัพด้าน AI และสิ่งพิมพ์ต่างๆ มากมายทั่วโลก