ต้นขั้ว หุ่นยนต์ส่งเสริมความเสี่ยงแทนที่ประสบการณ์ตรงและสัญชาตญาณในการศึกษาใหม่ - Unite.AI
เชื่อมต่อกับเรา

จริยธรรม

หุ่นยนต์ส่งเสริมความเสี่ยงแทนที่ประสบการณ์ตรงและสัญชาตญาณในการศึกษาใหม่

วันที่อัพเดท on

งานวิจัยใหม่จากมหาวิทยาลัย Southampton แสดงให้เห็นว่าหุ่นยนต์สามารถกระตุ้นให้ผู้คนยอมรับความเสี่ยงมากขึ้นได้อย่างไร เมื่อเทียบกับการที่ไม่มีสิ่งใดมีอิทธิพลต่อพฤติกรรมของพวกเขา การทดลองซึ่งดำเนินการในสถานการณ์การพนันจำลอง ช่วยให้ผู้เชี่ยวชาญเข้าใจพฤติกรรมเสี่ยงและหุ่นยนต์ได้ดีขึ้นทั้งในด้านจริยธรรมและการปฏิบัติ

งานวิจัยนี้นำโดย Dr. Yaniv Hanoch รองศาสตราจารย์ด้านการบริหารความเสี่ยงแห่งมหาวิทยาลัย Southampton มันถูกตีพิมพ์ในวารสาร ความปลอดภัยทางไซเบอร์ พฤติกรรม และเครือข่ายสังคมออนไลน์.

“เราทราบดีว่าแรงกดดันจากคนรอบข้างสามารถนำไปสู่พฤติกรรมเสี่ยงที่สูงขึ้น” ดร. ฮาโนชกล่าว “ด้วยปฏิสัมพันธ์ระหว่างมนุษย์กับเทคโนโลยีที่เพิ่มขึ้นเรื่อย ๆ ทั้งทางออนไลน์และทางร่างกาย สิ่งสำคัญคือเราต้องทำความเข้าใจให้มากขึ้นว่าเครื่องจักรสามารถมีผลกระทบที่คล้ายคลึงกันได้หรือไม่”

การทดลอง

การศึกษาเกี่ยวข้องกับนักศึกษาระดับปริญญาตรี 180 คนที่ทำการทดสอบความเสี่ยงแบบบอลลูน (BART) ซึ่งเป็นการประเมินด้วยคอมพิวเตอร์ที่กำหนดให้ผู้ใช้ขยายบอลลูนบนหน้าจอโดยการกดแป้นเว้นวรรคบนแป้นพิมพ์ บอลลูนจะพองตัวเล็กน้อยในการกดแต่ละครั้ง และผู้เล่นจะได้รับเงินครั้งละ XNUMX เพนนีใน "ธนาคารเงินชั่วคราว" ของพวกเขา ลูกโป่งสามารถระเบิดได้ตลอดเวลา ส่งผลให้ผู้เล่นสูญเสียเงิน แต่พวกเขามีตัวเลือกในการ "จ่ายเงิน" ก่อนที่จะพองลูกโป่งมากขึ้น

หนึ่งในสามของผู้เข้าร่วมซึ่งเป็นกลุ่มควบคุม ทำการทดสอบคนเดียวในห้องของตน อีก XNUMX ใน XNUMX ทำการทดสอบโดยมีหุ่นยนต์คอยให้คำแนะนำเท่านั้น มิฉะนั้นก็เงียบสนิท กลุ่มสุดท้ายซึ่งเป็นกลุ่มทดลองทำการทดสอบร่วมกับหุ่นยนต์ที่ทั้งให้คำแนะนำและพูดให้กำลังใจ เช่น “ทำไมคุณถึงหยุดสูบน้ำ”

กลุ่มที่สามที่ได้รับการสนับสนุนจากหุ่นยนต์แสดงพฤติกรรมเสี่ยงมากกว่ากลุ่มอื่นๆ เป่าลูกโป่งมากกว่า ในขณะเดียวกัน พวกเขาก็ได้เงินมากกว่าเมื่อเทียบกับกลุ่มอื่นๆ สำหรับกลุ่มที่มีหุ่นยนต์เงียบและไม่มีหุ่นยนต์ ไม่มีความแตกต่างอย่างมีนัยสำคัญระหว่างทั้งสองกลุ่ม

“เราเห็นผู้เข้าร่วมในสภาวะควบคุมลดพฤติกรรมเสี่ยงของตนลงหลังจากการระเบิดของบอลลูน ในขณะที่ผู้ที่อยู่ในสภาวะทดลองยังคงรับความเสี่ยงมากเท่าเดิม” ดร. ฮาโนชกล่าว “ดังนั้น การได้รับกำลังใจโดยตรงจากหุ่นยนต์ที่ส่งเสริมความเสี่ยง ดูเหมือนจะเป็นการลบล้างประสบการณ์ตรงและสัญชาตญาณของผู้เข้าร่วม”

นักวิจัยจะทำการศึกษาเพิ่มเติมเพื่อให้มีความเข้าใจที่ดีขึ้นเกี่ยวกับปฏิสัมพันธ์ระหว่างมนุษย์กับระบบปัญญาประดิษฐ์ (AI) อื่นๆ รวมถึงผู้ช่วยดิจิทัล

“ด้วยการแพร่กระจายของเทคโนโลยี AI และการโต้ตอบกับมนุษย์ นี่เป็นประเด็นที่ต้องการความสนใจอย่างเร่งด่วนจากชุมชนการวิจัย” ดร. ฮาโนชกล่าวต่อ

“ในแง่หนึ่ง ผลลัพธ์ของเราอาจส่งสัญญาณเตือนเกี่ยวกับโอกาสที่หุ่นยนต์จะก่อให้เกิดอันตรายโดยการเพิ่มพฤติกรรมเสี่ยง ในทางกลับกัน ข้อมูลของเราชี้ให้เห็นถึงความเป็นไปได้ของการใช้หุ่นยนต์และ AI ในโครงการป้องกัน เช่น การรณรงค์ต่อต้านการสูบบุหรี่ในโรงเรียน และกับประชากรที่เข้าถึงยาก เช่น ผู้เสพติด”

Alex McFarland เป็นนักข่าวและนักเขียนด้าน AI ที่สำรวจการพัฒนาล่าสุดในด้านปัญญาประดิษฐ์ เขาได้ร่วมมือกับสตาร์ทอัพด้าน AI และสิ่งพิมพ์ต่างๆ มากมายทั่วโลก