ກ້ານໃບ ການສຶກສາຊີ້ໃຫ້ເຫັນວ່າຫຸ່ນຍົນມີຄວາມໂນ້ມອຽງຫຼາຍຂຶ້ນເມື່ອພວກເຂົາເຮັດທ່າເປັນມະນຸດ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຫຸ່ນຍົນ

ການສຶກສາຊີ້ໃຫ້ເຫັນວ່າຫຸ່ນຍົນມີຄວາມໂນ້ມອຽງຫຼາຍຂຶ້ນເມື່ອພວກເຂົາເຮັດທ່າວ່າເປັນມະນຸດ

mm

ຈັດພີມມາ

 on

ຄວາມກ້າວຫນ້າຂອງປັນຍາປະດິດໄດ້ສ້າງ bots ແລະເຄື່ອງຈັກທີ່ມີທ່າແຮງທີ່ສາມາດຜ່ານມະນຸດໄດ້ຖ້າພວກເຂົາພົວພັນກັບຄົນໂດຍສະເພາະຜ່ານສື່ດິຈິຕອນ. ບໍ່ດົນມານີ້, ທີມງານຂອງນັກຄົ້ນຄວ້າວິທະຍາສາດຄອມພິວເຕີໄດ້ສຶກສາວິທີການທີ່ຫຸ່ນຍົນ / ເຄື່ອງຈັກແລະມະນຸດມີປະຕິສໍາພັນໃນເວລາທີ່ມະນຸດເຊື່ອວ່າຫຸ່ນຍົນຍັງເປັນມະນຸດ. ຕາມການລາຍງານຂອງ ScienceDaily, ຜົນໄດ້ຮັບຂອງການສຶກສາພົບວ່າປະຊາຊົນຊອກຫາຫຸ່ນຍົນ / chatbots ຊັກຊວນຫຼາຍເມື່ອພວກເຂົາເຊື່ອວ່າ bots ແມ່ນມະນຸດ.

Talal Rahwan, ຮອງສາດສະດາຈານຂອງວິທະຍາສາດຄອມພິວເຕີຢູ່ NYU Abu Dhabi, ບໍ່ດົນມານີ້ໄດ້ນໍາພາການສຶກສາທີ່ກວດເບິ່ງວ່າຫຸ່ນຍົນແລະມະນຸດມີປະຕິສໍາພັນກັນແນວໃດ. ຜົນໄດ້ຮັບຂອງການທົດລອງໄດ້ຖືກຈັດພີມມາຢູ່ໃນ ປັນຍາລັກເຄື່ອງ ທຳ ມະຊາດ ໃນບົດລາຍງານທີ່ມີຊື່ວ່າ Transparency-Efficiency Tradeoff ໃນການຮ່ວມມືມະນຸດ-ເຄື່ອງຈັກ. ໃນລະຫວ່າງການສຶກສາ, ວິຊາການທົດສອບໄດ້ຖືກແນະນໍາໃຫ້ຫຼິ້ນເກມຮ່ວມມືກັບຄູ່ຮ່ວມງານ, ແລະຄູ່ຮ່ວມງານອາດຈະເປັນມະນຸດຫຼື bot.

ເກມນີ້ແມ່ນເປັນການບິດເບືອນໃນ Dilemma ຂອງນັກໂທດຄລາສສິກ, ບ່ອນທີ່ຜູ້ເຂົ້າຮ່ວມຕ້ອງຕັດສິນໃຈວ່າຈະໃຫ້ການຮ່ວມມືຫຼືທໍລະຍົດຄົນອື່ນໃນທຸກໆຮອບ. ໃນສະຖານະການຂອງນັກໂທດ, ຝ່າຍຫນຶ່ງອາດຈະເລືອກທີ່ຈະ defect ແລະ betray ຄູ່ນອນຂອງເຂົາເຈົ້າເພື່ອບັນລຸຜົນປະໂຫຍດໃນລາຄາກັບຜູ້ນອື່ນໆ, ແລະພຽງແຕ່ໂດຍການຮ່ວມມືທັງສອງຝ່າຍສາມາດຮັບປະກັນຕົນເອງໄດ້ຮັບຜົນປະໂຫຍດ.

ນັກຄົ້ນຄວ້າໄດ້ໝູນໃຊ້ວິຊາທົດສອບຂອງເຂົາເຈົ້າໂດຍການສະໜອງຂໍ້ມູນທີ່ຖືກຕ້ອງ ຫຼືບໍ່ຖືກຕ້ອງກ່ຽວກັບຕົວຕົນຂອງຄູ່ຮ່ວມຂອງເຂົາເຈົ້າ. ຜູ້ເຂົ້າຮ່ວມບາງຄົນໄດ້ຖືກບອກວ່າພວກເຂົາຫຼີ້ນກັບ bot, ເຖິງແມ່ນວ່າຄູ່ຮ່ວມງານຂອງພວກເຂົາແມ່ນມະນຸດ. ຜູ້ເຂົ້າຮ່ວມອື່ນໆແມ່ນຢູ່ໃນສະຖານະການກົງກັນຂ້າມ. ໃນໄລຍະຂອງການທົດລອງ, ທີມງານຄົ້ນຄ້ວາສາມາດກໍານົດປະລິມານຖ້າຫາກວ່າປະຊາຊົນປະຕິບັດຄູ່ຮ່ວມງານທີ່ແຕກຕ່າງກັນໃນເວລາທີ່ເຂົາເຈົ້າໄດ້ຖືກບອກວ່າຄູ່ຮ່ວມງານຂອງເຂົາເຈົ້າເປັນ bots. ນັກຄົ້ນຄວ້າໄດ້ຕິດຕາມລະດັບທີ່ຄວາມລໍາອຽງຕໍ່ bots ມີຢູ່, ແລະທັດສະນະຄະຕິເຫຼົ່ານີ້ມີຜົນກະທົບຕໍ່ການໂຕ້ຕອບກັບ bots ທີ່ກໍານົດຕົວເອງແນວໃດ.

ຜົນໄດ້ຮັບຂອງການທົດລອງໄດ້ສະແດງໃຫ້ເຫັນວ່າ bots ມີປະສິດທິພາບຫຼາຍຂຶ້ນໃນການສ້າງການຮ່ວມມືຈາກຄູ່ຮ່ວມງານຂອງພວກເຂົາໃນເວລາທີ່ມະນຸດເຊື່ອວ່າ bots ຍັງເປັນມະນຸດ. ຢ່າງໃດກໍ່ຕາມ, ເມື່ອມັນຖືກເປີດເຜີຍວ່າ bot ເປັນ bot, ລະດັບການຮ່ວມມືຫຼຸດລົງ. Rahwan ອະທິບາຍວ່າໃນຂະນະທີ່ນັກວິທະຍາສາດແລະນັກຈັນຍາບັນຫຼາຍຄົນຕົກລົງເຫັນດີວ່າ AI ຄວນມີຄວາມໂປ່ງໃສກ່ຽວກັບການຕັດສິນໃຈແນວໃດ, ມັນບໍ່ຄ່ອຍຈະແຈ້ງວ່າພວກເຂົາຄວນຈະມີຄວາມໂປ່ງໃສກ່ຽວກັບລັກສະນະຂອງເຂົາເຈົ້າໃນເວລາທີ່ຕິດຕໍ່ສື່ສານກັບຜູ້ອື່ນ.

ໃນປີກາຍນີ້, Google Duplex ໄດ້ເຮັດການກະແຈກກະຈາຍໃນເວລາທີ່ການສາທິດເວທີສະແດງໃຫ້ເຫັນວ່າມັນສາມາດໂທຫາໂທລະສັບແລະຈອງການນັດຫມາຍໃນນາມຂອງການນໍາໃຊ້ຂອງມັນ, ການສ້າງຄໍາເວົ້າທີ່ຄ້າຍຄືກັບມະນຸດທີ່ສັບສົນຫຼາຍທີ່ຫຼາຍຄົນອາດຈະເຂົ້າໃຈຜິດວ່າມັນເປັນບຸກຄົນທີ່ແທ້ຈິງ. ບໍ່ໄດ້ຖືກບອກວ່າພວກເຂົາເວົ້າກັບ bot. ນັບຕັ້ງແຕ່ການເປີດຕົວຂອງ Google Duplex, ນັກວິທະຍາສາດ AI ແລະຫຸ່ນຍົນຫຼາຍຄົນໄດ້ສະແດງຄວາມກັງວົນຕໍ່ເຕັກໂນໂລຢີ, ເຮັດໃຫ້ Google ເວົ້າວ່າມັນ. ຈະໃຫ້ຕົວແທນລະບຸຕົວຕົນ ເປັນ bot ໃນອະນາຄົດ. ໃນປັດຈຸບັນ, Google Duplex ພຽງແຕ່ຖືກນໍາໃຊ້ ໃນ​ຄວາມ​ສາ​ມາດ​ທີ່​ຈໍາ​ກັດ​ຫຼາຍ​. ມັນຈະໃນໄວໆນີ້ ເບິ່ງການນໍາໃຊ້ໃນນິວຊີແລນ, ແຕ່ວ່າພຽງແຕ່ເພື່ອກວດກາເບິ່ງສໍາລັບຊົ່ວໂມງປະຕິບັດງານຂອງທຸລະກິດ. ຈັນຍາບັນຍັງເປັນຫ່ວງກ່ຽວກັບລະດັບທີ່ເທັກໂນໂລຍີອາດຈະຖືກນຳໃຊ້ໃນທາງທີ່ຜິດ.

Rahawan ໂຕ້ຖຽງ ວ່າການສຶກສາທີ່ຜ່ານມາສະແດງໃຫ້ເຫັນວ່າພວກເຮົາຄວນພິຈາລະນາຄ່າໃຊ້ຈ່າຍທີ່ພວກເຮົາເຕັມໃຈທີ່ຈະຈ່າຍເພື່ອຕອບແທນຄວາມໂປ່ງໃສ:

"ມັນເປັນຈັນຍາບັນທີ່ຈະພັດທະນາລະບົບດັ່ງກ່າວບໍ? ພວກເຮົາຄວນຫ້າມ bots ຈາກການເປັນມະນຸດ, ແລະບັງຄັບໃຫ້ພວກເຂົາມີຄວາມໂປ່ງໃສກ່ຽວກັບວ່າພວກເຂົາເປັນໃຜ? ຖ້າຄໍາຕອບແມ່ນ 'ແມ່ນ', ຫຼັງຈາກນັ້ນ, ການຄົ້ນພົບຂອງພວກເຮົາຊີ້ໃຫ້ເຫັນເຖິງຄວາມຕ້ອງການທີ່ຈະກໍານົດມາດຕະຖານສໍາລັບຄ່າໃຊ້ຈ່າຍປະສິດທິພາບທີ່ພວກເຮົາເຕັມໃຈທີ່ຈະຈ່າຍເພື່ອຕອບແທນຄວາມໂປ່ງໃສດັ່ງກ່າວ.”

Blogger ແລະ programmer ທີ່ມີຄວາມຊ່ຽວຊານໃນ ການຮຽນຮູ້ເຄື່ອງ ແລະ Deep Learning ຫົວຂໍ້. Daniel ຫວັງ​ວ່າ​ຈະ​ຊ່ວຍ​ໃຫ້​ຄົນ​ອື່ນ​ນໍາ​ໃຊ້​ພະ​ລັງ​ງານ​ຂອງ AI ເພື່ອ​ຄວາມ​ດີ​ຂອງ​ສັງ​ຄົມ.