ກ້ານໃບ ກົດໝາຍຫຸ່ນຍົນສາມຢ່າງຂອງ Asimov ມີຜົນກະທົບແນວໃດຕໍ່ AI - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຜູ້ ນຳ ທີ່ຄິດ

ກົດໝາຍຫຸ່ນຍົນສາມຢ່າງຂອງ Asimov ມີຜົນກະທົບແນວໃດຕໍ່ AI

mm
ການປັບປຸງ on

ສາມກົດ ໝາຍ ຂອງຫຸ່ນຍົນແມ່ນສັນຍາລັກໃນໂລກ fiction ວິທະຍາສາດ, ແລະໄດ້ກາຍເປັນສັນຍາລັກພາຍໃນຊຸມຊົນ AI ແລະຫຸ່ນຍົນທີ່ມີຄວາມຫຍຸ້ງຍາກໃນການອອກແບບລະບົບທີ່ເຫມາະສົມທີ່ໂງ່ຈ້າ.

ເພື່ອເຂົ້າໃຈຄວາມສຳຄັນຂອງກົດໝາຍທັງສາມຢ່າງນີ້ຢ່າງຄົບຖ້ວນ, ກ່ອນອື່ນໝົດພວກເຮົາຕ້ອງຮຽນຮູ້ກ່ຽວກັບຈິດໃຈທີ່ສະຫຼາດສ່ອງໃສທີ່ຄິດເຖິງກົດໝາຍເຫຼົ່ານີ້ຂອງນັກຂຽນນິຍາຍວິທະຍາສາດທີ່ລ່າສຸດ Isaac Asimov. ຫຼັງຈາກນັ້ນ, ພວກເຮົາຕ້ອງເຂົ້າໃຈວິທີການປັບກົດຫມາຍເຫຼົ່ານີ້ແລະໃຫ້ພວກເຂົາພັດທະນາເພື່ອປົກປ້ອງມະນຸດ.

Isaac Asimov - ການເພີ່ມຂຶ້ນຂອງ Genius ໄດ້

Isaac Asimov ເກີດຢູ່ໃນລັດເຊຍ ວັນ​ທີ 2 ມັງກອນ​ປີ 1920, ​ແລະ​ໄດ້​ເຂົ້າ​ເມືອງ​ຢູ່​ສະຫະລັດ​ອາ​ເມ​ລິ​ກາ​ເມື່ອ​ອາຍຸ​ໄດ້ 1939 ປີ. ລາວເຕີບໃຫຍ່ຢູ່ບຣຸກລິນ, ນິວຢອກ, ແລະຈົບການສຶກສາຈາກມະຫາວິທະຍາໄລໂຄລໍາເບຍໃນປີ XNUMX.  ລາວໄດ້ຮັບການຍອມຮັບວ່າເປັນນັກຂຽນທີ່ມີພອນສະຫວັນ ແລະ ເກັ່ງກ້າທີ່ສຸມໃສ່ວິທະຍາສາດ ແລະ ນິຍາຍວິທະຍາສາດ. ໃນໄລຍະການເຮັດວຽກຂອງລາວ, ລາວຂຽນແລະ / ຫຼືດັດແກ້ຫຼາຍກວ່າ 500 ປື້ມ.

Asimov ໄດ້ຮັບການດົນໃຈຢ່າງຫຼວງຫຼາຍໂດຍນັກຂຽນທີ່ມີຊື່ສຽງທີ່ສຸດໃນໂລກ fiction ວິທະຍາສາດ. ລາວໄດ້ເລີ່ມຕົ້ນການຈ້າງງານຂອງລາວຢູ່ທີ່ເດີ່ນກອງທັບເຮືອ Philadelphia ບ່ອນທີ່ລາວໄດ້ພົບກັບເພື່ອນຮ່ວມງານຂອງລາວສອງຄົນ, ຜູ້ທີ່ຈະກາຍເປັນສອງຄົນໃນໄວໆນີ້ຖ້ານັກຂຽນນິຍາຍວິທະຍາສາດທີ່ປະສົບຜົນສໍາເລັດຫຼາຍທີ່ສຸດໃນປະຫວັດສາດ fiction: L. Sprague de Camp ແລະ Robert A. Heinlein.

L. Sprague de Camp ເປັນນັກຂຽນທີ່ໄດ້ຮັບຮາງວັນທີ່ຂຽນຫຼາຍກວ່າ 100 ປຶ້ມ ແລະເປັນຕົວລະຄອນສຳຄັນໃນນິຍາຍວິທະຍາສາດໃນຊຸມປີ 1930 ແລະ 1940. ບາງຜົນງານທີ່ນິຍົມກັນຂອງລາວລວມມີ “Darkness Fall” (1939), “The Wheels of If” (1940), “A Gun for Dinosaur” (1956), “Aristotle and the Gun” (1958), ແລະ “The Glory That. ແມ່ນ” (1960).

Robert A. Heinlein ແມ່ນຂ້ອນຂ້າງອາດຈະເປັນນັກຂຽນ fiction ວິທະຍາສາດທີ່ນິຍົມທີ່ສຸດໃນໂລກໃນລະຫວ່າງຄວາມສູງຂອງການເຮັດວຽກຂອງລາວ. ພ້ອມກັບ Isaac Asimov, ແລະ Arthur C. ຄລາກຄາວ ລາວໄດ້ຖືກພິຈາລະນາເປັນ "ສາມໃຫຍ່" ຂອງຜູ້ຂຽນ fiction ວິທະຍາສາດ. ບາງຜົນງານຍອດນິຍົມຂອງ Robert A. Heinlein ລວມເຖິງ "Farnham's Freehold" (1964) ແລະ "To Sail Beyond the Sunset” (1987). ຄົນຮຸ່ນປັດຈຸບັນອາດຈະຮູ້ຈັກລາວດີທີ່ສຸດສໍາລັບການປັບຕົວຮູບເງົາຂອງນະວະນິຍາຍຂອງລາວ "Starship Troopers" (1959).

ການຖືກອ້ອມຮອບໄປດ້ວຍຍັກໃຫຍ່ແຫ່ງອະນາຄົດເຫຼົ່ານີ້ໄດ້ດົນໃຈ Issac Asimov ໃຫ້ເປີດອາຊີບການຂຽນທີ່ອຸດົມສົມບູນຂອງລາວ. Asimov ຍັງໄດ້ຮັບການເຄົາລົບນັບຖືສູງໃນຊຸມຊົນວິທະຍາສາດແລະຖືກຈອງເລື້ອຍໆເປັນນັກເວົ້າສາທາລະນະເພື່ອເວົ້າກ່ຽວກັບວິທະຍາສາດ.

ສາມກົດຫມາຍຂອງຫຸ່ນຍົນ

Issac Asimov ແມ່ນຄົນທໍາອິດທີ່ໃຊ້ຄໍາວ່າ "ຫຸ່ນຍົນ" ໃນເລື່ອງສັ້ນທີ່ມີຊື່ວ່າ 'Liar!' ເຊິ່ງ​ໄດ້​ຖືກ​ຈັດ​ພີມ​ມາ​ໃນ​ປີ 1941​.

ຫຼັງຈາກນັ້ນບໍ່ດົນ, ເລື່ອງສັ້ນ 1942 ຂອງລາວ "Runaround" ໄດ້ນໍາສະເຫນີໂລກກ່ຽວກັບສາມກົດຫມາຍຂອງຫຸ່ນຍົນຂອງລາວ. ກົດໝາຍແມ່ນ:

1. ຫຸ່ນຍົນອາດບໍ່ເຮັດໃຫ້ມະນຸດບາດເຈັບ ຫຼືໂດຍການບໍ່ເຄື່ອນໄຫວເຮັດໃຫ້ມະນຸດເກີດອັນຕະລາຍໄດ້.

2. ຫຸ່ນຍົນຕ້ອງເຊື່ອຟັງຄຳສັ່ງທີ່ມະນຸດມອບໃຫ້ ຍົກເວັ້ນບ່ອນທີ່ຄຳສັ່ງດັ່ງກ່າວຈະຂັດກັບກົດໝາຍທຳອິດ.

3. ຫຸ່ນຍົນຕ້ອງປົກປ້ອງຄວາມເປັນຢູ່ຂອງຕົນເອງ ຕາບໃດທີ່ການປົກປ້ອງດັ່ງກ່າວບໍ່ຂັດກັບກົດໝາຍທີໜຶ່ງ ຫຼື ກົດໝາຍທີສອງ.

ກົດໝາຍເຫຼົ່ານີ້ໄດ້ຖືກອອກແບບມາເພື່ອສະເໜີຈຸດທີ່ໜ້າສົນໃຈ, ແລະ Asimov ໄດ້ສືບຕໍ່ສ້າງບົດເລື່ອງສັ້ນ 37 ເລື່ອງວິທະຍາສາດ ແລະ ນິຍາຍ XNUMX ເລື່ອງທີ່ມີລັກສະນະຫຸ່ນຍົນ positronic.

ຫນຶ່ງໃນຄໍເລັກຊັນເລື່ອງສັ້ນເຫຼົ່ານີ້ທີ່ມີຊື່ວ່າ "I, Robot" ຕໍ່ມາໄດ້ຖືກດັດແປງສໍາລັບຮູບເງົາໃນປີ 2004. ຮູບເງົາ "I,Robot" ທີ່ສະແດງໂດຍ Will Smith ໄດ້ຖືກວາງໄວ້ໃນ dystopian 2035, ແລະມີຫຸ່ນຍົນຮັບໃຊ້ສາທາລະນະທີ່ສະຫຼາດສູງທີ່ດໍາເນີນການພາຍໃຕ້ສາມກົດຫມາຍ. ຂອງຫຸ່ນຍົນ. ຮູບເງົາທີ່ຄ້າຍຄືກັບເລື່ອງຕ່າງໆຢ່າງໄວວາໄດ້ກາຍເປັນຄໍາອຸປະມາຂອງວິທີທີ່ການຂຽນໂປຼແກຼມອາດຈະຜິດພາດ, ແລະວ່າການຂຽນໂປລແກລມ AI ຂັ້ນສູງໃດໆກ່ຽວຂ້ອງກັບຄວາມສ່ຽງສູງ.

ດຽວນີ້ໂລກໄດ້ຈັບຕົວກັບສິ່ງທີ່ເປັນນິຍາຍວິທະຍາສາດໃນເມື່ອກ່ອນ, ພວກເຮົາ ກຳ ລັງອອກແບບ AI ໃນບາງທາງທີ່ກ້າວ ໜ້າ ຫຼາຍກວ່າສິ່ງທີ່ Issac Asimov ສາມາດຈິນຕະນາການໄດ້, ໃນຂະນະທີ່ໃນເວລາດຽວກັນມີຂໍ້ ຈຳ ກັດຫຼາຍ.

ສາມກົດຫມາຍຂອງຫຸ່ນຍົນແມ່ນອ້າງອີງເລື້ອຍໆໃນການສົນທະນາຂອງ Artificial General Intelligence (AGI). ພວກເຮົາຈະຄົ້ນຫາຢ່າງໄວວາວ່າ AGI ແມ່ນຫຍັງ, ເຊັ່ນດຽວກັນກັບສາມກົດຫມາຍຂອງຫຸ່ນຍົນຕ້ອງພັດທະນາແນວໃດເພື່ອຫຼີກເວັ້ນບັນຫາທີ່ອາດຈະເກີດຂື້ນໃນອະນາຄົດ.

ປັນຍາປະດິດທຽມທົ່ວໄປ (AGI)

ໃນປັດຈຸບັນປະເພດ AI ສ່ວນໃຫຍ່ທີ່ພວກເຮົາພົບໃນແຕ່ລະມື້ແມ່ນເປັນ "AI ແຄບ". ນີ້ແມ່ນປະເພດຂອງ AI ທີ່ມີຄວາມສະເພາະຫຼາຍແລະແຄບໃນຫນ້າທີ່ມີປະໂຫຍດຂອງມັນ. ສໍາລັບຕົວຢ່າງ, ຍານພາຫະນະອັດຕະໂນມັດສາມາດນໍາທາງຖະຫນົນ, ແຕ່ເນື່ອງຈາກຂໍ້ຈໍາກັດ "ແຄບ" ຂອງມັນ, AI ບໍ່ສາມາດເຮັດສໍາເລັດວຽກງານອື່ນໆໄດ້ຢ່າງງ່າຍດາຍ. ຕົວຢ່າງອື່ນຂອງ AI ແຄບຈະເປັນລະບົບການຮັບຮູ້ຮູບພາບທີ່ສາມາດກໍານົດໄດ້ງ່າຍແລະຕິດປ້າຍຊື່ຮູບພາບໃນຖານຂໍ້ມູນ, ແຕ່ບໍ່ສາມາດດັດແປງໄດ້ຢ່າງງ່າຍດາຍກັບວຽກງານອື່ນ.

Artificial General Intelligence ເຊິ່ງໂດຍທົ່ວໄປເອີ້ນວ່າ "AGI", ແມ່ນ AI ທີ່ຄ້າຍຄືກັບມະນຸດສາມາດຮຽນຮູ້, ປັບຕົວ, ໝູນວຽນ, ແລະເຮັດວຽກໄດ້ໄວໃນໂລກຈິງ. ມັນເປັນປະເພດປັນຍາທີ່ບໍ່ແຄບ, ສາມາດປັບຕົວເຂົ້າກັບສະຖານະການໃດກໍ່ຕາມແລະຮຽນຮູ້ວິທີການຈັດການກັບບັນຫາຕົວຈິງ.

ມັນຄວນຈະບອກວ່າໃນຂະນະທີ່ AI ກໍາລັງກ້າວຫນ້າໃນຈັງຫວະທີ່ເພີ່ມຂຶ້ນ, ພວກເຮົາຍັງບໍ່ທັນບັນລຸ AGI. ໃນເວລາທີ່ພວກເຮົາຈະບັນລຸ AGI ແມ່ນຂຶ້ນສໍາລັບການໂຕ້ວາທີ, ແລະທຸກຄົນມີຄໍາຕອບທີ່ແຕກຕ່າງກັນກ່ຽວກັບໄລຍະເວລາ. ຂ້າພະເຈົ້າສ່ວນບຸກຄົນຈອງທັດສະນະຂອງ Ray Kurzweil, inventor, futurist, ແລະຜູ້ຂຽນຂອງ 'The Singularity is Near” ຜູ້ທີ່ເຊື່ອວ່າພວກເຮົາຈະມີ. ບັນລຸ AGI ໃນປີ 2029.

ມັນແມ່ນເວລາ 2029 ນີ້ແມ່ນໂມງທີ່ຕີ, ພວກເຮົາຕ້ອງຮຽນຮູ້ການຍາກລະຫັດປະເພດຂອງປື້ມກົດລະບຽບເຂົ້າໄປໃນ AI, ບໍ່ພຽງແຕ່ຄ້າຍຄືກັນກັບສາມກົດຫມາຍເທົ່ານັ້ນ, ແຕ່ມັນມີຄວາມກ້າວຫນ້າກວ່າ, ແລະສາມາດຫຼີກເວັ້ນຈາກຄວາມເປັນຈິງ. ຂໍ້ຂັດແຍ່ງລະຫວ່າງມະນຸດກັບຫຸ່ນຍົນ.

ກົດໝາຍວ່າດ້ວຍຫຸ່ນຍົນສະໄໝໃໝ່

ໃນຂະນະທີ່ສາມກົດຫມາຍຂອງຫຸ່ນຍົນເປັນປະກົດການສໍາລັບວັນນະຄະດີ, ພວກເຂົາເຈົ້າແມ່ນຂາດຢ່າງຫຼວງຫຼາຍໃນຄວາມຊັບຊ້ອນທີ່ຈະດໍາເນີນໂຄງການຢ່າງຈິງຈັງເປັນຫຸ່ນຍົນ. ນີ້ແມ່ນຫຼັງຈາກຈຸດດິນຕອນທັງຫມົດທີ່ຢູ່ເບື້ອງຫລັງເລື່ອງສັ້ນແລະນະວະນິຍາຍ. ການຂັດແຍ້ງລະຫວ່າງສາມກົດຫມາຍ, ຫຼືຢ່າງຫນ້ອຍການຕີຄວາມຫມາຍຂອງສາມກົດຫມາຍເຮັດໃຫ້ຫຸ່ນຍົນລົ້ມລົງ, ແກ້ແຄ້ນຕໍ່ມະນຸດ, ຫຼືຈຸດສໍາຄັນອື່ນໆ.

ບັນຫາຫຼັກຂອງກົດໝາຍປະຈຸບັນແມ່ນການສ້າງແຜນງານດ້ານຈັນຍາບັນຂອງການປະຕິບັດຕາມຄຳແນະນຳຂອງມະນຸດສະເໝີ ແລະ ການປົກປ້ອງຕົວມັນເອງສະເໝີອາດຂັດກັນ. ຫຼັງຈາກທີ່ທັງຫມົດ, ຫຸ່ນຍົນໄດ້ຖືກອະນຸຍາດໃຫ້ປ້ອງກັນຕົນເອງຕໍ່ກັບເຈົ້າຂອງທີ່ລ່ວງລະເມີດມັນບໍ?

ກົນໄກທີ່ປອດໄພຕ້ອງຖືກຕັ້ງໂຄງການປະເພດໃດແດ່? ພວກເຮົາສັ່ງຫຸ່ນຍົນແນວໃດວ່າມັນຕ້ອງປິດບໍ່ວ່າຈະມີຜົນສະທ້ອນແນວໃດ? ຈະເກີດຫຍັງຂຶ້ນຖ້າຫຸ່ນຍົນຢູ່ໃນຂະບວນການຊ່ວຍແມ່ບ້ານຈາກການລ່ວງລະເມີດ, ຫຸ່ນຍົນຈະປິດອັດຕະໂນມັດຖ້າຜົວທີ່ຖືກສັ່ງໃຫ້ເຮັດແນວນັ້ນ?

ໃຜຄວນໃຫ້ຄໍາແນະນໍາກັບຫຸ່ນຍົນ? ດ້ວຍອາວຸດທີ່ເປັນເອກະລາດທີ່ສາມາດລະບຸແລະແນເປົ້າໃສ່ສັດຕູຈາກທົ່ວໂລກ, ຫຸ່ນຍົນຄວນຈະສາມາດປະຕິເສດຄໍາສັ່ງເພື່ອກໍາຈັດເປົ້າຫມາຍຖ້າມັນລະບຸເປົ້າຫມາຍທີ່ເປັນເດັກນ້ອຍບໍ?

ໃນຄໍາສັບຕ່າງໆອື່ນໆຖ້າຫຸ່ນຍົນເປັນເຈົ້າຂອງແລະຄວບຄຸມໂດຍ psychopath, ຫຸ່ນຍົນສາມາດປະຕິເສດຄໍາສັ່ງທີ່ຜິດສິນລະທໍາ? ຄໍາຖາມມີຈໍານວນຫລາຍ, ແລະຄໍາຕອບແມ່ນຍາກເກີນໄປສໍາລັບບຸກຄົນທີ່ຈະຕອບ. ນີ້ແມ່ນເຫດຜົນທີ່ອົງການຈັດຕັ້ງເຊັ່ນ: ອະນາຄົດຂອງຊີວິດ ສະຖາບັນມີຄວາມສໍາຄັນຫຼາຍ, ເວລາທີ່ຈະໂຕ້ວາທີບັນຫາທາງດ້ານສິນທໍາເຫຼົ່ານີ້ແມ່ນກ່ອນທີ່ AGI ທີ່ແທ້ຈິງຈະເກີດຂື້ນ.

ຄູ່ຮ່ວມງານຜູ້ກໍ່ຕັ້ງຂອງ unite.AI ແລະສະມາຊິກຂອງ ສະພາເທກໂນໂລຍີ Forbes, Antoine ເປັນ futurist ຜູ້ທີ່ມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບອະນາຄົດຂອງ AI ແລະຫຸ່ນຍົນ.

ລາວຍັງເປັນຜູ້ກໍ່ຕັ້ງຂອງ Securities.io, ເວັບໄຊທ໌ທີ່ສຸມໃສ່ການລົງທຶນໃນເຕັກໂນໂລຢີທີ່ຂັດຂວາງ.