ຜູ້ ນຳ ທີ່ຄິດ
ຄວາມກັງວົນຕໍ່ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງ ChatGPT ກໍາລັງເພີ່ມຂຶ້ນແຕ່ການຢຸດຊົ່ວຄາວກ່ຽວກັບ AI ເປັນການເຄື່ອນໄຫວທີ່ດີບໍ?
ໃນຂະນະທີ່ Elon Musk ແລະຜູ້ນໍາດ້ານເຕັກໂນໂລຢີທົ່ວໂລກອື່ນໆໄດ້ຮຽກຮ້ອງໃຫ້ A ຢຸດຊົ່ວຄາວໃນ AI ຫຼັງຈາກການປ່ອຍ ChatGPT, ນັກວິຈານບາງຄົນເຊື່ອວ່າການຢຸດເຊົາການພັດທະນາບໍ່ແມ່ນຄໍາຕອບ. ຜູ້ປະກາດຂ່າວປະເສີດ AI Andrew Pery, ຂອງບໍລິສັດອັດຕະໂນມັດອັດສະລິຍະ ABBYY ເຊື່ອວ່າການພັກຜ່ອນແມ່ນຄ້າຍຄືການເອົາຢາສີຟັນເຂົ້າໄປໃນທໍ່. ນີ້, ລາວບອກພວກເຮົາວ່າເປັນຫຍັງ ...
ແອັບພລິເຄຊັ່ນ AI ແມ່ນແຜ່ຫຼາຍ, ມີຜົນກະທົບເກືອບທຸກດ້ານຂອງຊີວິດຂອງພວກເຮົາ. ໃນຂະນະທີ່ເປັນການຍົກຍ້ອງ, ການວາງຫ້າມລໍ້ໃນປັດຈຸບັນອາດຈະເປັນ implausible.
ແນ່ນອນວ່າມີຄວາມກັງວົນທີ່ເຫັນໄດ້ຊັດເຈນທີ່ຮຽກຮ້ອງໃຫ້ເພີ່ມທະວີການຄວບຄຸມການຄວບຄຸມເພື່ອປົກຄອງຜົນກະທົບທີ່ເປັນອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ.
ບໍ່ດົນມານີ້, ເຈົ້າຫນ້າທີ່ປົກປ້ອງຂໍ້ມູນອິຕາລີໄດ້ຂັດຂວາງການນໍາໃຊ້ ChatGPT ທົ່ວປະເທດຊົ່ວຄາວເນື່ອງຈາກຄວາມກັງວົນກ່ຽວກັບຄວາມເປັນສ່ວນຕົວທີ່ກ່ຽວຂ້ອງກັບວິທີການເກັບກໍາແລະການປຸງແຕ່ງຂໍ້ມູນສ່ວນບຸກຄົນທີ່ໃຊ້ໃນການຝຶກອົບຮົມແບບຈໍາລອງ, ເຊັ່ນດຽວກັນກັບການຂາດການປົກປ້ອງທີ່ປາກົດຂື້ນ, ເປີດເຜີຍໃຫ້ເດັກນ້ອຍໄດ້ຮັບການຕອບສະຫນອງ "ຢ່າງແທ້ຈິງ. ບໍ່ເໝາະສົມກັບອາຍຸ ແລະຄວາມຮູ້ຂອງເຂົາເຈົ້າ.”
ອົງການຜູ້ບໍລິໂພກເອີຣົບ (BEUC) ກໍາລັງຮຽກຮ້ອງໃຫ້ EU ສືບສວນຜົນກະທົບທີ່ເປັນອັນຕະລາຍຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່ໂດຍໃຫ້ "ຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບວິທີການ ChatGPT ແລະ chatbots ທີ່ຄ້າຍຄືກັນອາດຈະຫລອກລວງແລະຫຼອກລວງປະຊາຊົນ. ລະບົບ AI ເຫຼົ່ານີ້ຕ້ອງການການກວດສອບສາທາລະນະຫຼາຍກວ່າເກົ່າ, ແລະເຈົ້າຫນ້າທີ່ສາທາລະນະຕ້ອງຢືນຢັນການຄວບຄຸມພວກມັນຄືນໃຫມ່."
ໃນສະຫະລັດ, ໄດ້ ສູນນະໂຍບາຍ AI ແລະດິຈິຕອລ ໄດ້ຍື່ນຄໍາຮ້ອງທຸກກັບຄະນະກໍາມະການການຄ້າຂອງລັດຖະບານກາງວ່າ ChatGPT ລະເມີດພາກທີ 5 ຂອງ Federal Trade Commission Act (FTC Act) (15 USC 45). ພື້ນຖານຂອງການຮ້ອງຮຽນແມ່ນວ່າ ChatGPT ຖືກກ່າວຫາວ່າບໍ່ສາມາດຕອບສະຫນອງໄດ້ ການຊີ້ນໍາ ກໍານົດໂດຍ FTC ສໍາລັບຄວາມໂປ່ງໃສແລະການອະທິບາຍຂອງລະບົບ AI. ມີການອ້າງອິງເຖິງການຮັບຮູ້ຂອງ ChatGPT ຂອງຫຼາຍໆຄົນທີ່ຮູ້ຈັກ ຄວາມສ່ຽງ ລວມທັງການປະນີປະນອມສິດທິຄວາມເປັນສ່ວນຕົວ, ການສ້າງເນື້ອຫາທີ່ເປັນອັນຕະລາຍ, ແລະການເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ.
ຜົນປະໂຫຍດຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່ເຊັ່ນ ChatGPT ເຖິງແມ່ນວ່າການຄົ້ນຄວ້າຊີ້ໃຫ້ເຫັນທ່າແຮງຂອງມັນ ດ້ານມືດ. ມັນໄດ້ຖືກພິສູດວ່າຜະລິດຄໍາຕອບທີ່ບໍ່ຖືກຕ້ອງ, ຍ້ອນວ່າຕົວແບບ ChatGPT ພື້ນຖານແມ່ນອີງໃສ່ສູດການຄິດໄລ່ການຮຽນຮູ້ເລິກທີ່ນໍາໃຊ້ຊຸດຂໍ້ມູນການຝຶກອົບຮົມຂະຫນາດໃຫຍ່ຈາກອິນເຕີເນັດ. ບໍ່ເຫມືອນກັບ chatbots ອື່ນໆ, ChatGPT ໃຊ້ຮູບແບບພາສາໂດຍອີງໃສ່ເຕັກນິກການຮຽນຮູ້ເລິກທີ່ສ້າງຂໍ້ຄວາມທີ່ຄ້າຍຄືກັນກັບການສົນທະນາຂອງມະນຸດ, ແລະເວທີ "ມາຮອດຄໍາຕອບໂດຍການຄາດເດົາຫຼາຍ, ເຊິ່ງເປັນສ່ວນຫນຶ່ງຂອງເຫດຜົນທີ່ມັນສາມາດໂຕ້ຖຽງຄໍາຕອບຜິດໄດ້. ເປັນຄວາມຈິງຢ່າງສົມບູນ.”
ຍິ່ງໄປກວ່ານັ້ນ, ChatGPT ໄດ້ຖືກພິສູດໃຫ້ເຫັນແລະຂະຫຍາຍຄວາມລໍາອຽງທີ່ສົ່ງຜົນໃຫ້ "ຄໍາຕອບທີ່ຈໍາແນກຕໍ່ເພດ, ເຊື້ອຊາດ, ແລະຊົນເຜົ່າສ່ວນນ້ອຍ, ບາງສິ່ງບາງຢ່າງທີ່ບໍລິສັດກໍາລັງພະຍາຍາມຫຼຸດຜ່ອນ." ChatGPT ອາດຈະເປັນ bonanza ສໍາລັບນັກສະແດງ nefarious ເພື່ອຂູດຮີດຜູ້ໃຊ້ທີ່ບໍ່ສົງໃສ, ປະນີປະນອມຂອງເຂົາເຈົ້າ. ຄວາມເປັນສ່ວນຕົວ ແລະເປີດເຜີຍໃຫ້ເຂົາເຈົ້າ ການໂຈມຕີຫລອກລວງ.
ຄວາມກັງວົນເຫຼົ່ານີ້ໄດ້ກະຕຸ້ນໃຫ້ລັດຖະສະພາຫະພາບເອີຣົບພິມເຜີຍແຜ່ a ຂຽນ ເຊິ່ງໄດ້ເສີມຂະຫຍາຍຄວາມຈຳເປັນໃນການເສີມຂະຫຍາຍບັນດາຂໍ້ກຳນົດໃນປະຈຸບັນຂອງຮ່າງກົດໝາຍຕື່ມອີກ ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ, (AIA) ທີ່ຍັງລໍຖ້າໃຫ້ສັດຕະຍາບັນ. ຄໍາຄິດຄໍາເຫັນຊີ້ໃຫ້ເຫັນວ່າຮ່າງກົດລະບຽບທີ່ສະເຫນີໃນປັດຈຸບັນເນັ້ນໃສ່ສິ່ງທີ່ເອີ້ນວ່າຄໍາຮ້ອງສະຫມັກ AI ແຄບ, ປະກອບດ້ວຍປະເພດສະເພາະຂອງລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງເຊັ່ນການຈ້າງງານ, ມູນຄ່າສິນເຊື່ອ, ການຈ້າງງານ, ການບັງຄັບໃຊ້ກົດຫມາຍແລະການມີສິດໄດ້ຮັບການບໍລິການສັງຄົມ. ຢ່າງໃດກໍຕາມ, ຮ່າງກົດລະບຽບຂອງ EU ບໍ່ໄດ້ກວມເອົາ AI ຈຸດປະສົງທົ່ວໄປ, ເຊັ່ນ: ຮູບແບບພາສາຂະຫນາດໃຫຍ່ທີ່ສະຫນອງຄວາມສາມາດທາງດ້ານສະຕິປັນຍາທີ່ກ້າວຫນ້າທາງດ້ານຫຼາຍແລະສາມາດ "ປະຕິບັດວຽກງານທີ່ສະຫຼາດຫຼາຍ." ມີການຮຽກຮ້ອງເພື່ອຂະຫຍາຍຂອບເຂດຂອງຮ່າງກົດລະບຽບເພື່ອປະກອບມີປະເພດທີ່ແຍກຕ່າງຫາກ, ມີຄວາມສ່ຽງສູງຂອງລະບົບ AI ທົ່ວໄປ, ຮຽກຮ້ອງໃຫ້ນັກພັດທະນາເຮັດການທົດສອບຄວາມສອດຄ່ອງຢ່າງເຂັ້ມງວດກ່ອນທີ່ຈະວາງລະບົບດັ່ງກ່າວລົງສູ່ຕະຫຼາດແລະຕິດຕາມການປະຕິບັດຂອງພວກເຂົາຢ່າງຕໍ່ເນື່ອງ. ຜົນຜະລິດທີ່ເປັນອັນຕະລາຍທີ່ອາດຈະບໍ່ຄາດຄິດ.
ສິ້ນທີ່ເປັນປະໂຫຍດໂດຍສະເພາະຂອງ ການຄົ້ນຄວ້າ ດຶງດູດຄວາມຮັບຮູ້ເຖິງຊ່ອງຫວ່າງນີ້ວ່າກົດລະບຽບຂອງ EU AIA ແມ່ນ "ຕົ້ນຕໍແມ່ນສຸມໃສ່ຮູບແບບ AI ແບບດັ້ງເດີມ, ແລະບໍ່ແມ່ນຄົນຮຸ່ນໃຫມ່ທີ່ພວກເຮົາເປັນພະຍານໃນມື້ນີ້."
ມັນແນະນໍາສີ່ຍຸດທະສາດທີ່ຜູ້ຄວບຄຸມຄວນພິຈາລະນາ.
- ຮຽກຮ້ອງໃຫ້ຜູ້ພັດທະນາລະບົບດັ່ງກ່າວລາຍງານຢ່າງເປັນປົກກະຕິກ່ຽວກັບປະສິດທິພາບຂອງຂະບວນການຄຸ້ມຄອງຄວາມສ່ຽງຂອງພວກເຂົາເພື່ອຫຼຸດຜ່ອນຜົນຜະລິດທີ່ເປັນອັນຕະລາຍ.
- ທຸລະກິດທີ່ໃຊ້ຮູບແບບພາສາຂະຫນາດໃຫຍ່ຄວນຈະມີພັນທະທີ່ຈະເປີດເຜີຍໃຫ້ລູກຄ້າຂອງພວກເຂົາຮູ້ວ່າເນື້ອຫາແມ່ນ AI ຖືກສ້າງຂຶ້ນ.
- ນັກພັດທະນາຄວນສະໝັກໃຊ້ຂັ້ນຕອນການເຜີຍແຜ່ທີ່ເປັນຂັ້ນຕອນ, ເປັນສ່ວນຫນຶ່ງຂອງກອບການຄຸ້ມຄອງຄວາມສ່ຽງ, ອອກແບບມາເພື່ອປົກປ້ອງຜົນຮ້າຍທີ່ອາດຈະເກີດຂຶ້ນທີ່ຄາດບໍ່ເຖິງ.
- ວາງຄວາມຮັບຜິດຊອບຕໍ່ນັກພັດທະນາເພື່ອ "ຫຼຸດຜ່ອນຄວາມສ່ຽງຢູ່ໃນຮາກຂອງມັນ" ໂດຍ "ມີການກວດສອບຂໍ້ມູນການຝຶກອົບຮົມຢ່າງຈິງຈັງສໍາລັບການສະແດງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ."
ປັດໄຈທີ່ເຮັດໃຫ້ເກີດຄວາມສ່ຽງຕໍ່ຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຢີທີ່ຂັດຂວາງແມ່ນການຂັບເຄື່ອນໂດຍນັກປະດິດສ້າງເພື່ອບັນລຸຜົນປະໂຫຍດດ້ານການເຄື່ອນຍ້າຍທໍາອິດໂດຍການຮັບຮອງເອົາຮູບແບບທຸລະກິດ "ເຮືອກ່ອນແລະແກ້ໄຂຕໍ່ມາ". ໃນຂະນະທີ່ OpenAI ແມ່ນບາງຢ່າງ ໂປ່ງໃສ ກ່ຽວກັບຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງ ChatGPT, ພວກເຂົາເຈົ້າໄດ້ປ່ອຍມັນສໍາລັບການນໍາໃຊ້ທາງການຄ້າຢ່າງກວ້າງຂວາງດ້ວຍ "ລະວັງຜູ້ຊື້" ກ່ຽວກັບຜູ້ໃຊ້ທີ່ຈະຊັ່ງນໍ້າຫນັກແລະສົມມຸດຄວາມສ່ຽງຂອງຕົນເອງ. ນັ້ນອາດຈະເປັນວິທີການທີ່ບໍ່ສາມາດແກ້ໄຂໄດ້ເນື່ອງຈາກຜົນກະທົບອັນແຜ່ຫຼາຍຂອງລະບົບ AI ການສົນທະນາ. ລະບຽບການທີ່ຕັ້ງໜ້າບວກກັບມາດຕະການບັງຄັບໃຊ້ທີ່ເຂັ້ມແຂງຕ້ອງເປັນສິ່ງສຳຄັນທີ່ສຸດໃນການຈັດການກັບເຕັກໂນໂລຊີທີ່ຂັດແຍ້ງດັ່ງກ່າວ.
ປັນຍາທຽມມີຢູ່ແລ້ວເກືອບທຸກສ່ວນຂອງຊີວິດຂອງເຮົາ, ຊຶ່ງໝາຍເຖິງການຢຸດການພັດທະນາ AI ໄວ້ຊົ່ວຄາວນັ້ນ ອາດສະແດງເຖິງອຸປະສັກ ແລະ ຜົນສະທ້ອນຫຼາຍຢ່າງທີ່ບໍ່ໄດ້ຄາດຄິດໄວ້. ແທນທີ່ຈະເຮັດໃຫ້ການຢຸດຊະງັກລົງຢ່າງກະທັນຫັນ, ພາກສ່ວນອຸດສາຫະກຳ ແລະ ນິຕິກຳຄວນຮ່ວມມືກັນຢ່າງສັດຊື່ເພື່ອອອກກົດລະບຽບການຈັດຕັ້ງປະຕິບັດທີ່ມີຮາກຖານຢູ່ໃນຄຸນຄ່າຂອງມະນຸດເປັນໃຈກາງ ເຊັ່ນ: ຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ ແລະ ຄວາມຍຸຕິທຳ. ໂດຍການອ້າງອີງນິຕິກໍາທີ່ມີຢູ່ແລ້ວເຊັ່ນ AIA, ຜູ້ນໍາໃນພາກເອກະຊົນແລະພາກລັດສາມາດອອກແບບນະໂຍບາຍມາດຕະຖານທົ່ວໂລກຢ່າງລະອຽດ, ທີ່ຈະປ້ອງກັນການນໍາໃຊ້ທີ່ບໍ່ດີແລະຫຼຸດຜ່ອນຜົນໄດ້ຮັບທີ່ບໍ່ດີ, ດັ່ງນັ້ນການຮັກສາປັນຍາປະດິດພາຍໃນຂອບເຂດຂອງການປັບປຸງປະສົບການຂອງມະນຸດ.