ກ້ານໃບ ຄວາມກັງວົນຕໍ່ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງ ChatGPT ກໍາລັງເພີ່ມຂຶ້ນແຕ່ການຢຸດຊົ່ວຄາວກ່ຽວກັບ AI ເປັນການເຄື່ອນໄຫວທີ່ດີບໍ? - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຜູ້ ນຳ ທີ່ຄິດ

ຄວາມກັງວົນຕໍ່ຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງ ChatGPT ກໍາລັງເພີ່ມຂຶ້ນແຕ່ການຢຸດຊົ່ວຄາວກ່ຽວກັບ AI ເປັນການເຄື່ອນໄຫວທີ່ດີບໍ?

mm

ຈັດພີມມາ

 on

ໃນຂະນະທີ່ Elon Musk ແລະຜູ້ນໍາດ້ານເຕັກໂນໂລຢີທົ່ວໂລກອື່ນໆໄດ້ຮຽກຮ້ອງໃຫ້ A ຢຸດຊົ່ວຄາວໃນ AI ຫຼັງຈາກການປ່ອຍ ChatGPT, ນັກວິຈານບາງຄົນເຊື່ອວ່າການຢຸດເຊົາການພັດທະນາບໍ່ແມ່ນຄໍາຕອບ. ຜູ້ປະກາດຂ່າວປະເສີດ AI Andrew Pery, ຂອງບໍລິສັດອັດຕະໂນມັດອັດສະລິຍະ ABBYY ເຊື່ອວ່າການພັກຜ່ອນແມ່ນຄ້າຍຄືການເອົາຢາສີຟັນເຂົ້າໄປໃນທໍ່. ນີ້, ລາວບອກພວກເຮົາວ່າເປັນຫຍັງ ...

ແອັບພລິເຄຊັ່ນ AI ແມ່ນແຜ່ຫຼາຍ, ມີຜົນກະທົບເກືອບທຸກດ້ານຂອງຊີວິດຂອງພວກເຮົາ. ໃນ​ຂະ​ນະ​ທີ່​ເປັນ​ການ​ຍົກ​ຍ້ອງ, ການ​ວາງ​ຫ້າມ​ລໍ້​ໃນ​ປັດ​ຈຸ​ບັນ​ອາດ​ຈະ​ເປັນ implausible.

ແນ່ນອນວ່າມີຄວາມກັງວົນທີ່ເຫັນໄດ້ຊັດເຈນທີ່ຮຽກຮ້ອງໃຫ້ເພີ່ມທະວີການຄວບຄຸມການຄວບຄຸມເພື່ອປົກຄອງຜົນກະທົບທີ່ເປັນອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ.

ບໍ່ດົນມານີ້, ເຈົ້າຫນ້າທີ່ປົກປ້ອງຂໍ້ມູນອິຕາລີໄດ້ຂັດຂວາງການນໍາໃຊ້ ChatGPT ທົ່ວປະເທດຊົ່ວຄາວເນື່ອງຈາກຄວາມກັງວົນກ່ຽວກັບຄວາມເປັນສ່ວນຕົວທີ່ກ່ຽວຂ້ອງກັບວິທີການເກັບກໍາແລະການປຸງແຕ່ງຂໍ້ມູນສ່ວນບຸກຄົນທີ່ໃຊ້ໃນການຝຶກອົບຮົມແບບຈໍາລອງ, ເຊັ່ນດຽວກັນກັບການຂາດການປົກປ້ອງທີ່ປາກົດຂື້ນ, ເປີດເຜີຍໃຫ້ເດັກນ້ອຍໄດ້ຮັບການຕອບສະຫນອງ "ຢ່າງແທ້ຈິງ. ບໍ່ເໝາະສົມກັບອາຍຸ ແລະຄວາມຮູ້ຂອງເຂົາເຈົ້າ.”

ອົງການຜູ້ບໍລິໂພກເອີຣົບ (BEUC) ກໍາລັງຮຽກຮ້ອງໃຫ້ EU ສືບສວນຜົນກະທົບທີ່ເປັນອັນຕະລາຍຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່ໂດຍໃຫ້ "ຄວາມກັງວົນທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບວິທີການ ChatGPT ແລະ chatbots ທີ່ຄ້າຍຄືກັນອາດຈະຫລອກລວງແລະຫຼອກລວງປະຊາຊົນ. ລະບົບ AI ເຫຼົ່ານີ້ຕ້ອງການການກວດສອບສາທາລະນະຫຼາຍກວ່າເກົ່າ, ແລະເຈົ້າຫນ້າທີ່ສາທາລະນະຕ້ອງຢືນຢັນການຄວບຄຸມພວກມັນຄືນໃຫມ່."

ໃນສະຫະລັດ, ໄດ້ ສູນນະໂຍບາຍ AI ແລະດິຈິຕອລ ໄດ້ຍື່ນຄໍາຮ້ອງທຸກກັບຄະນະກໍາມະການການຄ້າຂອງລັດຖະບານກາງວ່າ ChatGPT ລະເມີດພາກທີ 5 ຂອງ Federal Trade Commission Act (FTC Act) (15 USC 45). ພື້ນຖານຂອງການຮ້ອງຮຽນແມ່ນວ່າ ChatGPT ຖືກກ່າວຫາວ່າບໍ່ສາມາດຕອບສະຫນອງໄດ້ ການຊີ້ນໍາ ກໍານົດໂດຍ FTC ສໍາລັບຄວາມໂປ່ງໃສແລະການອະທິບາຍຂອງລະບົບ AI. ມີການອ້າງອິງເຖິງການຮັບຮູ້ຂອງ ChatGPT ຂອງຫຼາຍໆຄົນທີ່ຮູ້ຈັກ ຄວາມສ່ຽງ ລວມທັງການປະນີປະນອມສິດທິຄວາມເປັນສ່ວນຕົວ, ການສ້າງເນື້ອຫາທີ່ເປັນອັນຕະລາຍ, ແລະການເຜີຍແຜ່ຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ.

ຜົນປະໂຫຍດຂອງຮູບແບບພາສາຂະຫນາດໃຫຍ່ເຊັ່ນ ChatGPT ເຖິງແມ່ນວ່າການຄົ້ນຄວ້າຊີ້ໃຫ້ເຫັນທ່າແຮງຂອງມັນ ດ້ານ​ມືດ. ມັນໄດ້ຖືກພິສູດວ່າຜະລິດຄໍາຕອບທີ່ບໍ່ຖືກຕ້ອງ, ຍ້ອນວ່າຕົວແບບ ChatGPT ພື້ນຖານແມ່ນອີງໃສ່ສູດການຄິດໄລ່ການຮຽນຮູ້ເລິກທີ່ນໍາໃຊ້ຊຸດຂໍ້ມູນການຝຶກອົບຮົມຂະຫນາດໃຫຍ່ຈາກອິນເຕີເນັດ. ບໍ່ເຫມືອນກັບ chatbots ອື່ນໆ, ChatGPT ໃຊ້ຮູບແບບພາສາໂດຍອີງໃສ່ເຕັກນິກການຮຽນຮູ້ເລິກທີ່ສ້າງຂໍ້ຄວາມທີ່ຄ້າຍຄືກັນກັບການສົນທະນາຂອງມະນຸດ, ແລະເວທີ "ມາຮອດຄໍາຕອບໂດຍການຄາດເດົາຫຼາຍ, ເຊິ່ງເປັນສ່ວນຫນຶ່ງຂອງເຫດຜົນທີ່ມັນສາມາດໂຕ້ຖຽງຄໍາຕອບຜິດໄດ້. ເປັນຄວາມຈິງຢ່າງສົມບູນ.”

ຍິ່ງໄປກວ່ານັ້ນ, ChatGPT ໄດ້ຖືກພິສູດໃຫ້ເຫັນແລະຂະຫຍາຍຄວາມລໍາອຽງທີ່ສົ່ງຜົນໃຫ້ "ຄໍາຕອບທີ່ຈໍາແນກຕໍ່ເພດ, ເຊື້ອຊາດ, ແລະຊົນເຜົ່າສ່ວນນ້ອຍ, ບາງສິ່ງບາງຢ່າງທີ່ບໍລິສັດກໍາລັງພະຍາຍາມຫຼຸດຜ່ອນ." ChatGPT ອາດຈະເປັນ bonanza ສໍາລັບນັກສະແດງ nefarious ເພື່ອຂູດຮີດຜູ້ໃຊ້ທີ່ບໍ່ສົງໃສ, ປະນີປະນອມຂອງເຂົາເຈົ້າ. ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ ແລະເປີດເຜີຍໃຫ້ເຂົາເຈົ້າ ການໂຈມຕີຫລອກລວງ.

ຄວາມ​ກັງ​ວົນ​ເຫຼົ່າ​ນີ້​ໄດ້​ກະ​ຕຸ້ນ​ໃຫ້​ລັດ​ຖະ​ສະ​ພາ​ຫະ​ພາບ​ເອີ​ຣົບ​ພິມ​ເຜີຍ​ແຜ່ a ຂຽນ ​ເຊິ່ງ​ໄດ້​ເສີມ​ຂະຫຍາຍ​ຄວາມ​ຈຳ​ເປັນ​ໃນ​ການ​ເສີມ​ຂະຫຍາຍ​ບັນດາ​ຂໍ້​ກຳນົດ​ໃນ​ປະຈຸ​ບັນ​ຂອງ​ຮ່າງ​ກົດໝາຍ​ຕື່ມ​ອີກ ກົດໝາຍວ່າດ້ວຍປັນຍາປະດິດຂອງສະຫະພາບເອີຣົບ, (AIA) ທີ່ຍັງລໍຖ້າໃຫ້ສັດຕະຍາບັນ. ຄໍາຄິດຄໍາເຫັນຊີ້ໃຫ້ເຫັນວ່າຮ່າງກົດລະບຽບທີ່ສະເຫນີໃນປັດຈຸບັນເນັ້ນໃສ່ສິ່ງທີ່ເອີ້ນວ່າຄໍາຮ້ອງສະຫມັກ AI ແຄບ, ປະກອບດ້ວຍປະເພດສະເພາະຂອງລະບົບ AI ທີ່ມີຄວາມສ່ຽງສູງເຊັ່ນການຈ້າງງານ, ມູນຄ່າສິນເຊື່ອ, ການຈ້າງງານ, ການບັງຄັບໃຊ້ກົດຫມາຍແລະການມີສິດໄດ້ຮັບການບໍລິການສັງຄົມ. ຢ່າງໃດກໍຕາມ, ຮ່າງກົດລະບຽບຂອງ EU ບໍ່ໄດ້ກວມເອົາ AI ຈຸດປະສົງທົ່ວໄປ, ເຊັ່ນ: ຮູບແບບພາສາຂະຫນາດໃຫຍ່ທີ່ສະຫນອງຄວາມສາມາດທາງດ້ານສະຕິປັນຍາທີ່ກ້າວຫນ້າທາງດ້ານຫຼາຍແລະສາມາດ "ປະຕິບັດວຽກງານທີ່ສະຫຼາດຫຼາຍ." ມີການຮຽກຮ້ອງເພື່ອຂະຫຍາຍຂອບເຂດຂອງຮ່າງກົດລະບຽບເພື່ອປະກອບມີປະເພດທີ່ແຍກຕ່າງຫາກ, ມີຄວາມສ່ຽງສູງຂອງລະບົບ AI ທົ່ວໄປ, ຮຽກຮ້ອງໃຫ້ນັກພັດທະນາເຮັດການທົດສອບຄວາມສອດຄ່ອງຢ່າງເຂັ້ມງວດກ່ອນທີ່ຈະວາງລະບົບດັ່ງກ່າວລົງສູ່ຕະຫຼາດແລະຕິດຕາມການປະຕິບັດຂອງພວກເຂົາຢ່າງຕໍ່ເນື່ອງ. ຜົນ​ຜະ​ລິດ​ທີ່​ເປັນ​ອັນ​ຕະ​ລາຍ​ທີ່​ອາດ​ຈະ​ບໍ່​ຄາດ​ຄິດ​.

ສິ້ນທີ່ເປັນປະໂຫຍດໂດຍສະເພາະຂອງ ການຄົ້ນຄວ້າ ດຶງດູດຄວາມຮັບຮູ້ເຖິງຊ່ອງຫວ່າງນີ້ວ່າກົດລະບຽບຂອງ EU AIA ແມ່ນ "ຕົ້ນຕໍແມ່ນສຸມໃສ່ຮູບແບບ AI ແບບດັ້ງເດີມ, ແລະບໍ່ແມ່ນຄົນຮຸ່ນໃຫມ່ທີ່ພວກເຮົາເປັນພະຍານໃນມື້ນີ້."

ມັນແນະນໍາສີ່ຍຸດທະສາດທີ່ຜູ້ຄວບຄຸມຄວນພິຈາລະນາ.

  1. ຮຽກຮ້ອງໃຫ້ຜູ້ພັດທະນາລະບົບດັ່ງກ່າວລາຍງານຢ່າງເປັນປົກກະຕິກ່ຽວກັບປະສິດທິພາບຂອງຂະບວນການຄຸ້ມຄອງຄວາມສ່ຽງຂອງພວກເຂົາເພື່ອຫຼຸດຜ່ອນຜົນຜະລິດທີ່ເປັນອັນຕະລາຍ.
  2. ທຸລະກິດທີ່ໃຊ້ຮູບແບບພາສາຂະຫນາດໃຫຍ່ຄວນຈະມີພັນທະທີ່ຈະເປີດເຜີຍໃຫ້ລູກຄ້າຂອງພວກເຂົາຮູ້ວ່າເນື້ອຫາແມ່ນ AI ຖືກສ້າງຂຶ້ນ.
  3. ນັກພັດທະນາຄວນສະໝັກໃຊ້ຂັ້ນຕອນການເຜີຍແຜ່ທີ່ເປັນຂັ້ນຕອນ, ເປັນສ່ວນຫນຶ່ງຂອງກອບການຄຸ້ມຄອງຄວາມສ່ຽງ, ອອກແບບມາເພື່ອປົກປ້ອງຜົນຮ້າຍທີ່ອາດຈະເກີດຂຶ້ນທີ່ຄາດບໍ່ເຖິງ.
  4. ວາງຄວາມຮັບຜິດຊອບຕໍ່ນັກພັດທະນາເພື່ອ "ຫຼຸດຜ່ອນຄວາມສ່ຽງຢູ່ໃນຮາກຂອງມັນ" ໂດຍ "ມີການກວດສອບຂໍ້ມູນການຝຶກອົບຮົມຢ່າງຈິງຈັງສໍາລັບການສະແດງຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງ."

ປັດໄຈທີ່ເຮັດໃຫ້ເກີດຄວາມສ່ຽງຕໍ່ຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງກັບເຕັກໂນໂລຢີທີ່ຂັດຂວາງແມ່ນການຂັບເຄື່ອນໂດຍນັກປະດິດສ້າງເພື່ອບັນລຸຜົນປະໂຫຍດດ້ານການເຄື່ອນຍ້າຍທໍາອິດໂດຍການຮັບຮອງເອົາຮູບແບບທຸລະກິດ "ເຮືອກ່ອນແລະແກ້ໄຂຕໍ່ມາ". ໃນຂະນະທີ່ OpenAI ແມ່ນບາງຢ່າງ ໂປ່ງໃສ ກ່ຽວກັບຄວາມສ່ຽງທີ່ເປັນໄປໄດ້ຂອງ ChatGPT, ພວກເຂົາເຈົ້າໄດ້ປ່ອຍມັນສໍາລັບການນໍາໃຊ້ທາງການຄ້າຢ່າງກວ້າງຂວາງດ້ວຍ "ລະວັງຜູ້ຊື້" ກ່ຽວກັບຜູ້ໃຊ້ທີ່ຈະຊັ່ງນໍ້າຫນັກແລະສົມມຸດຄວາມສ່ຽງຂອງຕົນເອງ. ນັ້ນອາດຈະເປັນວິທີການທີ່ບໍ່ສາມາດແກ້ໄຂໄດ້ເນື່ອງຈາກຜົນກະທົບອັນແຜ່ຫຼາຍຂອງລະບົບ AI ການສົນທະນາ. ລະບຽບ​ການ​ທີ່​ຕັ້ງໜ້າ​ບວກ​ກັບ​ມາດ​ຕະການ​ບັງຄັບ​ໃຊ້​ທີ່​ເຂັ້ມ​ແຂງ​ຕ້ອງ​ເປັນ​ສິ່ງ​ສຳຄັນ​ທີ່​ສຸດ​ໃນ​ການ​ຈັດການ​ກັບ​ເຕັກ​ໂນ​ໂລ​ຊີ​ທີ່​ຂັດ​ແຍ້​ງດັ່ງກ່າວ.

ປັນຍາທຽມມີຢູ່ແລ້ວເກືອບທຸກສ່ວນຂອງຊີວິດຂອງເຮົາ, ຊຶ່ງໝາຍເຖິງການຢຸດການພັດທະນາ AI ໄວ້ຊົ່ວຄາວນັ້ນ ອາດສະແດງເຖິງອຸປະສັກ ແລະ ຜົນສະທ້ອນຫຼາຍຢ່າງທີ່ບໍ່ໄດ້ຄາດຄິດໄວ້. ແທນທີ່ຈະເຮັດໃຫ້ການຢຸດຊະງັກລົງຢ່າງກະທັນຫັນ, ພາກສ່ວນອຸດສາຫະກຳ ແລະ ນິຕິກຳຄວນຮ່ວມມືກັນຢ່າງສັດຊື່ເພື່ອອອກກົດລະບຽບການຈັດຕັ້ງປະຕິບັດທີ່ມີຮາກຖານຢູ່ໃນຄຸນຄ່າຂອງມະນຸດເປັນໃຈກາງ ເຊັ່ນ: ຄວາມໂປ່ງໃສ, ຄວາມຮັບຜິດຊອບ ແລະ ຄວາມຍຸຕິທຳ. ໂດຍການອ້າງອີງນິຕິກໍາທີ່ມີຢູ່ແລ້ວເຊັ່ນ AIA, ຜູ້ນໍາໃນພາກເອກະຊົນແລະພາກລັດສາມາດອອກແບບນະໂຍບາຍມາດຕະຖານທົ່ວໂລກຢ່າງລະອຽດ, ທີ່ຈະປ້ອງກັນການນໍາໃຊ້ທີ່ບໍ່ດີແລະຫຼຸດຜ່ອນຜົນໄດ້ຮັບທີ່ບໍ່ດີ, ດັ່ງນັ້ນການຮັກສາປັນຍາປະດິດພາຍໃນຂອບເຂດຂອງການປັບປຸງປະສົບການຂອງມະນຸດ.

Andrew Pery ເປັນ AI Ethics Evangelist ທີ່ບໍລິສັດອັດຕະໂນມັດອັດສະລິຍະ ເອບີບີ. Pery ມີຫຼາຍກວ່າ 25 ປີຂອງປະສົບການ spearheading ໂຄງການການຄຸ້ມຄອງຜະລິດຕະພັນສໍາລັບບໍລິສັດເຕັກໂນໂລຊີຊັ້ນນໍາຂອງໂລກ. ຄວາມຊ່ຽວຊານຂອງລາວແມ່ນຢູ່ໃນອັດຕະໂນມັດຂະບວນການເອກະສານອັດສະລິຍະແລະປັນຍາຂະບວນການທີ່ມີຄວາມຊໍານານໂດຍສະເພາະໃນເຕັກໂນໂລຢີ AI, ຊອບແວຄໍາຮ້ອງສະຫມັກ, ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນແລະຈັນຍາບັນ AI. ລາວໄດ້ຮັບປະລິນຍາໂທທາງດ້ານກົດຫມາຍທີ່ມີຄວາມແຕກຕ່າງຈາກໂຮງຮຽນກົດຫມາຍຂອງ Northwestern University Pritzker ແລະເປັນຜູ້ຊ່ຽວຊານດ້ານຄວາມເປັນສ່ວນຕົວຂໍ້ມູນທີ່ໄດ້ຮັບການຢັ້ງຢືນ.