ກ້ານໃບ ຈັນຍາບັນ & ເທກໂນໂລຍີ: AI ຕ້ອງການນັກບິນຢູ່ຫົວບໍ? - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຜູ້ ນຳ ທີ່ຄິດ

ຈັນຍາບັນ & ເທກໂນໂລຍີ: AI ຕ້ອງການນັກບິນຢູ່ຫົວບໍ?

mm

ຈັດພີມມາ

 on

ສະຫຼຸບ: ຄວາມກ້າວຫນ້າຂອງເຕັກໂນໂລຢີ AI ການສົນທະນາຈໍາເປັນຕ້ອງມີການດຸ່ນດ່ຽງຢ່າງລະມັດລະວັງຂອງຜົນປະໂຫຍດທີ່ສົ່ງເສີມການປະດິດສ້າງໃນຂະນະທີ່ຫຼຸດຜ່ອນຜົນກະທົບທີ່ເປັນອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ.

ຄວາມງາມຂອງ AI ການສົນທະນາ

ການເປີດຕົວຂອງ ChatGPT-3 ໄດ້ດຶງດູດຄວາມສົນໃຈທີ່ບໍ່ເຄີຍມີມາກ່ອນ ມີຫຼາຍກວ່າ 100 ລ້ານຜູ້ໃຊ້ທີ່ໃຊ້ວຽກຕໍ່ເດືອນ.

ຜູ້ບໍລິໂພກ ແລະອົງການຕ່າງໆຮັບຮູ້ຄືກັນວ່າຄວາມກ້າວໜ້າໃນການສົນທະນາ AI ສາມາດປ່ຽນແປງໄດ້ເກືອບທຸກດ້ານຂອງຊີວິດສ່ວນຕົວຂອງພວກເຮົາ ແລະການພົວພັນແບບມືອາຊີບແນວໃດ. ຄໍາຮ້ອງສະຫມັກຂັ້ນສູງຂອງ ChatGPT-3 ຂອງການຮຽນຮູ້ເລິກເຊິ່ງສ້າງການສົນທະນາທີ່ຄ້າຍຄືກັບມະນຸດດ້ວຍຜົນໄດ້ຮັບທີ່ຫນ້າປະທັບໃຈ. ໃນການທົດສອບທີ່ຜ່ານມາ ChatGPT-3 ຜ່ານໄປ  ການສອບເສັງໃບອະນຸຍາດທາງການແພດສະຫະລັດ ແລະຫນຶ່ງ ການສອບເສັງ MBA ຈາກຫນຶ່ງໃນໂຮງຮຽນທຸລະກິດທີ່ມີຊື່ສຽງຫຼາຍທີ່ສຸດ.

ຜົນປະໂຫຍດທາງທຸລະກິດຂອງ AI ການສົນທະນາແມ່ນໃຫຍ່ຫຼວງຫຼາຍດັ່ງນັ້ນ Microsoft ໄດ້ລົງທຶນ 10 ຕື້ໂດລາເພື່ອເປີດ AI ເພື່ອເລັ່ງຄໍາຮ້ອງສະຫມັກການຄ້າຂອງ ChatGPT-3. Microsoft ຕັ້ງໃຈທີ່ຈະ "ຄ່າ supercharge" ຜະລິດຕະພັນຂອງຕົນທີ່ມີຄວາມສາມາດໃນການສົນທະນາຂອງ ChatGPT-3.

ຄວາມອຸດົມສົມບູນທີ່ບໍ່ມີເຫດຜົນ

ແຕ່ຂໍໃຫ້ຫາຍໃຈເລິກໆກ່ອນທີ່ພວກເຮົາຈະປ່ອຍໃຫ້ເທັກໂນໂລຍີການຫັນປ່ຽນດັ່ງກ່າວກ້າວໄປຂ້າງໜ້າຕົວເຮົາເອງ. ຜົນປະໂຫຍດທີ່ມີທ່າແຮງຂອງມັນ, ຢ່າງໃດກໍຕາມ, ChatGPT-3 ແມ່ນຍັງຢູ່ໃນຂັ້ນຕອນ nascent, ຍອມຮັບວ່າຄວາມບໍ່ສົມບູນແບບຫຼາຍ. ຄວາມອຸດົມສົມບູນຂອງພວກເຮົາອາດຈະພິສູດໄດ້ກ່ອນໄວອັນຄວນ. ໃນກໍລະນີທີ່ບໍ່ມີການວິເຄາະທີ່ມີຄວາມຫມາຍ, ການຮັບຮອງເອົາ AI ການສົນທະນາທີ່ບໍ່ມີການຄວບຄຸມໂດຍບໍ່ມີການຄວບຄຸມແລະການຄວບຄຸມຂອງມະນຸດສາມາດນໍາພາພວກເຮົາໄປສູ່ໂລກ dystopian, ເຊິ່ງຖືກສະແດງໂດຍນັກປະພັນອັງກິດ Aldous Huxley. ການເອື່ອຍອີງທາງດ້ານເທກໂນໂລຍີຫຼາຍເກີນໄປໂດຍບໍ່ມີຄວາມເຂົ້າໃຈກ່ຽວກັບຜົນກະທົບທາງດ້ານເສດຖະກິດ - ສັງຄົມຂອງມັນສາມາດສົ່ງຜົນສະທ້ອນທີ່ຮ້າຍແຮງ, ເຖິງແມ່ນວ່າຈະສົ່ງຜົນສະທ້ອນທີ່ບໍ່ໄດ້ຕັ້ງໃຈ, ເຊັ່ນ: ການຈ້າງງານ, ການສຶກສາ, ການລວມຕົວແລະຄວາມຍຸຕິທໍາ.

ຫຼັງຈາກທີ່ທັງຫມົດ, ໃນຂະນະທີ່ Chat-GPT-3 ກ້າວໄປຂ້າງຫນ້າ, ຄວາມສາມາດ "ສະຕິປັນຍາ" ຂອງມັນອີງໃສ່ຊຸດຂໍ້ມູນທີ່ມີຢູ່ກ່ອນຫນ້າ, ໂດຍມີອະຄະຕິທີ່ສ້າງຂຶ້ນເຊິ່ງສາມາດຂະຫຍາຍໄດ້ເຊິ່ງກໍ່ໃຫ້ເກີດອັນຕະລາຍຢ່າງຫຼວງຫຼາຍ. ChatGPT-3 ມີ "ດ້ານ​ມືດ” ທີ່ຄວນຈະເປັນສາເຫດສໍາລັບຄວາມກັງວົນແລະກົດປຸ່ມຢຸດກ່ອນທີ່ຈະຂະຫຍາຍຕົວຕໍ່ໄປຂອງເຕັກໂນໂລຊີຜົນສະທ້ອນດັ່ງກ່າວ.

ຄວາມສ່ຽງຫຼືໂອກາດ?

ມັນຈໍາເປັນຕ້ອງມີການດຸ່ນດ່ຽງຄວາມສ່ຽງທີ່ກ່ຽວຂ້ອງກັບການນໍາໃຊ້ AI ການສົນທະນາແລະໂອກາດທີ່ມີທ່າແຮງຂອງມັນ. ຖ້າຖືກນໍາໄປໃຊ້ໃນລັກສະນະທີ່ຄິດ, ດ້ວຍກົດລະບຽບທີ່ມີຄວາມຫມາຍຂອງ AI ທີ່ພິຈາລະນາວິທີການທີ່ອີງໃສ່ຄວາມສ່ຽງທີ່ມີການຄວບຄຸມທີ່ເຂັ້ມແຂງ, ຜົນປະໂຫຍດທີ່ເປັນໄປໄດ້ຂອງ AI ການສົນທະນາອາດຈະຖືກຮັບຮູ້. ມັນຄວນຈະຖືກປະຕິບັດເປັນ ການ​ຮ່ວມ​ມື​ດ້ານ​ມະ​ນຸດ​ເປັນ​ສູນ​ກາງ​ ດ້ວຍຄໍາຮ້ອງສະຫມັກ AI ການສົນທະນາທີ່ເພີ່ມປະສົບການໃນບ່ອນເຮັດວຽກ. ເຊັ່ນດຽວກັນກັບນະວັດຕະກໍາທັງຫມົດທີ່ໄດ້ຜ່ານໄປ, AI ມີທ່າແຮງທີ່ຈະສ້າງຄວາມຕ້ອງການທັກສະໃຫມ່ແລະເພື່ອເຮັດໃຫ້ວຽກທີ່ແນ່ນອນໄດ້ຮັບລາງວັນຫຼາຍຂຶ້ນ.

ບົດບາດຂອງອົງການນິຕິບັນຍັດແມ່ນຫຍັງ?

ປະຊາທິປະໄຕຂອງເຕັກໂນໂລຢີ AI ຫມາຍເຖິງປະຊາຊົນ ອຳນາດການປົກຄອງຕ້ອງມີບົດບາດຢ່າງຕັ້ງໜ້າໃນການຄວບຄຸມການນຳໃຊ້ຂອງເຂົາເຈົ້າ.  ຄວາມຢ້ານກົວທີ່ກ່ຽວຂ້ອງກັບການປະດິດສ້າງທີ່ລົບກວນແມ່ນແທ້ຈິງ. ເຖິງວ່າຈະມີຄວາມກ້າວຫນ້າຂອງມັນ, ປັນຍາປະດິດຍັງຄົງຂຶ້ນກັບມະນຸດ, ວ່າຈະໃຊ້ມັນຫຼືຄວບຄຸມມັນ. ແທ້ຈິງແລ້ວ, ຕ້ອງມີນັກບິນຢູ່, ພວກເຮົາພຽງແຕ່ບໍ່ຮູ້ວ່າລາວກໍາລັງມຸ່ງຫນ້າໄປໃນຫຼັກສູດໃດ. ມີການເພີ່ມຄວາມກະຕືລືລົ້ນສໍາລັບກົດລະບຽບ AI ທີ່ສົມບູນແບບ, ໂດຍສະເພາະແມ່ນຮ່າງກົດຫມາຍວ່າດ້ວຍປັນຍາທຽມຂອງ EU. ດ້ວຍທ່າແຮງການຮັບຮອງເອົາ AI ການສົນທະນາຢູ່ທົ່ວທຸກແຫ່ງ, ເຊັ່ນ ChatGPT-3, ແຮງຈູງໃຈຂອງລະບຽບການ ແລະ ການປົກຄອງທີ່ເຂັ້ມງວດກວ່ານັ້ນ ແມ່ນການຂະຫຍາຍຕົວກັບ EU ເພື່ອຮັບປະກັນວ່າມາດຕະການຖືກຈັດຕັ້ງຂຶ້ນ. ຫ້າມການນຳໃຊ້ສະເພາະຂອງ AI ການສົນທະນາ ຖືວ່າເປັນການລະເມີດສິດທິມະນຸດຂັ້ນພື້ນຖານ.

Andrew Pery ເປັນ AI Ethics Evangelist ທີ່ບໍລິສັດອັດຕະໂນມັດອັດສະລິຍະ ເອບີບີ. Pery ມີຫຼາຍກວ່າ 25 ປີຂອງປະສົບການ spearheading ໂຄງການການຄຸ້ມຄອງຜະລິດຕະພັນສໍາລັບບໍລິສັດເຕັກໂນໂລຊີຊັ້ນນໍາຂອງໂລກ. ຄວາມຊ່ຽວຊານຂອງລາວແມ່ນຢູ່ໃນອັດຕະໂນມັດຂະບວນການເອກະສານອັດສະລິຍະແລະປັນຍາຂະບວນການທີ່ມີຄວາມຊໍານານໂດຍສະເພາະໃນເຕັກໂນໂລຢີ AI, ຊອບແວຄໍາຮ້ອງສະຫມັກ, ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນແລະຈັນຍາບັນ AI. ລາວໄດ້ຮັບປະລິນຍາໂທທາງດ້ານກົດຫມາຍທີ່ມີຄວາມແຕກຕ່າງຈາກໂຮງຮຽນກົດຫມາຍຂອງ Northwestern University Pritzker ແລະເປັນຜູ້ຊ່ຽວຊານດ້ານຄວາມເປັນສ່ວນຕົວຂໍ້ມູນທີ່ໄດ້ຮັບການຢັ້ງຢືນ.