ຈັນຍາບັນ
ກົດໝາຍວ່າດ້ວຍ AI ຂອງທຳນຽບຂາວໝາຍເຖິງຫຍັງສຳລັບອາເມລິກາ ແລະ ທົ່ວໂລກ
ຫ້ອງການນະໂຍບາຍວິທະຍາສາດ ແລະເຕັກໂນໂລຊີ ຂອງທຳນຽບຂາວ (OSTP) ເມື່ອບໍ່ດົນມານີ້ ປ່ອຍພິມເຈ້ຍຂາວ ເອີ້ນວ່າ "ແຜນຜັງສໍາລັບສິດທິຂອງ AI: ການເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບປະຊາຊົນອາເມລິກາ". ກອບນີ້ໄດ້ຖືກປ່ອຍອອກມາຫນຶ່ງປີຫຼັງຈາກ OSTP ປະກາດການເປີດຕົວຂະບວນການເພື່ອພັດທະນາ "ໃບບິນສິດທິສໍາລັບໂລກທີ່ຂັບເຄື່ອນດ້ວຍ AI."
ຄໍາສໍາຄັນໃນບັນຊີລາຍການນີ້ສະແດງໃຫ້ເຫັນຢ່າງຊັດເຈນວ່າທໍານຽບຂາວເຂົ້າໃຈເຖິງໄພຂົ່ມຂູ່ທີ່ໃກ້ຈະເກີດຂຶ້ນກັບສັງຄົມທີ່ເກີດຂື້ນໂດຍ AI. ນີ້ແມ່ນສິ່ງທີ່ໄດ້ກ່າວໄວ້ໃນຄໍາສໍາຄັນ:
"ໃນບັນດາສິ່ງທ້າທາຍອັນໃຫຍ່ຫຼວງທີ່ເກີດຂື້ນກັບປະຊາທິປະໄຕໃນມື້ນີ້ແມ່ນການນໍາໃຊ້ເຕັກໂນໂລຢີ, ຂໍ້ມູນ, ແລະລະບົບອັດຕະໂນມັດໃນວິທີທີ່ຂົ່ມຂູ່ສິດທິຂອງປະຊາຊົນອາເມລິກາ. ເລື້ອຍໆເກີນໄປ, ເຄື່ອງມືເຫຼົ່ານີ້ຖືກນໍາໃຊ້ເພື່ອຈໍາກັດໂອກາດຂອງພວກເຮົາແລະປ້ອງກັນບໍ່ໃຫ້ພວກເຮົາເຂົ້າເຖິງຊັບພະຍາກອນຫຼືການບໍລິການທີ່ສໍາຄັນ. ບັນຫາເຫຼົ່ານີ້ແມ່ນມີເອກະສານດີ. ໃນອາເມລິກາ ແລະທົ່ວໂລກ, ລະບົບທີ່ຄວນຊ່ວຍເຫຼືອໃນການດູແລຄົນເຈັບໄດ້ພິສູດວ່າບໍ່ປອດໄພ, ບໍ່ມີປະສິດຕິຜົນ, ຫຼືມີຄວາມລຳອຽງ. ສູດການຄິດໄລ່ທີ່ໃຊ້ໃນການຕັດສິນໃຈຈ້າງ ແລະສິນເຊື່ອໄດ້ຖືກພົບເຫັນວ່າສະທ້ອນ ແລະສ້າງຄວາມບໍ່ສະເໝີພາບທີ່ບໍ່ຕ້ອງການທີ່ມີຢູ່ແລ້ວ ຫຼືຝັງຄວາມລຳອຽງທີ່ເປັນອັນຕະລາຍ ແລະການຈໍາແນກໃໝ່. ການເກັບກຳຂໍ້ມູນສື່ສັງຄົມທີ່ບໍ່ໄດ້ກວດກາໄດ້ຖືກນໍາໃຊ້ເພື່ອຂົ່ມຂູ່ໂອກາດຂອງປະຊາຊົນ, ທໍາລາຍຄວາມເປັນສ່ວນຕົວຂອງເຂົາເຈົ້າ, ຫຼືຕິດຕາມການເຄື່ອນໄຫວຂອງເຂົາເຈົ້າຢ່າງແຜ່ຫຼາຍ—ມັກຈະບໍ່ມີຄວາມຮູ້ ຫຼືການຍິນຍອມຂອງເຂົາເຈົ້າ.”
ຮ່າງກົດໝາຍວ່າດ້ວຍສິດນີ້ ແລະຂອບການທີ່ມັນສະເໜີຈະໝາຍເຖິງຫຍັງສຳລັບອະນາຄົດຂອງ AI ຍັງຄົງຈະເຫັນໄດ້. ສິ່ງທີ່ພວກເຮົາຮູ້ແມ່ນວ່າການພັດທະນາໃຫມ່ກໍາລັງເກີດຂື້ນໃນອັດຕາທີ່ເຄີຍມີມາກ່ອນ. ສິ່ງທີ່ເຄີຍເຫັນວ່າເປັນໄປບໍ່ໄດ້, ການແປພາສາທັນທີແມ່ນຄວາມເປັນຈິງແລ້ວ, ແລະໃນເວລາດຽວກັນພວກເຮົາມີການປະຕິວັດຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດ (NLU) ທີ່ນໍາພາໂດຍ OpenAI ແລະເວທີທີ່ມີຊື່ສຽງຂອງພວກເຂົາ. GPT-3.
ຕັ້ງແຕ່ນັ້ນມາພວກເຮົາໄດ້ເຫັນ ການຜະລິດຮູບພາບທັນທີ ໂດຍຜ່ານເຕັກນິກທີ່ເອີ້ນວ່າ Stable Diffusion ທີ່ອາດຈະໄວ ກາຍເປັນຜະລິດຕະພັນຜູ້ບໍລິໂພກຕົ້ນຕໍ. ໂດຍເນື້ອແທ້ແລ້ວດ້ວຍເທກໂນໂລຍີນີ້ຜູ້ໃຊ້ສາມາດພິມແບບສອບຖາມທີ່ພວກເຂົາສາມາດຈິນຕະນາການໄດ້, ແລະຄືກັບ magic AI ຈະສ້າງຮູບພາບທີ່ກົງກັບຄໍາຖາມ.
ໃນເວລາທີ່ປັດໄຈການຂະຫຍາຍຕົວຂອງເລກກໍາລັງແລະ ກົດຫມາຍວ່າດ້ວຍການເລັ່ງການກັບຄືນ ໃນໄວໆນີ້ຈະມາເຖິງເວລາທີ່ AI ໄດ້ຄອບຄອງທຸກໆດ້ານຂອງຊີວິດປະຈໍາວັນ. ບຸກຄົນແລະບໍລິສັດທີ່ຮູ້ເລື່ອງນີ້ແລະໃຊ້ປະໂຍດຈາກການປ່ຽນແປງແບບແຜນນີ້ຈະກໍາໄລ. ແຕ່ຫນ້າເສຍດາຍ, ສັງຄົມສ່ວນໃຫຍ່ອາດຈະຕົກເປັນເຫຍື່ອຂອງຜົນສະທ້ອນທີ່ບໍ່ດີແລະບໍ່ໄດ້ຕັ້ງໃຈຂອງ AI.
ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ມີຈຸດປະສົງເພື່ອສະໜັບສະໜູນການພັດທະນານະໂຍບາຍ ແລະການປະຕິບັດທີ່ປົກປ້ອງສິດທິພົນລະເຮືອນ ແລະສົ່ງເສີມຄຸນຄ່າປະຊາທິປະໄຕໃນການກໍ່ສ້າງ, ການນຳໃຊ້ ແລະການປົກຄອງຂອງລະບົບອັດຕະໂນມັດ. ບັນຊີລາຍການນີ້ຈະປຽບທຽບແນວໃດ ວິທີການຂອງຈີນ ຍັງຄົງເປັນທີ່ເຫັນໄດ້, ແຕ່ມັນແມ່ນບັນຊີລາຍການສິດທິທີ່ມີທ່າແຮງທີ່ຈະປ່ຽນພູມສັນຖານ AI, ແລະມັນເບິ່ງຄືວ່າຈະໄດ້ຮັບການຮັບຮອງເອົາໂດຍພັນທະມິດເຊັ່ນອົດສະຕາລີ, ການາດາ, ແລະ EU.
ການກ່າວວ່າຮ່າງກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ແມ່ນບໍ່ມີຜົນບັງຄັບໃຊ້ ແລະ ບໍ່ແມ່ນເປັນນະໂຍບາຍຂອງລັດຖະບານສະຫະລັດ. ມັນບໍ່ໄດ້ປ່ຽນແທນ, ດັດແກ້, ຫຼືຊີ້ນຳການຕີລາຄາຂອງກົດໝາຍ, ລະບຽບການ, ນະໂຍບາຍ, ຫຼືເຄື່ອງມືສາກົນທີ່ມີຢູ່ແລ້ວ. ອັນນີ້ໝາຍຄວາມວ່າຈະຂຶ້ນກັບວິສາຫະກິດ ແລະລັດຖະບານທີ່ຈະປະຕິບັດບັນດານະໂຍບາຍທີ່ລະບຸໄວ້ໃນປຶ້ມປົກຂາວນີ້.
ຮ່າງກົດໝາຍສະບັບນີ້ໄດ້ກຳນົດ 5 ຫຼັກການທີ່ຄວນຊີ້ນຳໃນການອອກແບບ, ການນຳໃຊ້, ແລະ ການນຳໃຊ້ລະບົບອັດຕະໂນມັດເພື່ອປົກປ້ອງປະຊາຊົນອາເມລິກາໃນຍຸກຂອງປັນຍາປະດິດ, ຂ້າງລຸ່ມນີ້ ພວກເຮົາຈະຍົກອອກ XNUMX ຫຼັກການ:
1. ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ
ມັນເປັນອັນຕະລາຍທີ່ຊັດເຈນແລະປະຈຸບັນຕໍ່ສັງຄົມໂດຍລະບົບ AI ທີ່ຖືກຂົ່ມເຫັງ, ໂດຍສະເພາະຜູ້ທີ່ອີງໃສ່ການຮຽນຮູ້ເລິກເຊິ່ງ. ນີ້ແມ່ນຄວາມພະຍາຍາມທີ່ຈະແກ້ໄຂດ້ວຍຫຼັກການເຫຼົ່ານີ້:
"ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກຄວາມບໍ່ປອດໄພຂອງລະບົບທີ່ບໍ່ມີປະສິດທິພາບ. ລະບົບອັດຕະໂນມັດຄວນໄດ້ຮັບການພັດທະນາດ້ວຍການປຶກສາຫາລືຈາກຊຸມຊົນທີ່ຫຼາກຫຼາຍ, ຜູ້ມີສ່ວນຮ່ວມ, ແລະຜູ້ຊ່ຽວຊານດ້ານໂດເມນເພື່ອກໍານົດຄວາມກັງວົນ, ຄວາມສ່ຽງ, ແລະຜົນກະທົບທີ່ອາດເກີດຂື້ນຂອງລະບົບ. ລະບົບຄວນໄດ້ຮັບການທົດສອບກ່ອນການໃຊ້ງານ, ການກໍານົດຄວາມສ່ຽງແລະການຫຼຸດຜ່ອນ, ແລະການຕິດຕາມຢ່າງຕໍ່ເນື່ອງສະແດງໃຫ້ເຫັນວ່າພວກເຂົາມີຄວາມປອດໄພແລະມີປະສິດທິພາບໂດຍອີງໃສ່ການນໍາໃຊ້ທີ່ຕັ້ງໃຈ, ການຫຼຸດຜ່ອນຜົນໄດ້ຮັບທີ່ບໍ່ປອດໄພລວມທັງສິ່ງທີ່ນອກເຫນືອຈາກການນໍາໃຊ້ທີ່ຕັ້ງໄວ້, ແລະການປະຕິບັດຕາມມາດຕະຖານສະເພາະຂອງໂດເມນ. ຜົນໄດ້ຮັບຂອງມາດຕະການປ້ອງກັນເຫຼົ່ານີ້ຄວນປະກອບມີຄວາມເປັນໄປໄດ້ຂອງການບໍ່ນໍາໃຊ້ລະບົບຫຼືເອົາລະບົບອອກຈາກການນໍາໃຊ້. ລະບົບອັດຕະໂນມັດບໍ່ຄວນຖືກອອກແບບດ້ວຍຄວາມຕັ້ງໃຈຫຼືຄວາມເປັນໄປໄດ້ທີ່ຄາດເດົາໄດ້ຢ່າງສົມເຫດສົມຜົນທີ່ຈະເປັນອັນຕະລາຍຕໍ່ຄວາມປອດໄພຫຼືຄວາມປອດໄພຂອງຊຸມຊົນຂອງທ່ານ. ພວກມັນຄວນຈະຖືກອອກແບບເພື່ອປົກປ້ອງທ່ານຢ່າງຈິງຈັງຈາກອັນຕະລາຍທີ່ເກີດຈາກການບໍ່ໄດ້ຕັ້ງໃຈ, ແຕ່ສາມາດເຫັນໄດ້ລ່ວງໜ້າ, ການນໍາໃຊ້ ຫຼືຜົນກະທົບຂອງລະບົບອັດຕະໂນມັດ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການນໍາໃຊ້ຂໍ້ມູນທີ່ບໍ່ເຫມາະສົມຫຼືບໍ່ກ່ຽວຂ້ອງໃນການອອກແບບ, ການພັດທະນາ, ແລະການນໍາໃຊ້ລະບົບອັດຕະໂນມັດ, ແລະຈາກຄວາມເສຍຫາຍປະສົມຂອງການນໍາໃຊ້ຄືນໃຫມ່ຂອງມັນ. ການປະເມີນຜົນແລະການລາຍງານເອກະລາດທີ່ຢືນຢັນວ່າລະບົບມີຄວາມປອດໄພແລະມີປະສິດທິພາບ, ລວມທັງການລາຍງານຂັ້ນຕອນການປະຕິບັດເພື່ອຫຼຸດຜ່ອນອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ, ຄວນຖືກປະຕິບັດແລະຜົນໄດ້ຮັບຖືກເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້."
2. ການປົກປ້ອງການຈໍາແນກແບບວິທີ
ນະໂຍບາຍເຫຼົ່ານີ້ແກ້ໄຂບາງຊ້າງຢູ່ໃນຫ້ອງການໃນເວລາທີ່ວິສາຫະກິດທາລຸນບຸກຄົນ.
ບັນຫາທົ່ວໄປໃນເວລາທີ່ການຈ້າງພະນັກງານນໍາໃຊ້ລະບົບ AI ທີ່ລະບົບການຮຽນຮູ້ເລິກມັກຈະຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນທີ່ມີຄວາມລໍາອຽງເພື່ອບັນລຸຂໍ້ສະຫຼຸບການຈ້າງ. ນີ້ຫມາຍຄວາມວ່າການຈ້າງງານທີ່ບໍ່ດີໃນອະດີດຈະເຮັດໃຫ້ເກີດການຈໍາແນກທາງເພດຫຼືເຊື້ອຊາດໂດຍຕົວແທນການຈ້າງ. ການສຶກສາຫນຶ່ງຊີ້ໃຫ້ເຫັນ ຄວາມຫຍຸ້ງຍາກຂອງຄວາມພະຍາຍາມທີ່ຈະລົບຂໍ້ມູນການຝຶກອົບຮົມເພດ.
ບັນຫາຫຼັກອີກອັນໜຶ່ງທີ່ມີຂໍ້ມູນອະຄະຕິໂດຍລັດຖະບານແມ່ນ ສ່ຽງຕໍ່ການຖືກຄຸມຂັງທີ່ຜິດ, ຫຼືຮ້າຍແຮງກວ່າເກົ່າ ສູດການຄິດໄລ່ທາງອາຍາ ທີ່ສະເໜີໃຫ້ມີການຕັດສິນໂທດຈຳຄຸກແກ່ຊົນກຸ່ມນ້ອຍທີ່ຍາວກວ່າ.
"ທ່ານບໍ່ຄວນປະເຊີນກັບການຈໍາແນກໂດຍສູດການຄິດໄລ່ແລະລະບົບຄວນຈະຖືກນໍາໃຊ້ແລະອອກແບບໃນທາງທີ່ເທົ່າທຽມກັນ. ການຈຳແນກລະບົບອັດຕະໂນມັດເກີດຂຶ້ນເມື່ອລະບົບອັດຕະໂນມັດປະກອບສ່ວນເຂົ້າໃນການປິ່ນປົວທີ່ບໍ່ຍຸຕິທຳ ຫຼືຜົນກະທົບຕໍ່ຄົນທີ່ບໍ່ພໍໃຈໂດຍອີງຕາມເຊື້ອຊາດ, ສີຜິວ, ຊົນເຜົ່າ, ເພດ (ລວມທັງການຖືພາ, ການເກີດລູກ, ແລະເງື່ອນໄຂທາງການແພດທີ່ກ່ຽວຂ້ອງ, ຕົວຕົນທາງເພດ, ສະຖານະພາບລະຫວ່າງເພດ, ແລະທັດສະນະທາງເພດ) ສາດສະໜາ, ອາຍຸ, ຊາດກຳເນີດ, ຄວາມພິການ, ສະຖານະພາບນັກຮົບເກົ່າ, ຂໍ້ມູນພັນທຸກໍາ, ຫຼືການຈັດປະເພດອື່ນໆທີ່ປົກປ້ອງໂດຍກົດໝາຍ. ອີງຕາມສະຖານະການສະເພາະ, ເຊັ່ນ: ການຈໍາແນກລະບົບ algorithmic ອາດຈະລະເມີດການປົກປ້ອງທາງດ້ານກົດຫມາຍ. ຜູ້ອອກແບບ, ຜູ້ພັດທະນາ, ແລະຜູ້ນຳໃຊ້ລະບົບອັດຕະໂນມັດຄວນໃຊ້ມາດຕະການຢ່າງຕັ້ງໜ້າ ແລະ ຢ່າງຕໍ່ເນື່ອງເພື່ອປົກປ້ອງບຸກຄົນ ແລະ ຊຸມຊົນຈາກການຈຳແນກລະບົບ algorithmic ແລະນຳໃຊ້ ແລະ ອອກແບບລະບົບຢ່າງສະເໝີພາບ. ການປົກປ້ອງນີ້ຄວນປະກອບມີການປະເມີນຄວາມສະເຫມີພາບແບບຕັ້ງຫນ້າເປັນສ່ວນຫນຶ່ງຂອງການອອກແບບລະບົບ, ການນໍາໃຊ້ຂໍ້ມູນຕົວແທນແລະການປົກປ້ອງຕົວແທນສໍາລັບລັກສະນະປະຊາກອນ, ຮັບປະກັນການເຂົ້າເຖິງສໍາລັບຄົນພິການໃນການອອກແບບແລະການພັດທະນາ, ການປະຕິບັດກ່ອນການປະຕິບັດແລະການທົດສອບຄວາມບໍ່ສົມດຸນຢ່າງຕໍ່ເນື່ອງ, ແລະອົງການຈັດຕັ້ງທີ່ຊັດເຈນ. ກວດກາ. ການປະເມີນເອກະລາດແລະການລາຍງານພາສາທໍາມະດາໃນຮູບແບບການປະເມີນຜົນກະທົບຂອງລະບົບວິທີ, ລວມທັງຜົນການທົດສອບຄວາມບໍ່ສົມດຸນແລະຂໍ້ມູນການຫຼຸດຜ່ອນ, ຄວນຖືກປະຕິບັດແລະເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້ເພື່ອຢືນຢັນການປົກປ້ອງເຫຼົ່ານີ້."
ຄວນສັງເກດວ່າສະຫະລັດໄດ້ປະຕິບັດວິທີການທີ່ມີຄວາມໂປ່ງໃສຫຼາຍເມື່ອເວົ້າເຖິງ AI, ນີ້ແມ່ນນະໂຍບາຍທີ່ຖືກອອກແບບເພື່ອປົກປ້ອງປະຊາຊົນທົ່ວໄປ, ກົງກັນຂ້າມຢ່າງຈະແຈ້ງກັບວິທີການ AI ປະຕິບັດໂດຍຈີນ.
3. ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ
ຫຼັກການຄວາມເປັນສ່ວນຕົວຂໍ້ມູນນີ້ແມ່ນຫນຶ່ງທີ່ມີແນວໂນ້ມທີ່ສຸດທີ່ຈະມີຜົນກະທົບສ່ວນໃຫຍ່ທີ່ສຸດຂອງປະຊາກອນ. ເຄິ່ງທໍາອິດຂອງຫຼັກການເບິ່ງຄືວ່າມີຄວາມກັງວົນກ່ຽວກັບການລວບລວມຂໍ້ມູນ, ໂດຍສະເພາະກັບຂໍ້ມູນທີ່ເກັບກໍາຜ່ານອິນເຕີເນັດ, ເປັນບັນຫາທີ່ຮູ້ຈັກໂດຍສະເພາະສໍາລັບເວທີສື່ມວນຊົນສັງຄົມ. ຂໍ້ມູນດຽວກັນນີ້ສາມາດຖືກນໍາໃຊ້ເພື່ອຂາຍໂຄສະນາ, ຫຼືຮ້າຍແຮງກວ່າເກົ່າ ໝູນໃຊ້ຄວາມຮູ້ສຶກຂອງປະຊາຊົນ ແລະ ເພື່ອໃຫ້ການເລືອກຕັ້ງ.
"ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການປະຕິບັດຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໂດຍຜ່ານການປົກປ້ອງທີ່ມີໃນຕົວແລະທ່ານຄວນມີອົງການກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນຂອງທ່ານ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການລະເມີດຄວາມເປັນສ່ວນຕົວໂດຍຜ່ານທາງເລືອກໃນການອອກແບບທີ່ຮັບປະກັນວ່າການປົກປ້ອງດັ່ງກ່າວຈະຖືກລວມເຂົ້າໂດຍຄ່າເລີ່ມຕົ້ນ, ລວມທັງການຮັບປະກັນວ່າການລວບລວມຂໍ້ມູນສອດຄ່ອງກັບຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນ, ແລະພຽງແຕ່ຂໍ້ມູນທີ່ຈໍາເປັນຢ່າງເຂັ້ມງວດສໍາລັບສະພາບການສະເພາະແມ່ນເກັບກໍາ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ນໍາໃຊ້ລະບົບອັດຕະໂນມັດຄວນຊອກຫາການອະນຸຍາດຂອງທ່ານແລະເຄົາລົບການຕັດສິນໃຈຂອງທ່ານກ່ຽວກັບການເກັບກໍາ, ການນໍາໃຊ້, ການເຂົ້າເຖິງ, ການໂອນແລະການລຶບຂໍ້ມູນຂອງທ່ານໃນວິທີການທີ່ເຫມາະສົມແລະໃນຂອບເຂດສູງສຸດທີ່ເປັນໄປໄດ້; ບ່ອນທີ່ເປັນໄປບໍ່ໄດ້, ຄວາມເປັນສ່ວນຕົວທາງເລືອກໂດຍການປົກປ້ອງການອອກແບບຄວນຖືກນໍາໃຊ້. ລະບົບບໍ່ຄວນໃຊ້ປະສົບການຂອງຜູ້ໃຊ້ ແລະການຕັດສິນໃຈອອກແບບທີ່ລົບກວນການເລືອກຂອງຜູ້ໃຊ້ ຫຼືພາລະໃຫ້ຜູ້ໃຊ້ທີ່ມີຄ່າເລີ່ມຕົ້ນທີ່ເປັນຄວາມເປັນສ່ວນຕົວ. ການຍິນຍອມເຫັນດີຄວນຈະຖືກນໍາໃຊ້ເພື່ອພຽງແຕ່ເປັນການລວບລວມຂໍ້ມູນໃນກໍລະນີທີ່ມັນສາມາດໃຫ້ໄດ້ຢ່າງເຫມາະສົມແລະມີຄວາມຫມາຍ. ການຮ້ອງຂໍການຍິນຍອມເຫັນດີຄວນຈະສັ້ນ, ເຂົ້າໃຈໄດ້ໃນພາສາທໍາມະດາ, ແລະໃຫ້ທ່ານອົງການກ່ຽວກັບການເກັບກໍາຂໍ້ມູນແລະສະພາບການສະເພາະຂອງການນໍາໃຊ້; ການປະຕິບັດແຈ້ງການແລະທາງເລືອກທີ່ຍາກທີ່ຈະເຂົ້າໃຈໃນປະຈຸບັນສໍາລັບການນໍາໃຊ້ຂໍ້ມູນຢ່າງກວ້າງຂວາງຄວນຈະມີການປ່ຽນແປງ."
ເຄິ່ງທີ່ສອງຂອງຫຼັກການຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນເບິ່ງຄືວ່າມີຄວາມກັງວົນກ່ຽວກັບການເຝົ້າລະວັງຈາກທັງລັດຖະບານແລະວິສາຫະກິດ.
ປະຈຸບັນ, ບັນດາວິສາຫະກິດສາມາດຕິດຕາມ ແລະ ສອດແນມພະນັກງານ, ໃນບາງກໍລະນີອາດຈະ ປັບປຸງຄວາມປອດໄພໃນບ່ອນເຮັດວຽກໃນໄລຍະທີ່ໂລກລະບາດໂຄວິດ-19 ແມ່ນການບັງຄັບໃຫ້ໃສ່ໜ້າກາກ, ສ່ວນຫລາຍແມ່ນເຮັດງ່າຍໆເພື່ອຕິດຕາມເບິ່ງການໃຊ້ເວລາໃນການເຮັດວຽກ. ໃນຫຼາຍໆກໍລະນີເຫຼົ່ານີ້, ພະນັກງານມີຄວາມຮູ້ສຶກຄືກັບວ່າພວກເຂົາຖືກຕິດຕາມແລະຄວບຄຸມເກີນກວ່າທີ່ຖືວ່າເປັນການຍອມຮັບ.
"ການເສີມການປົກປ້ອງແລະຂໍ້ຈໍາກັດສໍາລັບຂໍ້ມູນແລະການອ້າງອິງທີ່ກ່ຽວຂ້ອງກັບໂດເມນທີ່ລະອຽດອ່ອນ, ລວມທັງສຸຂະພາບ, ການເຮັດວຽກ, ການສຶກສາ, ຄວາມຍຸດຕິທໍາທາງອາຍາ, ແລະການເງິນ, ແລະສໍາລັບຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບໄວຫນຸ່ມຄວນເອົາໃຈໃສ່ທ່ານກ່ອນ. ໃນໂດເມນທີ່ລະອຽດອ່ອນ, ຂໍ້ມູນຂອງທ່ານແລະການສະຫຼຸບທີ່ກ່ຽວຂ້ອງຄວນຈະຖືກນໍາໃຊ້ພຽງແຕ່ສໍາລັບຫນ້າທີ່ທີ່ຈໍາເປັນ, ແລະທ່ານຄວນໄດ້ຮັບການປົກປ້ອງໂດຍການທົບທວນດ້ານຈັນຍາບັນແລະການນໍາໃຊ້ຂໍ້ຫ້າມ. ທ່ານແລະຊຸມຊົນຂອງທ່ານຄວນຈະເປັນອິດສະຫຼະຈາກການເຝົ້າລະວັງທີ່ບໍ່ມີການກວດສອບ; ເທັກໂນໂລຍີການເຝົ້າລະວັງຄວນຢູ່ພາຍໃຕ້ການກວດກາທີ່ສູງຂື້ນ ເຊິ່ງລວມມີການປະເມີນລ່ວງໜ້າຢ່າງໜ້ອຍການນຳໃຊ້ກ່ຽວກັບອັນຕະລາຍທີ່ອາດເກີດຂຶ້ນ ແລະຂີດຈຳກັດຂອບເຂດເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວ ແລະ ເສລີພາບຂອງພົນລະເມືອງ. ການເຝົ້າລະວັງແລະການຕິດຕາມຢ່າງຕໍ່ເນື່ອງບໍ່ຄວນຖືກນໍາໃຊ້ໃນການສຶກສາ, ການເຮັດວຽກ, ທີ່ຢູ່ອາໄສ, ຫຼືໃນສະພາບການອື່ນໆທີ່ການນໍາໃຊ້ເຕັກໂນໂລຢີການເຝົ້າລະວັງດັ່ງກ່າວມີແນວໂນ້ມທີ່ຈະຈໍາກັດສິດ, ໂອກາດ, ຫຼືການເຂົ້າເຖິງ. ເມື່ອໃດກໍ່ຕາມທີ່ເປັນໄປໄດ້ທ່ານຄວນມີການເຂົ້າເຖິງການລາຍງານທີ່ຢືນຢັນວ່າການຕັດສິນໃຈຂໍ້ມູນຂອງທ່ານໄດ້ຮັບການເຄົາລົບແລະສະຫນອງການປະເມີນຜົນກະທົບທີ່ເປັນໄປໄດ້ຂອງເຕັກໂນໂລຢີການເຝົ້າລະວັງຕໍ່ສິດທິ, ໂອກາດ, ຫຼືການເຂົ້າເຖິງຂອງທ່ານ."
ມັນຄວນຈະສັງເກດເຫັນວ່າ AI ສາມາດຖືກນໍາໃຊ້ເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງປະຊາຊົນ.
4. ແຈ້ງການ ແລະ ຄໍາອະທິບາຍ
ນີ້ຄວນຈະແມ່ນການຮຽກຮ້ອງໃຫ້ອາວຸດເພື່ອໃຫ້ວິສາຫະກິດຈັດຕັ້ງປະຕິບັດ ຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AIພ້ອມທັງຊຸກຍູ້ການເລັ່ງລັດການພັດທະນາ AI ທີ່ສາມາດອະທິບາຍໄດ້. AI ທີ່ສາມາດອະທິບາຍໄດ້ແມ່ນມີຄວາມຈໍາເປັນໃນກໍລະນີທີ່ຕົວແບບ AI ເຮັດຜິດພາດ, ຄວາມເຂົ້າໃຈວິທີການເຮັດວຽກຂອງ AI ຊ່ວຍໃຫ້ການວິນິດໄສບັນຫາທີ່ງ່າຍ.
AI ທີ່ສາມາດອະທິບາຍໄດ້ຍັງຈະອະນຸຍາດໃຫ້ແບ່ງປັນຂໍ້ມູນຢ່າງໂປ່ງໃສກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນ, ແລະເປັນຫຍັງການຕັດສິນໃຈແມ່ນເຮັດໂດຍ AI. ຖ້າບໍ່ມີ AI ທີ່ສາມາດອະທິບາຍໄດ້, ມັນຈະເປັນໄປບໍ່ໄດ້ທີ່ຈະປະຕິບັດຕາມນະໂຍບາຍເຫຼົ່ານີ້ເນື່ອງຈາກ ບັນຫາ blackbox ຂອງການຮຽນຮູ້ເລິກ.
ວິສາຫະກິດທີ່ສຸມໃສ່ການປັບປຸງລະບົບເຫຼົ່ານີ້ຍັງຈະໄດ້ຮັບຜົນປະໂຫຍດໃນທາງບວກຈາກຄວາມເຂົ້າໃຈ nuances ແລະຄວາມສັບສົນທີ່ຢູ່ເບື້ອງຫລັງວ່າເປັນຫຍັງ algorithm ການຮຽນຮູ້ເລິກເຮັດໃຫ້ການຕັດສິນໃຈສະເພາະໃດຫນຶ່ງ.
"ທ່ານຄວນຮູ້ວ່າລະບົບອັດຕະໂນມັດຖືກນໍາໃຊ້ແລະເຂົ້າໃຈວິທີການແລະເຫດຜົນທີ່ມັນປະກອບສ່ວນກັບຜົນໄດ້ຮັບທີ່ມີຜົນກະທົບທ່ານ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ຈັດວາງລະບົບອັດຕະໂນມັດຄວນໃຫ້ເອກະສານພາສາທໍາມະດາທີ່ສາມາດເຂົ້າເຖິງໄດ້ໂດຍທົ່ວໄປລວມທັງຄໍາອະທິບາຍທີ່ຊັດເຈນຂອງການເຮັດວຽກຂອງລະບົບໂດຍລວມແລະບົດບາດຂອງລະບົບອັດຕະໂນມັດ, ສັງເກດເຫັນວ່າລະບົບດັ່ງກ່າວຢູ່ໃນການນໍາໃຊ້, ບຸກຄົນຫຼືອົງການຈັດຕັ້ງທີ່ຮັບຜິດຊອບຂອງລະບົບ, ແລະຄໍາອະທິບາຍ. ຜົນໄດ້ຮັບທີ່ຈະແຈ້ງ, ທັນເວລາ, ແລະສາມາດເຂົ້າເຖິງໄດ້. ແຈ້ງການດັ່ງກ່າວຄວນຈະຖືກເກັບຮັກສາໄວ້ເປັນທັນສະໄຫມແລະປະຊາຊົນທີ່ໄດ້ຮັບຜົນກະທົບຈາກລະບົບຄວນໄດ້ຮັບການແຈ້ງໃຫ້ຊາບກ່ຽວກັບກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນຫຼືການປ່ຽນແປງການເຮັດວຽກທີ່ສໍາຄັນ. ທ່ານຄວນຮູ້ວິທີການແລະເຫດຜົນທີ່ຜົນໄດ້ຮັບຜົນກະທົບຕໍ່ທ່ານຖືກກໍານົດໂດຍລະບົບອັດຕະໂນມັດ, ລວມທັງເວລາທີ່ລະບົບອັດຕະໂນມັດບໍ່ແມ່ນວັດສະດຸປ້ອນດຽວທີ່ກໍານົດຜົນໄດ້ຮັບ. ລະບົບອັດຕະໂນມັດຄວນໃຫ້ຄໍາອະທິບາຍທີ່ຖືກຕ້ອງທາງດ້ານວິຊາການ, ມີຄວາມຫມາຍແລະເປັນປະໂຫຍດສໍາລັບທ່ານແລະຜູ້ປະຕິບັດງານຫຼືຜູ້ອື່ນທີ່ຕ້ອງການເຂົ້າໃຈລະບົບ, ແລະປັບລະດັບຄວາມສ່ຽງໂດຍອີງໃສ່ເນື້ອຫາ. ບົດລາຍງານທີ່ປະກອບມີຂໍ້ມູນສະຫຼຸບກ່ຽວກັບລະບົບອັດຕະໂນມັດເຫຼົ່ານີ້ໃນພາສາທໍາມະດາແລະການປະເມີນຄວາມຊັດເຈນແລະຄຸນນະພາບຂອງຫນັງສືແຈ້ງການແລະຄໍາອະທິບາຍຄວນຖືກເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້."
5. ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ
ບໍ່ເຫມືອນກັບຫຼັກການຂ້າງເທິງສ່ວນໃຫຍ່, ຫຼັກການນີ້ແມ່ນໃຊ້ໄດ້ຫຼາຍທີ່ສຸດກັບຫນ່ວຍງານຂອງລັດຖະບານ, ຫຼືສະຖາບັນເອກະຊົນທີ່ເຮັດວຽກໃນນາມຂອງລັດຖະບານ.
ເຖິງແມ່ນວ່າມີຄະນະກໍາມະການດ້ານຈັນຍາບັນ AI, ແລະ AI ທີ່ສາມາດອະທິບາຍໄດ້, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະປະຕິເສດການທົບທວນຄືນຂອງມະນຸດໃນເວລາທີ່ຊີວິດຢູ່ໃນບັນຫາ. ມີຄວາມເປັນໄປໄດ້ສະເຫມີສໍາລັບຄວາມຜິດພາດ, ແລະການທົບທວນຂອງມະນຸດກໍລະນີທີ່ຮ້ອງຂໍສາມາດຫລີກລ້ຽງສະຖານະການເຊັ່ນ: AI ສົ່ງຄົນຜິດໄປຄຸກ.
ລະບົບຕຸລາການແລະອາຊະຍາກໍາມີພື້ນທີ່ຫຼາຍທີ່ສຸດທີ່ຈະເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍທີ່ບໍ່ສາມາດແກ້ໄຂໄດ້ຕໍ່ສະມາຊິກຂອງສັງຄົມທີ່ດ້ອຍໂອກາດແລະຄວນເອົາໃຈໃສ່ເປັນພິເສດຕໍ່ຫຼັກການນີ້.
“ເຈົ້າຄວນຈະສາມາດເລືອກອອກໄດ້, ຖ້າເໝາະສົມ, ແລະເຂົ້າເຖິງບຸກຄົນທີ່ສາມາດພິຈາລະນາ ແລະແກ້ໄຂບັນດາບັນຫາທີ່ເຈົ້າພົບໄດ້ຢ່າງວ່ອງໄວ. ທ່ານຄວນຈະສາມາດເລືອກອອກຈາກລະບົບອັດຕະໂນມັດໃນເງື່ອນໄຂທີ່ເປັນທາງເລືອກຂອງມະນຸດ, ຕາມຄວາມເຫມາະສົມ. ຄວາມເຫມາະສົມຄວນຈະຖືກກໍານົດໂດຍອີງໃສ່ຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນໃນສະພາບການໃດຫນຶ່ງແລະສຸມໃສ່ການຮັບປະກັນການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງແລະປົກປ້ອງປະຊາຊົນຈາກຜົນກະທົບທີ່ເປັນອັນຕະລາຍໂດຍສະເພາະ. ໃນບາງກໍລະນີ, ມະນຸດ ຫຼືທາງເລືອກອື່ນອາດຈະຖືກກຳນົດໂດຍກົດໝາຍ. ທ່ານຄວນມີການເຂົ້າເຖິງການພິຈາລະນາຂອງມະນຸດທີ່ທັນເວລາແລະການແກ້ໄຂໂດຍບັນຫາຫຼຸດລົງແລະການເພີ່ມຂື້ນຖ້າລະບົບອັດຕະໂນມັດໃດໆລົ້ມເຫລວ, ມັນເຮັດໃຫ້ເກີດຄວາມຜິດພາດ, ຫຼືທ່ານຕ້ອງການອຸທອນ, ຫຼືໂຕ້ແຍ້ງຜົນກະທົບຂອງມັນກັບທ່ານ. ການພິຈາລະນາແລະການຫຼຸດລົງຂອງມະນຸດຄວນຈະສາມາດເຂົ້າເຖິງໄດ້, ມີຄວາມສະເຫມີພາບ, ປະສິດທິຜົນ, ການຮັກສາໄວ້, ພ້ອມກັບການຝຶກອົບຮົມຂອງຜູ້ປະຕິບັດງານທີ່ເຫມາະສົມ, ແລະບໍ່ຄວນສ້າງພາລະທີ່ບໍ່ສົມເຫດສົມຜົນຕໍ່ສາທາລະນະ. ລະບົບອັດຕະໂນມັດທີ່ມີການນໍາໃຊ້ທີ່ມີຈຸດປະສົງພາຍໃນໂດເມນທີ່ລະອຽດອ່ອນ, ລວມທັງ, ແຕ່ບໍ່ຈໍາກັດ, ລະບົບອາຊະຍາກໍາ, ການຈ້າງງານ, ການສຶກສາ, ແລະສຸຂະພາບ, ຄວນຖືກປັບໃຫ້ເຫມາະສົມກັບຈຸດປະສົງ, ສະຫນອງການເຂົ້າເຖິງການຄວບຄຸມທີ່ມີຄວາມຫມາຍ, ລວມທັງການຝຶກອົບຮົມສໍາລັບປະຊາຊົນໃດໆທີ່ພົວພັນກັບລະບົບ. , ແລະລວມເອົາການພິຈາລະນາຂອງມະນຸດສໍາລັບການຕັດສິນໃຈທີ່ບໍ່ດີຫຼືມີຄວາມສ່ຽງສູງ. ການລາຍງານທີ່ລວມມີລາຍລະອຽດກ່ຽວກັບຂະບວນການຄຸ້ມຄອງມະນຸດເຫຼົ່ານີ້ແລະການປະເມີນຜົນຂອງການທັນເວລາ, ການເຂົ້າເຖິງ, ຜົນໄດ້ຮັບ, ແລະປະສິດທິຜົນຂອງເຂົາເຈົ້າຄວນໄດ້ຮັບການປະຕິບັດຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້.”
Summary
OSTP ຄວນໄດ້ຮັບສິນເຊື່ອສໍາລັບຄວາມພະຍາຍາມທີ່ຈະແນະນໍາກອບທີ່ເຊື່ອມຕໍ່ອະນຸສັນຍາຄວາມປອດໄພທີ່ຈໍາເປັນສໍາລັບສັງຄົມ, ໂດຍບໍ່ມີການແນະນໍານະໂຍບາຍທີ່ຮຸນແຮງທີ່ສາມາດຂັດຂວາງຄວາມກ້າວຫນ້າໃນການພັດທະນາການຮຽນຮູ້ເຄື່ອງຈັກ.
ພາຍຫຼັງບັນດາຫຼັກການໄດ້ລະບຸໄວ້ແລ້ວ, ຮ່າງກົດໝາຍດັ່ງກ່າວໄດ້ສືບຕໍ່ໂດຍໃຫ້ຄູ່ຮ່ວມທາງດ້ານວິຊາການກ່ຽວກັບບັນດາບັນຫາທີ່ໄດ້ປຶກສາຫາລື ພ້ອມທັງໃຫ້ຂໍ້ມູນລະອຽດກ່ຽວກັບແຕ່ລະຫຼັກການ ແລະ ວິທີທີ່ດີທີ່ສຸດເພື່ອກ້າວໄປຂ້າງໜ້າເພື່ອຈັດຕັ້ງປະຕິບັດບັນດາຫຼັກການດັ່ງກ່າວ.
ບັນດາເຈົ້າຂອງວິສາຫະກິດ ແລະ ວິສາຫະກິດທີ່ມີສະຕິປັນຍາຄວນເອົາໃຈໃສ່ ສຶກສາບັນຊີລາຍການນີ້, ເນື່ອງຈາກວ່າມັນພຽງແຕ່ສາມາດເປັນປະໂຫຍດທີ່ຈະປະຕິບັດນະໂຍບາຍເຫຼົ່ານີ້ໄວເທົ່າທີ່ເປັນໄປໄດ້.
AI ທີ່ສາມາດອະທິບາຍໄດ້ຈະສືບຕໍ່ຄອບຄຸມຄວາມສໍາຄັນ, ດັ່ງທີ່ເຫັນໄດ້ຈາກຄໍາເວົ້ານີ້ຈາກບັນຊີລາຍການ.
"ໃນທົ່ວລັດຖະບານກາງ, ອົງການຕ່າງໆກໍາລັງດໍາເນີນການແລະສະຫນັບສະຫນູນການຄົ້ນຄວ້າກ່ຽວກັບລະບົບ AI ທີ່ສາມາດອະທິບາຍໄດ້. NIST ກໍາລັງດໍາເນີນການຄົ້ນຄ້ວາພື້ນຖານກ່ຽວກັບການອະທິບາຍຂອງລະບົບ AI. ທີມນັກຄົ້ນຄ້ວາຫຼາຍວິຊາມີຈຸດປະສົງເພື່ອພັດທະນາວິທີການວັດແທກແລະການປະຕິບັດທີ່ດີທີ່ສຸດເພື່ອສະຫນັບສະຫນູນການປະຕິບັດຫຼັກການຫຼັກຂອງ AI ທີ່ສາມາດອະທິບາຍໄດ້. ອົງການໂຄງການຄົ້ນຄ້ວາຂັ້ນສູງຂອງປ້ອງກັນປະເທດມີໂຄງການກ່ຽວກັບປັນຍາປະດິດທີ່ອະທິບາຍໄດ້ ເຊິ່ງມີຈຸດປະສົງເພື່ອສ້າງຊຸດເຕັກນິກການຮຽນຮູ້ເຄື່ອງຈັກທີ່ຜະລິດແບບຈໍາລອງທີ່ອະທິບາຍໄດ້ຫຼາຍຂຶ້ນ, ໃນຂະນະທີ່ຮັກສາປະສິດທິພາບການຮຽນຮູ້ໃນລະດັບສູງ (ຄວາມຖືກຕ້ອງຂອງການຄາດຄະເນ), ແລະເຮັດໃຫ້ຜູ້ໃຊ້ຂອງມະນຸດເຂົ້າໃຈ, ເຫມາະສົມ. ຄວາມໄວ້ເນື້ອເຊື່ອໃຈ, ແລະການຄຸ້ມຄອງປະສິດທິຜົນການຜະລິດຂອງຄູ່ຮ່ວມງານທີ່ມີອັດສະລິຍະປອມ. ໂຄງການຂອງມູນນິທິວິທະຍາສາດແຫ່ງຊາດກ່ຽວກັບຄວາມຍຸດຕິທໍາໃນປັນຍາປະດິດຍັງປະກອບມີຄວາມສົນໃຈສະເພາະໃນພື້ນຖານການຄົ້ນຄວ້າສໍາລັບ AI ທີ່ສາມາດອະທິບາຍໄດ້.”
ສິ່ງທີ່ບໍ່ຄວນເບິ່ງຂ້າມ, ໃນທີ່ສຸດຫຼັກການທີ່ໄດ້ລະບຸໄວ້ໃນນີ້ຈະກາຍເປັນມາດຕະຖານໃຫມ່.