ກ້ານໃບ ກົດໝາຍວ່າດ້ວຍສິດທິ AI ຂອງທຳນຽບຂາວໝາຍເຖິງຫຍັງສຳລັບອາເມລິກາ ແລະປະເທດອື່ນໆຂອງໂລກ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຈັນຍາບັນ

ກົດໝາຍວ່າດ້ວຍ AI ຂອງທຳນຽບຂາວໝາຍເຖິງຫຍັງສຳລັບອາເມລິກາ ແລະ ທົ່ວໂລກ

mm
ການປັບປຸງ on

ຫ້ອງການນະໂຍບາຍວິທະຍາສາດ ແລະເຕັກໂນໂລຊີ ຂອງທຳນຽບຂາວ (OSTP) ເມື່ອບໍ່ດົນມານີ້ ປ່ອຍ​ພິມ​ເຈ້ຍ​ຂາວ​ ເອີ້ນວ່າ "ແຜນຜັງສໍາລັບສິດທິຂອງ AI: ການເຮັດໃຫ້ລະບົບອັດຕະໂນມັດເຮັດວຽກສໍາລັບປະຊາຊົນອາເມລິກາ". ກອບນີ້ໄດ້ຖືກປ່ອຍອອກມາຫນຶ່ງປີຫຼັງຈາກ OSTP ປະກາດການເປີດຕົວຂະບວນການເພື່ອພັດທະນາ "ໃບບິນສິດທິສໍາລັບໂລກທີ່ຂັບເຄື່ອນດ້ວຍ AI."

ຄໍາສໍາຄັນໃນບັນຊີລາຍການນີ້ສະແດງໃຫ້ເຫັນຢ່າງຊັດເຈນວ່າທໍານຽບຂາວເຂົ້າໃຈເຖິງໄພຂົ່ມຂູ່ທີ່ໃກ້ຈະເກີດຂຶ້ນກັບສັງຄົມທີ່ເກີດຂື້ນໂດຍ AI. ນີ້ແມ່ນສິ່ງທີ່ໄດ້ກ່າວໄວ້ໃນຄໍາສໍາຄັນ:

"ໃນບັນດາສິ່ງທ້າທາຍອັນໃຫຍ່ຫຼວງທີ່ເກີດຂື້ນກັບປະຊາທິປະໄຕໃນມື້ນີ້ແມ່ນການນໍາໃຊ້ເຕັກໂນໂລຢີ, ຂໍ້ມູນ, ແລະລະບົບອັດຕະໂນມັດໃນວິທີທີ່ຂົ່ມຂູ່ສິດທິຂອງປະຊາຊົນອາເມລິກາ. ເລື້ອຍໆເກີນໄປ, ເຄື່ອງມືເຫຼົ່ານີ້ຖືກນໍາໃຊ້ເພື່ອຈໍາກັດໂອກາດຂອງພວກເຮົາແລະປ້ອງກັນບໍ່ໃຫ້ພວກເຮົາເຂົ້າເຖິງຊັບພະຍາກອນຫຼືການບໍລິການທີ່ສໍາຄັນ. ບັນຫາເຫຼົ່ານີ້ແມ່ນມີເອກະສານດີ. ໃນອາເມລິກາ ແລະທົ່ວໂລກ, ລະບົບທີ່ຄວນຊ່ວຍເຫຼືອໃນການດູແລຄົນເຈັບໄດ້ພິສູດວ່າບໍ່ປອດໄພ, ບໍ່ມີປະສິດຕິຜົນ, ຫຼືມີຄວາມລຳອຽງ. ສູດການຄິດໄລ່ທີ່ໃຊ້ໃນການຕັດສິນໃຈຈ້າງ ແລະສິນເຊື່ອໄດ້ຖືກພົບເຫັນວ່າສະທ້ອນ ແລະສ້າງຄວາມບໍ່ສະເໝີພາບທີ່ບໍ່ຕ້ອງການທີ່ມີຢູ່ແລ້ວ ຫຼືຝັງຄວາມລຳອຽງທີ່ເປັນອັນຕະລາຍ ແລະການຈໍາແນກໃໝ່. ການເກັບກຳຂໍ້ມູນສື່ສັງຄົມທີ່ບໍ່ໄດ້ກວດກາໄດ້ຖືກນໍາໃຊ້ເພື່ອຂົ່ມຂູ່ໂອກາດຂອງປະຊາຊົນ, ທໍາລາຍຄວາມເປັນສ່ວນຕົວຂອງເຂົາເຈົ້າ, ຫຼືຕິດຕາມການເຄື່ອນໄຫວຂອງເຂົາເຈົ້າຢ່າງແຜ່ຫຼາຍ—ມັກຈະບໍ່ມີຄວາມຮູ້ ຫຼືການຍິນຍອມຂອງເຂົາເຈົ້າ.”

ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ສິດ​ນີ້ ​ແລະ​ຂອບ​ການ​ທີ່​ມັນ​ສະ​ເໜີ​ຈະ​ໝາຍ​ເຖິງ​ຫຍັງ​ສຳລັບ​ອະນາຄົດ​ຂອງ AI ຍັງ​ຄົງ​ຈະ​ເຫັນ​ໄດ້. ສິ່ງທີ່ພວກເຮົາຮູ້ແມ່ນວ່າການພັດທະນາໃຫມ່ກໍາລັງເກີດຂື້ນໃນອັດຕາທີ່ເຄີຍມີມາກ່ອນ. ສິ່ງທີ່ເຄີຍເຫັນວ່າເປັນໄປບໍ່ໄດ້, ການແປພາສາທັນທີແມ່ນຄວາມເປັນຈິງແລ້ວ, ແລະໃນເວລາດຽວກັນພວກເຮົາມີການປະຕິວັດຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດ (NLU) ທີ່ນໍາພາໂດຍ OpenAI ແລະເວທີທີ່ມີຊື່ສຽງຂອງພວກເຂົາ. GPT-3.

ຕັ້ງ​ແຕ່​ນັ້ນ​ມາ​ພວກ​ເຮົາ​ໄດ້​ເຫັນ​ ການຜະລິດຮູບພາບທັນທີ ໂດຍຜ່ານເຕັກນິກທີ່ເອີ້ນວ່າ Stable Diffusion ທີ່ອາດຈະໄວ ກາຍເປັນຜະລິດຕະພັນຜູ້ບໍລິໂພກຕົ້ນຕໍ. ໂດຍເນື້ອແທ້ແລ້ວດ້ວຍເທກໂນໂລຍີນີ້ຜູ້ໃຊ້ສາມາດພິມແບບສອບຖາມທີ່ພວກເຂົາສາມາດຈິນຕະນາການໄດ້, ແລະຄືກັບ magic AI ຈະສ້າງຮູບພາບທີ່ກົງກັບຄໍາຖາມ.

ໃນເວລາທີ່ປັດໄຈການຂະຫຍາຍຕົວຂອງເລກກໍາລັງແລະ ກົດຫມາຍວ່າດ້ວຍການເລັ່ງການກັບຄືນ ໃນໄວໆນີ້ຈະມາເຖິງເວລາທີ່ AI ໄດ້ຄອບຄອງທຸກໆດ້ານຂອງຊີວິດປະຈໍາວັນ. ບຸກຄົນແລະບໍລິສັດທີ່ຮູ້ເລື່ອງນີ້ແລະໃຊ້ປະໂຍດຈາກການປ່ຽນແປງແບບແຜນນີ້ຈະກໍາໄລ. ແຕ່ຫນ້າເສຍດາຍ, ສັງຄົມສ່ວນໃຫຍ່ອາດຈະຕົກເປັນເຫຍື່ອຂອງຜົນສະທ້ອນທີ່ບໍ່ດີແລະບໍ່ໄດ້ຕັ້ງໃຈຂອງ AI.

ກົດໝາຍວ່າດ້ວຍສິດທິຂອງ AI ມີຈຸດປະສົງເພື່ອສະໜັບສະໜູນການພັດທະນານະໂຍບາຍ ແລະການປະຕິບັດທີ່ປົກປ້ອງສິດທິພົນລະເຮືອນ ແລະສົ່ງເສີມຄຸນຄ່າປະຊາທິປະໄຕໃນການກໍ່ສ້າງ, ການນຳໃຊ້ ແລະການປົກຄອງຂອງລະບົບອັດຕະໂນມັດ. ບັນຊີລາຍການນີ້ຈະປຽບທຽບແນວໃດ ວິທີການຂອງຈີນ ຍັງຄົງເປັນທີ່ເຫັນໄດ້, ແຕ່ມັນແມ່ນບັນຊີລາຍການສິດທິທີ່ມີທ່າແຮງທີ່ຈະປ່ຽນພູມສັນຖານ AI, ແລະມັນເບິ່ງຄືວ່າຈະໄດ້ຮັບການຮັບຮອງເອົາໂດຍພັນທະມິດເຊັ່ນອົດສະຕາລີ, ການາດາ, ແລະ EU.

ການ​ກ່າວ​ວ່າ​ຮ່າງ​ກົດໝາຍ​ວ່າ​ດ້ວຍ​ສິດທິ​ຂອງ AI ​ແມ່ນ​ບໍ່​ມີ​ຜົນ​ບັງຄັບ​ໃຊ້ ​ແລະ ບໍ່​ແມ່ນ​ເປັນ​ນະ​ໂຍບາຍ​ຂອງ​ລັດຖະບານ​ສະຫະລັດ. ມັນ​ບໍ່​ໄດ້​ປ່ຽນ​ແທນ, ດັດ​ແກ້, ຫຼື​ຊີ້​ນຳ​ການ​ຕີ​ລາ​ຄາ​ຂອງ​ກົດ​ໝາຍ, ລະ​ບຽບ​ການ, ນະ​ໂຍ​ບາຍ, ຫຼື​ເຄື່ອງ​ມື​ສາ​ກົນ​ທີ່​ມີ​ຢູ່​ແລ້ວ. ອັນ​ນີ້​ໝາຍ​ຄວາມ​ວ່າ​ຈະ​ຂຶ້ນ​ກັບ​ວິ​ສາ​ຫະ​ກິດ ແລະ​ລັດ​ຖະ​ບານ​ທີ່​ຈະ​ປະ​ຕິ​ບັດ​ບັນ​ດາ​ນະ​ໂຍ​ບາຍ​ທີ່​ລະ​ບຸ​ໄວ້​ໃນ​ປຶ້ມ​ປົກ​ຂາວ​ນີ້.

ຮ່າງ​ກົດໝາຍ​ສະບັບ​ນີ້​ໄດ້​ກຳນົດ 5 ຫຼັກການ​ທີ່​ຄວນ​ຊີ້​ນຳ​ໃນ​ການ​ອອກ​ແບບ, ການ​ນຳ​ໃຊ້, ​ແລະ ການ​ນຳ​ໃຊ້​ລະບົບ​ອັດ​ຕະ​ໂນ​ມັດ​ເພື່ອ​ປົກ​ປ້ອງ​ປະຊາຊົນ​ອາ​ເມ​ລິ​ກາ​ໃນ​ຍຸກ​ຂອງ​ປັນຍາ​ປະດິດ, ​ຂ້າງ​ລຸ່ມ​ນີ້ ພວກ​ເຮົາ​ຈະ​ຍົກ​ອອກ XNUMX ຫຼັກການ:

1. ລະບົບທີ່ປອດໄພ ແລະ ມີປະສິດທິພາບ

ມັນເປັນອັນຕະລາຍທີ່ຊັດເຈນແລະປະຈຸບັນຕໍ່ສັງຄົມໂດຍລະບົບ AI ທີ່ຖືກຂົ່ມເຫັງ, ໂດຍສະເພາະຜູ້ທີ່ອີງໃສ່ການຮຽນຮູ້ເລິກເຊິ່ງ. ນີ້ແມ່ນຄວາມພະຍາຍາມທີ່ຈະແກ້ໄຂດ້ວຍຫຼັກການເຫຼົ່ານີ້:

"ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກຄວາມບໍ່ປອດໄພຂອງລະບົບທີ່ບໍ່ມີປະສິດທິພາບ. ລະບົບອັດຕະໂນມັດຄວນໄດ້ຮັບການພັດທະນາດ້ວຍການປຶກສາຫາລືຈາກຊຸມຊົນທີ່ຫຼາກຫຼາຍ, ຜູ້ມີສ່ວນຮ່ວມ, ແລະຜູ້ຊ່ຽວຊານດ້ານໂດເມນເພື່ອກໍານົດຄວາມກັງວົນ, ຄວາມສ່ຽງ, ແລະຜົນກະທົບທີ່ອາດເກີດຂື້ນຂອງລະບົບ. ລະບົບຄວນໄດ້ຮັບການທົດສອບກ່ອນການໃຊ້ງານ, ການກໍານົດຄວາມສ່ຽງແລະການຫຼຸດຜ່ອນ, ແລະການຕິດຕາມຢ່າງຕໍ່ເນື່ອງສະແດງໃຫ້ເຫັນວ່າພວກເຂົາມີຄວາມປອດໄພແລະມີປະສິດທິພາບໂດຍອີງໃສ່ການນໍາໃຊ້ທີ່ຕັ້ງໃຈ, ການຫຼຸດຜ່ອນຜົນໄດ້ຮັບທີ່ບໍ່ປອດໄພລວມທັງສິ່ງທີ່ນອກເຫນືອຈາກການນໍາໃຊ້ທີ່ຕັ້ງໄວ້, ແລະການປະຕິບັດຕາມມາດຕະຖານສະເພາະຂອງໂດເມນ. ຜົນໄດ້ຮັບຂອງມາດຕະການປ້ອງກັນເຫຼົ່ານີ້ຄວນປະກອບມີຄວາມເປັນໄປໄດ້ຂອງການບໍ່ນໍາໃຊ້ລະບົບຫຼືເອົາລະບົບອອກຈາກການນໍາໃຊ້. ລະບົບອັດຕະໂນມັດບໍ່ຄວນຖືກອອກແບບດ້ວຍຄວາມຕັ້ງໃຈຫຼືຄວາມເປັນໄປໄດ້ທີ່ຄາດເດົາໄດ້ຢ່າງສົມເຫດສົມຜົນທີ່ຈະເປັນອັນຕະລາຍຕໍ່ຄວາມປອດໄພຫຼືຄວາມປອດໄພຂອງຊຸມຊົນຂອງທ່ານ. ພວກມັນຄວນຈະຖືກອອກແບບເພື່ອປົກປ້ອງທ່ານຢ່າງຈິງຈັງຈາກອັນຕະລາຍທີ່ເກີດຈາກການບໍ່ໄດ້ຕັ້ງໃຈ, ແຕ່ສາມາດເຫັນໄດ້ລ່ວງໜ້າ, ການນໍາໃຊ້ ຫຼືຜົນກະທົບຂອງລະບົບອັດຕະໂນມັດ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການນໍາໃຊ້ຂໍ້ມູນທີ່ບໍ່ເຫມາະສົມຫຼືບໍ່ກ່ຽວຂ້ອງໃນການອອກແບບ, ການພັດທະນາ, ແລະການນໍາໃຊ້ລະບົບອັດຕະໂນມັດ, ແລະຈາກຄວາມເສຍຫາຍປະສົມຂອງການນໍາໃຊ້ຄືນໃຫມ່ຂອງມັນ. ການປະເມີນຜົນແລະການລາຍງານເອກະລາດທີ່ຢືນຢັນວ່າລະບົບມີຄວາມປອດໄພແລະມີປະສິດທິພາບ, ລວມທັງການລາຍງານຂັ້ນຕອນການປະຕິບັດເພື່ອຫຼຸດຜ່ອນອັນຕະລາຍທີ່ອາດຈະເກີດຂື້ນ, ຄວນຖືກປະຕິບັດແລະຜົນໄດ້ຮັບຖືກເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້."

2. ການປົກປ້ອງການຈໍາແນກແບບວິທີ

ນະ​ໂຍ​ບາຍ​ເຫຼົ່າ​ນີ້​ແກ້​ໄຂ​ບາງ​ຊ້າງ​ຢູ່​ໃນ​ຫ້ອງ​ການ​ໃນ​ເວ​ລາ​ທີ່​ວິ​ສາ​ຫະ​ກິດ​ທາ​ລຸນ​ບຸກ​ຄົນ.

ບັນຫາທົ່ວໄປໃນເວລາທີ່ການຈ້າງພະນັກງານນໍາໃຊ້ລະບົບ AI ທີ່ລະບົບການຮຽນຮູ້ເລິກມັກຈະຝຶກອົບຮົມກ່ຽວກັບຂໍ້ມູນທີ່ມີຄວາມລໍາອຽງເພື່ອບັນລຸຂໍ້ສະຫຼຸບການຈ້າງ. ນີ້ຫມາຍຄວາມວ່າການຈ້າງງານທີ່ບໍ່ດີໃນອະດີດຈະເຮັດໃຫ້ເກີດການຈໍາແນກທາງເພດຫຼືເຊື້ອຊາດໂດຍຕົວແທນການຈ້າງ. ການສຶກສາຫນຶ່ງຊີ້ໃຫ້ເຫັນ ຄວາມ​ຫຍຸ້ງ​ຍາກ​ຂອງ​ຄວາມ​ພະ​ຍາ​ຍາມ​ທີ່​ຈະ​ລົບ​ຂໍ້​ມູນ​ການ​ຝຶກ​ອົບ​ຮົມ​ເພດ​.

ບັນຫາຫຼັກອີກອັນໜຶ່ງທີ່ມີຂໍ້ມູນອະຄະຕິໂດຍລັດຖະບານແມ່ນ ສ່ຽງຕໍ່ການຖືກຄຸມຂັງທີ່ຜິດ, ຫຼືຮ້າຍແຮງກວ່າເກົ່າ ສູດການຄິດໄລ່ທາງອາຍາ ທີ່​ສະ​ເໜີ​ໃຫ້​ມີ​ການ​ຕັດ​ສິນ​ໂທດ​ຈຳ​ຄຸກ​ແກ່​ຊົນ​ກຸ່ມ​ນ້ອຍ​ທີ່​ຍາວ​ກວ່າ.

"ທ່ານບໍ່ຄວນປະເຊີນກັບການຈໍາແນກໂດຍສູດການຄິດໄລ່ແລະລະບົບຄວນຈະຖືກນໍາໃຊ້ແລະອອກແບບໃນທາງທີ່ເທົ່າທຽມກັນ. ການຈຳແນກລະບົບອັດຕະໂນມັດເກີດຂຶ້ນເມື່ອລະບົບອັດຕະໂນມັດປະກອບສ່ວນເຂົ້າໃນການປິ່ນປົວທີ່ບໍ່ຍຸຕິທຳ ຫຼືຜົນກະທົບຕໍ່ຄົນທີ່ບໍ່ພໍໃຈໂດຍອີງຕາມເຊື້ອຊາດ, ສີຜິວ, ຊົນເຜົ່າ, ເພດ (ລວມທັງການຖືພາ, ການເກີດລູກ, ແລະເງື່ອນໄຂທາງການແພດທີ່ກ່ຽວຂ້ອງ, ຕົວຕົນທາງເພດ, ສະຖານະພາບລະຫວ່າງເພດ, ແລະທັດສະນະທາງເພດ) ສາດສະໜາ, ອາຍຸ, ຊາດກຳເນີດ, ຄວາມພິການ, ສະຖານະພາບນັກຮົບເກົ່າ, ຂໍ້ມູນພັນທຸກໍາ, ຫຼືການຈັດປະເພດອື່ນໆທີ່ປົກປ້ອງໂດຍກົດໝາຍ. ອີງຕາມສະຖານະການສະເພາະ, ເຊັ່ນ: ການຈໍາແນກລະບົບ algorithmic ອາດຈະລະເມີດການປົກປ້ອງທາງດ້ານກົດຫມາຍ. ຜູ້ອອກແບບ, ຜູ້ພັດທະນາ, ແລະຜູ້ນຳໃຊ້ລະບົບອັດຕະໂນມັດຄວນໃຊ້ມາດຕະການຢ່າງຕັ້ງໜ້າ ແລະ ຢ່າງຕໍ່ເນື່ອງເພື່ອປົກປ້ອງບຸກຄົນ ແລະ ຊຸມຊົນຈາກການຈຳແນກລະບົບ algorithmic ແລະນຳໃຊ້ ແລະ ອອກແບບລະບົບຢ່າງສະເໝີພາບ. ການປົກປ້ອງນີ້ຄວນປະກອບມີການປະເມີນຄວາມສະເຫມີພາບແບບຕັ້ງຫນ້າເປັນສ່ວນຫນຶ່ງຂອງການອອກແບບລະບົບ, ການນໍາໃຊ້ຂໍ້ມູນຕົວແທນແລະການປົກປ້ອງຕົວແທນສໍາລັບລັກສະນະປະຊາກອນ, ຮັບປະກັນການເຂົ້າເຖິງສໍາລັບຄົນພິການໃນການອອກແບບແລະການພັດທະນາ, ການປະຕິບັດກ່ອນການປະຕິບັດແລະການທົດສອບຄວາມບໍ່ສົມດຸນຢ່າງຕໍ່ເນື່ອງ, ແລະອົງການຈັດຕັ້ງທີ່ຊັດເຈນ. ກວດກາ. ການປະເມີນເອກະລາດແລະການລາຍງານພາສາທໍາມະດາໃນຮູບແບບການປະເມີນຜົນກະທົບຂອງລະບົບວິທີ, ລວມທັງຜົນການທົດສອບຄວາມບໍ່ສົມດຸນແລະຂໍ້ມູນການຫຼຸດຜ່ອນ, ຄວນຖືກປະຕິບັດແລະເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້ເພື່ອຢືນຢັນການປົກປ້ອງເຫຼົ່ານີ້."

ຄວນສັງເກດວ່າສະຫະລັດໄດ້ປະຕິບັດວິທີການທີ່ມີຄວາມໂປ່ງໃສຫຼາຍເມື່ອເວົ້າເຖິງ AI, ນີ້ແມ່ນນະໂຍບາຍທີ່ຖືກອອກແບບເພື່ອປົກປ້ອງປະຊາຊົນທົ່ວໄປ, ກົງ​ກັນ​ຂ້າມ​ຢ່າງ​ຈະ​ແຈ້ງ​ກັບ​ວິ​ທີ​ການ AI ປະ​ຕິ​ບັດ​ໂດຍ​ຈີນ.

3. ຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນ

ຫຼັກ​ການ​ຄວາມ​ເປັນ​ສ່ວນ​ຕົວ​ຂໍ້​ມູນ​ນີ້​ແມ່ນ​ຫນຶ່ງ​ທີ່​ມີ​ແນວ​ໂນ້ມ​ທີ່​ສຸດ​ທີ່​ຈະ​ມີ​ຜົນ​ກະ​ທົບ​ສ່ວນ​ໃຫຍ່​ທີ່​ສຸດ​ຂອງ​ປະ​ຊາ​ກອນ​. ເຄິ່ງທໍາອິດຂອງຫຼັກການເບິ່ງຄືວ່າມີຄວາມກັງວົນກ່ຽວກັບການລວບລວມຂໍ້ມູນ, ໂດຍສະເພາະກັບຂໍ້ມູນທີ່ເກັບກໍາຜ່ານອິນເຕີເນັດ, ເປັນບັນຫາທີ່ຮູ້ຈັກໂດຍສະເພາະສໍາລັບເວທີສື່ມວນຊົນສັງຄົມ. ຂໍ້ມູນດຽວກັນນີ້ສາມາດຖືກນໍາໃຊ້ເພື່ອຂາຍໂຄສະນາ, ຫຼືຮ້າຍແຮງກວ່າເກົ່າ ໝູນໃຊ້​ຄວາມ​ຮູ້ສຶກ​ຂອງ​ປະຊາຊົນ ​ແລະ ​ເພື່ອ​ໃຫ້​ການ​ເລືອກ​ຕັ້ງ.

"ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການປະຕິບັດຂໍ້ມູນທີ່ບໍ່ຖືກຕ້ອງໂດຍຜ່ານການປົກປ້ອງທີ່ມີໃນຕົວແລະທ່ານຄວນມີອົງການກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນຂອງທ່ານ. ທ່ານຄວນຈະໄດ້ຮັບການປົກປ້ອງຈາກການລະເມີດຄວາມເປັນສ່ວນຕົວໂດຍຜ່ານທາງເລືອກໃນການອອກແບບທີ່ຮັບປະກັນວ່າການປົກປ້ອງດັ່ງກ່າວຈະຖືກລວມເຂົ້າໂດຍຄ່າເລີ່ມຕົ້ນ, ລວມທັງການຮັບປະກັນວ່າການລວບລວມຂໍ້ມູນສອດຄ່ອງກັບຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນ, ແລະພຽງແຕ່ຂໍ້ມູນທີ່ຈໍາເປັນຢ່າງເຂັ້ມງວດສໍາລັບສະພາບການສະເພາະແມ່ນເກັບກໍາ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ນໍາໃຊ້ລະບົບອັດຕະໂນມັດຄວນຊອກຫາການອະນຸຍາດຂອງທ່ານແລະເຄົາລົບການຕັດສິນໃຈຂອງທ່ານກ່ຽວກັບການເກັບກໍາ, ການນໍາໃຊ້, ການເຂົ້າເຖິງ, ການໂອນແລະການລຶບຂໍ້ມູນຂອງທ່ານໃນວິທີການທີ່ເຫມາະສົມແລະໃນຂອບເຂດສູງສຸດທີ່ເປັນໄປໄດ້; ບ່ອນທີ່ເປັນໄປບໍ່ໄດ້, ຄວາມເປັນສ່ວນຕົວທາງເລືອກໂດຍການປົກປ້ອງການອອກແບບຄວນຖືກນໍາໃຊ້. ລະບົບບໍ່ຄວນໃຊ້ປະສົບການຂອງຜູ້ໃຊ້ ແລະການຕັດສິນໃຈອອກແບບທີ່ລົບກວນການເລືອກຂອງຜູ້ໃຊ້ ຫຼືພາລະໃຫ້ຜູ້ໃຊ້ທີ່ມີຄ່າເລີ່ມຕົ້ນທີ່ເປັນຄວາມເປັນສ່ວນຕົວ. ການຍິນຍອມເຫັນດີຄວນຈະຖືກນໍາໃຊ້ເພື່ອພຽງແຕ່ເປັນການລວບລວມຂໍ້ມູນໃນກໍລະນີທີ່ມັນສາມາດໃຫ້ໄດ້ຢ່າງເຫມາະສົມແລະມີຄວາມຫມາຍ. ການຮ້ອງຂໍການຍິນຍອມເຫັນດີຄວນຈະສັ້ນ, ເຂົ້າໃຈໄດ້ໃນພາສາທໍາມະດາ, ແລະໃຫ້ທ່ານອົງການກ່ຽວກັບການເກັບກໍາຂໍ້ມູນແລະສະພາບການສະເພາະຂອງການນໍາໃຊ້; ການປະຕິບັດແຈ້ງການແລະທາງເລືອກທີ່ຍາກທີ່ຈະເຂົ້າໃຈໃນປະຈຸບັນສໍາລັບການນໍາໃຊ້ຂໍ້ມູນຢ່າງກວ້າງຂວາງຄວນຈະມີການປ່ຽນແປງ."

ເຄິ່ງທີ່ສອງຂອງຫຼັກການຄວາມເປັນສ່ວນຕົວຂອງຂໍ້ມູນເບິ່ງຄືວ່າມີຄວາມກັງວົນກ່ຽວກັບການເຝົ້າລະວັງຈາກທັງລັດຖະບານແລະວິສາຫະກິດ.

ປະຈຸ​ບັນ, ບັນດາ​ວິ​ສາ​ຫະກິດ​ສາມາດ​ຕິດຕາມ ​ແລະ ສອດ​ແນມ​ພະນັກງານ, ​ໃນ​ບາງ​ກໍລະນີ​ອາດ​ຈະ ປັບປຸງຄວາມປອດໄພໃນບ່ອນເຮັດວຽກ​ໃນ​ໄລຍະ​ທີ່​ໂລກລະບາດ​ໂຄ​ວິດ-19 ​ແມ່ນ​ການ​ບັງຄັບ​ໃຫ້​ໃສ່​ໜ້າ​ກາກ, ສ່ວນ​ຫລາຍ​ແມ່ນ​ເຮັດ​ງ່າຍໆ​ເພື່ອ​ຕິດຕາມ​ເບິ່ງ​ການ​ໃຊ້​ເວລາ​ໃນ​ການ​ເຮັດ​ວຽກ. ໃນຫຼາຍໆກໍລະນີເຫຼົ່ານີ້, ພະນັກງານມີຄວາມຮູ້ສຶກຄືກັບວ່າພວກເຂົາຖືກຕິດຕາມແລະຄວບຄຸມເກີນກວ່າທີ່ຖືວ່າເປັນການຍອມຮັບ.

"ການເສີມການປົກປ້ອງແລະຂໍ້ຈໍາກັດສໍາລັບຂໍ້ມູນແລະການອ້າງອິງທີ່ກ່ຽວຂ້ອງກັບໂດເມນທີ່ລະອຽດອ່ອນ, ລວມທັງສຸຂະພາບ, ການເຮັດວຽກ, ການສຶກສາ, ຄວາມຍຸດຕິທໍາທາງອາຍາ, ແລະການເງິນ, ແລະສໍາລັບຂໍ້ມູນທີ່ກ່ຽວຂ້ອງກັບໄວຫນຸ່ມຄວນເອົາໃຈໃສ່ທ່ານກ່ອນ. ໃນໂດເມນທີ່ລະອຽດອ່ອນ, ຂໍ້ມູນຂອງທ່ານແລະການສະຫຼຸບທີ່ກ່ຽວຂ້ອງຄວນຈະຖືກນໍາໃຊ້ພຽງແຕ່ສໍາລັບຫນ້າທີ່ທີ່ຈໍາເປັນ, ແລະທ່ານຄວນໄດ້ຮັບການປົກປ້ອງໂດຍການທົບທວນດ້ານຈັນຍາບັນແລະການນໍາໃຊ້ຂໍ້ຫ້າມ. ທ່ານແລະຊຸມຊົນຂອງທ່ານຄວນຈະເປັນອິດສະຫຼະຈາກການເຝົ້າລະວັງທີ່ບໍ່ມີການກວດສອບ; ເທັກໂນໂລຍີການເຝົ້າລະວັງຄວນຢູ່ພາຍໃຕ້ການກວດກາທີ່ສູງຂື້ນ ເຊິ່ງລວມມີການປະເມີນລ່ວງໜ້າຢ່າງໜ້ອຍການນຳໃຊ້ກ່ຽວກັບອັນຕະລາຍທີ່ອາດເກີດຂຶ້ນ ແລະຂີດຈຳກັດຂອບເຂດເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວ ແລະ ເສລີພາບຂອງພົນລະເມືອງ. ການເຝົ້າລະວັງແລະການຕິດຕາມຢ່າງຕໍ່ເນື່ອງບໍ່ຄວນຖືກນໍາໃຊ້ໃນການສຶກສາ, ການເຮັດວຽກ, ທີ່ຢູ່ອາໄສ, ຫຼືໃນສະພາບການອື່ນໆທີ່ການນໍາໃຊ້ເຕັກໂນໂລຢີການເຝົ້າລະວັງດັ່ງກ່າວມີແນວໂນ້ມທີ່ຈະຈໍາກັດສິດ, ໂອກາດ, ຫຼືການເຂົ້າເຖິງ. ເມື່ອໃດກໍ່ຕາມທີ່ເປັນໄປໄດ້ທ່ານຄວນມີການເຂົ້າເຖິງການລາຍງານທີ່ຢືນຢັນວ່າການຕັດສິນໃຈຂໍ້ມູນຂອງທ່ານໄດ້ຮັບການເຄົາລົບແລະສະຫນອງການປະເມີນຜົນກະທົບທີ່ເປັນໄປໄດ້ຂອງເຕັກໂນໂລຢີການເຝົ້າລະວັງຕໍ່ສິດທິ, ໂອກາດ, ຫຼືການເຂົ້າເຖິງຂອງທ່ານ."

ມັນຄວນຈະສັງເກດເຫັນວ່າ AI ສາມາດຖືກນໍາໃຊ້ເພື່ອປົກປ້ອງຄວາມເປັນສ່ວນຕົວຂອງປະຊາຊົນ.

4. ແຈ້ງການ ແລະ ຄໍາອະທິບາຍ

ນີ້​ຄວນ​ຈະ​ແມ່ນ​ການ​ຮຽກ​ຮ້ອງ​ໃຫ້​ອາ​ວຸດ​ເພື່ອ​ໃຫ້​ວິ​ສາ​ຫະ​ກິດ​ຈັດ​ຕັ້ງ​ປະ​ຕິ​ບັດ ຄະນະທີ່ປຶກສາດ້ານຈັນຍາບັນ AIພ້ອມ​ທັງ​ຊຸກຍູ້​ການ​ເລັ່ງລັດ​ການ​ພັດທະນາ AI ທີ່ສາມາດອະທິບາຍໄດ້. AI ທີ່ສາມາດອະທິບາຍໄດ້ແມ່ນມີຄວາມຈໍາເປັນໃນກໍລະນີທີ່ຕົວແບບ AI ເຮັດຜິດພາດ, ຄວາມເຂົ້າໃຈວິທີການເຮັດວຽກຂອງ AI ຊ່ວຍໃຫ້ການວິນິດໄສບັນຫາທີ່ງ່າຍ.

AI ທີ່ສາມາດອະທິບາຍໄດ້ຍັງຈະອະນຸຍາດໃຫ້ແບ່ງປັນຂໍ້ມູນຢ່າງໂປ່ງໃສກ່ຽວກັບວິທີການນໍາໃຊ້ຂໍ້ມູນ, ແລະເປັນຫຍັງການຕັດສິນໃຈແມ່ນເຮັດໂດຍ AI. ຖ້າບໍ່ມີ AI ທີ່ສາມາດອະທິບາຍໄດ້, ມັນຈະເປັນໄປບໍ່ໄດ້ທີ່ຈະປະຕິບັດຕາມນະໂຍບາຍເຫຼົ່ານີ້ເນື່ອງຈາກ ບັນຫາ blackbox ຂອງການຮຽນຮູ້ເລິກ.

ວິສາຫະກິດທີ່ສຸມໃສ່ການປັບປຸງລະບົບເຫຼົ່ານີ້ຍັງຈະໄດ້ຮັບຜົນປະໂຫຍດໃນທາງບວກຈາກຄວາມເຂົ້າໃຈ nuances ແລະຄວາມສັບສົນທີ່ຢູ່ເບື້ອງຫລັງວ່າເປັນຫຍັງ algorithm ການຮຽນຮູ້ເລິກເຮັດໃຫ້ການຕັດສິນໃຈສະເພາະໃດຫນຶ່ງ.

"ທ່ານຄວນຮູ້ວ່າລະບົບອັດຕະໂນມັດຖືກນໍາໃຊ້ແລະເຂົ້າໃຈວິທີການແລະເຫດຜົນທີ່ມັນປະກອບສ່ວນກັບຜົນໄດ້ຮັບທີ່ມີຜົນກະທົບທ່ານ. ຜູ້ອອກແບບ, ນັກພັດທະນາ, ແລະຜູ້ຈັດວາງລະບົບອັດຕະໂນມັດຄວນໃຫ້ເອກະສານພາສາທໍາມະດາທີ່ສາມາດເຂົ້າເຖິງໄດ້ໂດຍທົ່ວໄປລວມທັງຄໍາອະທິບາຍທີ່ຊັດເຈນຂອງການເຮັດວຽກຂອງລະບົບໂດຍລວມແລະບົດບາດຂອງລະບົບອັດຕະໂນມັດ, ສັງເກດເຫັນວ່າລະບົບດັ່ງກ່າວຢູ່ໃນການນໍາໃຊ້, ບຸກຄົນຫຼືອົງການຈັດຕັ້ງທີ່ຮັບຜິດຊອບຂອງລະບົບ, ແລະຄໍາອະທິບາຍ. ຜົນໄດ້ຮັບທີ່ຈະແຈ້ງ, ທັນເວລາ, ແລະສາມາດເຂົ້າເຖິງໄດ້. ແຈ້ງການດັ່ງກ່າວຄວນຈະຖືກເກັບຮັກສາໄວ້ເປັນທັນສະໄຫມແລະປະຊາຊົນທີ່ໄດ້ຮັບຜົນກະທົບຈາກລະບົບຄວນໄດ້ຮັບການແຈ້ງໃຫ້ຊາບກ່ຽວກັບກໍລະນີການນໍາໃຊ້ທີ່ສໍາຄັນຫຼືການປ່ຽນແປງການເຮັດວຽກທີ່ສໍາຄັນ. ທ່ານຄວນຮູ້ວິທີການແລະເຫດຜົນທີ່ຜົນໄດ້ຮັບຜົນກະທົບຕໍ່ທ່ານຖືກກໍານົດໂດຍລະບົບອັດຕະໂນມັດ, ລວມທັງເວລາທີ່ລະບົບອັດຕະໂນມັດບໍ່ແມ່ນວັດສະດຸປ້ອນດຽວທີ່ກໍານົດຜົນໄດ້ຮັບ. ລະບົບອັດຕະໂນມັດຄວນໃຫ້ຄໍາອະທິບາຍທີ່ຖືກຕ້ອງທາງດ້ານວິຊາການ, ມີຄວາມຫມາຍແລະເປັນປະໂຫຍດສໍາລັບທ່ານແລະຜູ້ປະຕິບັດງານຫຼືຜູ້ອື່ນທີ່ຕ້ອງການເຂົ້າໃຈລະບົບ, ແລະປັບລະດັບຄວາມສ່ຽງໂດຍອີງໃສ່ເນື້ອຫາ. ບົດລາຍງານທີ່ປະກອບມີຂໍ້ມູນສະຫຼຸບກ່ຽວກັບລະບົບອັດຕະໂນມັດເຫຼົ່ານີ້ໃນພາສາທໍາມະດາແລະການປະເມີນຄວາມຊັດເຈນແລະຄຸນນະພາບຂອງຫນັງສືແຈ້ງການແລະຄໍາອະທິບາຍຄວນຖືກເປີດເຜີຍຕໍ່ສາທາລະນະທຸກຄັ້ງທີ່ເປັນໄປໄດ້."

5. ທາງເລືອກຂອງມະນຸດ, ພິຈາລະນາ, ແລະປະຕິເສດ

ບໍ່ເຫມືອນກັບຫຼັກການຂ້າງເທິງສ່ວນໃຫຍ່, ຫຼັກການນີ້ແມ່ນໃຊ້ໄດ້ຫຼາຍທີ່ສຸດກັບຫນ່ວຍງານຂອງລັດຖະບານ, ຫຼືສະຖາບັນເອກະຊົນທີ່ເຮັດວຽກໃນນາມຂອງລັດຖະບານ.

ເຖິງແມ່ນວ່າມີຄະນະກໍາມະການດ້ານຈັນຍາບັນ AI, ແລະ AI ທີ່ສາມາດອະທິບາຍໄດ້, ມັນເປັນສິ່ງສໍາຄັນທີ່ຈະປະຕິເສດການທົບທວນຄືນຂອງມະນຸດໃນເວລາທີ່ຊີວິດຢູ່ໃນບັນຫາ. ມີຄວາມເປັນໄປໄດ້ສະເຫມີສໍາລັບຄວາມຜິດພາດ, ແລະການທົບທວນຂອງມະນຸດກໍລະນີທີ່ຮ້ອງຂໍສາມາດຫລີກລ້ຽງສະຖານະການເຊັ່ນ: AI ສົ່ງຄົນຜິດໄປຄຸກ.

ລະບົບຕຸລາການແລະອາຊະຍາກໍາມີພື້ນທີ່ຫຼາຍທີ່ສຸດທີ່ຈະເຮັດໃຫ້ເກີດຄວາມເສຍຫາຍທີ່ບໍ່ສາມາດແກ້ໄຂໄດ້ຕໍ່ສະມາຊິກຂອງສັງຄົມທີ່ດ້ອຍໂອກາດແລະຄວນເອົາໃຈໃສ່ເປັນພິເສດຕໍ່ຫຼັກການນີ້.

“ເຈົ້າຄວນຈະສາມາດເລືອກອອກໄດ້, ຖ້າເໝາະສົມ, ແລະເຂົ້າເຖິງບຸກຄົນທີ່ສາມາດພິຈາລະນາ ແລະແກ້ໄຂບັນດາບັນຫາທີ່ເຈົ້າພົບໄດ້ຢ່າງວ່ອງໄວ. ທ່ານຄວນຈະສາມາດເລືອກອອກຈາກລະບົບອັດຕະໂນມັດໃນເງື່ອນໄຂທີ່ເປັນທາງເລືອກຂອງມະນຸດ, ຕາມຄວາມເຫມາະສົມ. ຄວາມເຫມາະສົມຄວນຈະຖືກກໍານົດໂດຍອີງໃສ່ຄວາມຄາດຫວັງທີ່ສົມເຫດສົມຜົນໃນສະພາບການໃດຫນຶ່ງແລະສຸມໃສ່ການຮັບປະກັນການເຂົ້າເຖິງຢ່າງກວ້າງຂວາງແລະປົກປ້ອງປະຊາຊົນຈາກຜົນກະທົບທີ່ເປັນອັນຕະລາຍໂດຍສະເພາະ. ໃນບາງກໍລະນີ, ມະນຸດ ຫຼືທາງເລືອກອື່ນອາດຈະຖືກກຳນົດໂດຍກົດໝາຍ. ທ່ານຄວນມີການເຂົ້າເຖິງການພິຈາລະນາຂອງມະນຸດທີ່ທັນເວລາແລະການແກ້ໄຂໂດຍບັນຫາຫຼຸດລົງແລະການເພີ່ມຂື້ນຖ້າລະບົບອັດຕະໂນມັດໃດໆລົ້ມເຫລວ, ມັນເຮັດໃຫ້ເກີດຄວາມຜິດພາດ, ຫຼືທ່ານຕ້ອງການອຸທອນ, ຫຼືໂຕ້ແຍ້ງຜົນກະທົບຂອງມັນກັບທ່ານ. ການພິຈາລະນາແລະການຫຼຸດລົງຂອງມະນຸດຄວນຈະສາມາດເຂົ້າເຖິງໄດ້, ມີຄວາມສະເຫມີພາບ, ປະສິດທິຜົນ, ການຮັກສາໄວ້, ພ້ອມກັບການຝຶກອົບຮົມຂອງຜູ້ປະຕິບັດງານທີ່ເຫມາະສົມ, ແລະບໍ່ຄວນສ້າງພາລະທີ່ບໍ່ສົມເຫດສົມຜົນຕໍ່ສາທາລະນະ. ລະບົບອັດຕະໂນມັດທີ່ມີການນໍາໃຊ້ທີ່ມີຈຸດປະສົງພາຍໃນໂດເມນທີ່ລະອຽດອ່ອນ, ລວມທັງ, ແຕ່ບໍ່ຈໍາກັດ, ລະບົບອາຊະຍາກໍາ, ການຈ້າງງານ, ການສຶກສາ, ແລະສຸຂະພາບ, ຄວນຖືກປັບໃຫ້ເຫມາະສົມກັບຈຸດປະສົງ, ສະຫນອງການເຂົ້າເຖິງການຄວບຄຸມທີ່ມີຄວາມຫມາຍ, ລວມທັງການຝຶກອົບຮົມສໍາລັບປະຊາຊົນໃດໆທີ່ພົວພັນກັບລະບົບ. , ແລະລວມເອົາການພິຈາລະນາຂອງມະນຸດສໍາລັບການຕັດສິນໃຈທີ່ບໍ່ດີຫຼືມີຄວາມສ່ຽງສູງ. ການ​ລາຍ​ງານ​ທີ່​ລວມ​ມີ​ລາຍ​ລະ​ອຽດ​ກ່ຽວ​ກັບ​ຂະ​ບວນ​ການ​ຄຸ້ມ​ຄອງ​ມະ​ນຸດ​ເຫຼົ່າ​ນີ້​ແລະ​ການ​ປະ​ເມີນ​ຜົນ​ຂອງ​ການ​ທັນ​ເວ​ລາ, ການ​ເຂົ້າ​ເຖິງ, ຜົນ​ໄດ້​ຮັບ, ແລະ​ປະ​ສິດ​ທິ​ຜົນ​ຂອງ​ເຂົາ​ເຈົ້າ​ຄວນ​ໄດ້​ຮັບ​ການ​ປະ​ຕິ​ບັດ​ຕໍ່​ສາ​ທາ​ລະ​ນະ​ທຸກ​ຄັ້ງ​ທີ່​ເປັນ​ໄປ​ໄດ້.”

Summary

OSTP ຄວນໄດ້ຮັບສິນເຊື່ອສໍາລັບຄວາມພະຍາຍາມທີ່ຈະແນະນໍາກອບທີ່ເຊື່ອມຕໍ່ອະນຸສັນຍາຄວາມປອດໄພທີ່ຈໍາເປັນສໍາລັບສັງຄົມ, ໂດຍບໍ່ມີການແນະນໍານະໂຍບາຍທີ່ຮຸນແຮງທີ່ສາມາດຂັດຂວາງຄວາມກ້າວຫນ້າໃນການພັດທະນາການຮຽນຮູ້ເຄື່ອງຈັກ.

ພາຍຫຼັງບັນດາຫຼັກການໄດ້ລະບຸໄວ້ແລ້ວ, ຮ່າງກົດໝາຍດັ່ງກ່າວໄດ້ສືບຕໍ່ໂດຍໃຫ້ຄູ່ຮ່ວມທາງດ້ານວິຊາການກ່ຽວກັບບັນດາບັນຫາທີ່ໄດ້ປຶກສາຫາລື ພ້ອມທັງໃຫ້ຂໍ້ມູນລະອຽດກ່ຽວກັບແຕ່ລະຫຼັກການ ແລະ ວິທີທີ່ດີທີ່ສຸດເພື່ອກ້າວໄປຂ້າງໜ້າເພື່ອຈັດຕັ້ງປະຕິບັດບັນດາຫຼັກການດັ່ງກ່າວ.

ບັນດາ​ເຈົ້າ​ຂອງ​ວິ​ສາ​ຫະກິດ ​ແລະ ວິ​ສາ​ຫະກິດ​ທີ່​ມີ​ສະຕິ​ປັນຍາ​ຄວນ​ເອົາ​ໃຈ​ໃສ່ ສຶກສາບັນຊີລາຍການນີ້, ເນື່ອງຈາກວ່າມັນພຽງແຕ່ສາມາດເປັນປະໂຫຍດທີ່ຈະປະຕິບັດນະໂຍບາຍເຫຼົ່ານີ້ໄວເທົ່າທີ່ເປັນໄປໄດ້.

AI ທີ່ສາມາດອະທິບາຍໄດ້ຈະສືບຕໍ່ຄອບຄຸມຄວາມສໍາຄັນ, ດັ່ງທີ່ເຫັນໄດ້ຈາກຄໍາເວົ້ານີ້ຈາກບັນຊີລາຍການ.

"ໃນທົ່ວລັດຖະບານກາງ, ອົງການຕ່າງໆກໍາລັງດໍາເນີນການແລະສະຫນັບສະຫນູນການຄົ້ນຄວ້າກ່ຽວກັບລະບົບ AI ທີ່ສາມາດອະທິບາຍໄດ້. NIST ກໍາລັງດໍາເນີນການຄົ້ນຄ້ວາພື້ນຖານກ່ຽວກັບການອະທິບາຍຂອງລະບົບ AI. ທີມນັກຄົ້ນຄ້ວາຫຼາຍວິຊາມີຈຸດປະສົງເພື່ອພັດທະນາວິທີການວັດແທກແລະການປະຕິບັດທີ່ດີທີ່ສຸດເພື່ອສະຫນັບສະຫນູນການປະຕິບັດຫຼັກການຫຼັກຂອງ AI ທີ່ສາມາດອະທິບາຍໄດ້. ອົງການໂຄງການຄົ້ນຄ້ວາຂັ້ນສູງຂອງປ້ອງກັນປະເທດມີໂຄງການກ່ຽວກັບປັນຍາປະດິດທີ່ອະທິບາຍໄດ້ ເຊິ່ງມີຈຸດປະສົງເພື່ອສ້າງຊຸດເຕັກນິກການຮຽນຮູ້ເຄື່ອງຈັກທີ່ຜະລິດແບບຈໍາລອງທີ່ອະທິບາຍໄດ້ຫຼາຍຂຶ້ນ, ໃນຂະນະທີ່ຮັກສາປະສິດທິພາບການຮຽນຮູ້ໃນລະດັບສູງ (ຄວາມຖືກຕ້ອງຂອງການຄາດຄະເນ), ແລະເຮັດໃຫ້ຜູ້ໃຊ້ຂອງມະນຸດເຂົ້າໃຈ, ເຫມາະສົມ. ຄວາມ​ໄວ້​ເນື້ອ​ເຊື່ອ​ໃຈ, ແລະ​ການ​ຄຸ້ມ​ຄອງ​ປະ​ສິດ​ທິ​ຜົນ​ການ​ຜະ​ລິດ​ຂອງ​ຄູ່​ຮ່ວມ​ງານ​ທີ່​ມີ​ອັດ​ສະ​ລິ​ຍະ​ປອມ. ໂຄງການຂອງມູນນິທິວິທະຍາສາດແຫ່ງຊາດກ່ຽວກັບຄວາມຍຸດຕິທໍາໃນປັນຍາປະດິດຍັງປະກອບມີຄວາມສົນໃຈສະເພາະໃນພື້ນຖານການຄົ້ນຄວ້າສໍາລັບ AI ທີ່ສາມາດອະທິບາຍໄດ້.”

ສິ່ງທີ່ບໍ່ຄວນເບິ່ງຂ້າມ, ໃນທີ່ສຸດຫຼັກການທີ່ໄດ້ລະບຸໄວ້ໃນນີ້ຈະກາຍເປັນມາດຕະຖານໃຫມ່.

ຄູ່ຮ່ວມງານຜູ້ກໍ່ຕັ້ງຂອງ unite.AI ແລະສະມາຊິກຂອງ ສະພາເທກໂນໂລຍີ Forbes, Antoine ເປັນ futurist ຜູ້ທີ່ມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບອະນາຄົດຂອງ AI ແລະຫຸ່ນຍົນ.

ລາວຍັງເປັນຜູ້ກໍ່ຕັ້ງຂອງ Securities.io, ເວັບໄຊທ໌ທີ່ສຸມໃສ່ການລົງທຶນໃນເຕັກໂນໂລຢີທີ່ຂັດຂວາງ.