ກ້ານໃບ ນັກຄົ້ນຄວ້າ AI ສະເໜີໃຫ້ເອົາຄ່ານິຍົມກ່ຽວກັບ AI Bias ເພື່ອເຮັດໃຫ້ AI ມີຈັນຍາບັນຫຼາຍຂຶ້ນ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຈັນຍາບັນ

ນັກຄົ້ນຄວ້າ AI ສະເຫນີໃຫ້ມີການເພີ່ມຄວາມລໍາອຽງຂອງ AI ເພື່ອເຮັດໃຫ້ AI ມີຈັນຍາບັນຫຼາຍຂຶ້ນ

mm

ຈັດພີມມາ

 on

ທີມງານຂອງນັກຄົ້ນຄວ້າ AI ຈາກບໍລິສັດແລະຫ້ອງທົດລອງພັດທະນາ AI ເຊັ່ນ Intel, Google Brain, ແລະ OpenAI ໄດ້ແນະນໍາການນໍາໃຊ້ bounties ເພື່ອຊ່ວຍຮັບປະກັນການນໍາໃຊ້ຈັນຍາບັນຂອງ AI. ບໍ່ດົນມານີ້, ທີມງານຂອງນັກຄົ້ນຄວ້າໄດ້ເປີດເຜີຍຂໍ້ສະເຫນີຈໍານວນຫນຶ່ງກ່ຽວກັບການນໍາໃຊ້ AI ດ້ານຈັນຍາບັນ, ແລະພວກເຂົາປະກອບມີຄໍາແນະນໍາວ່າການໃຫ້ລາງວັນແກ່ປະຊາຊົນສໍາລັບການຄົ້ນພົບຄວາມລໍາອຽງໃນ AI ສາມາດເປັນວິທີທີ່ມີປະສິດທິພາບທີ່ຈະເຮັດໃຫ້ AI ຍຸດຕິທໍາ.

ດັ່ງທີ່ VentureBeat ລາຍງານ, ນັກຄົ້ນຄວ້າຈາກຫຼາຍໆບໍລິສັດໃນທົ່ວສະຫະລັດແລະເອີຣົບໄດ້ເຂົ້າຮ່ວມເພື່ອວາງຊຸດຄໍາແນະນໍາດ້ານຈັນຍາບັນສໍາລັບການພັດທະນາ AI, ເຊັ່ນດຽວກັນກັບຄໍາແນະນໍາສໍາລັບວິທີການປະຕິບັດຕາມຄໍາແນະນໍາ. ຫນຶ່ງໃນຂໍ້ສະເຫນີແນະທີ່ນັກຄົ້ນຄວ້າໄດ້ເຮັດແມ່ນສະເຫນີໃຫ້ລາງວັນກັບນັກພັດທະນາຜູ້ທີ່ຊອກຫາຄວາມລໍາອຽງພາຍໃນໂຄງການ AI. ຄໍາ​ແນະ​ນໍາ​ດັ່ງ​ກ່າວ​ໄດ້​ຖືກ​ສ້າງ​ຂຶ້ນ​ໃນ​ເອ​ກະ​ສານ​ທີ່​ມີ​ຊື່​ວ່າ "ໄປສູ່ການພັດທະນາ AI ທີ່ເຊື່ອຖືໄດ້: ກົນໄກການສະໜັບສະໜູນການຮຽກຮ້ອງທີ່ຢັ້ງຢືນໄດ້".

ໃນຖານະເປັນຕົວຢ່າງຂອງຄວາມລໍາອຽງທີ່ທີມງານຂອງນັກຄົ້ນຄວ້າຫວັງວ່າຈະແກ້ໄຂ, ຂໍ້ມູນອະຄະຕິແລະສູດການຄິດໄລ່ໄດ້ຖືກພົບເຫັນຢູ່ໃນທຸກສິ່ງທຸກຢ່າງຈາກຄໍາຮ້ອງສະຫມັກການດູແລສຸຂະພາບເຖິງລະບົບການຮັບຮູ້ໃບຫນ້າທີ່ຖືກນໍາໃຊ້ໂດຍການບັງຄັບໃຊ້ກົດຫມາຍ. ປະກົດການໜຶ່ງຂອງຄວາມລຳອຽງດັ່ງກ່າວແມ່ນເຄື່ອງມືການປະເມີນຄວາມສ່ຽງແບບ PatTERN ທີ່ກະຊວງຍຸຕິທຳສະຫະລັດນຳໃຊ້ໃນບໍ່ດົນມານີ້ເພື່ອທົດລອງນັກໂທດ ແລະຕັດສິນໃຈວ່າອັນໃດສາມາດຖືກສົ່ງກັບບ້ານໄດ້ ເມື່ອຫຼຸດຂະໜາດປະຊາກອນໃນຄຸກເພື່ອຕອບສະໜອງຕໍ່ການລະບາດຂອງພະຍາດຄໍລະບາດ.

ການປະຕິບັດການໃຫ້ລາງວັນຜູ້ພັດທະນາສໍາລັບການຊອກຫາພຶດຕິກໍາທີ່ບໍ່ຕ້ອງການໃນໂຄງການຄອມພິວເຕີແມ່ນ ເກົ່າ, ແຕ່ນີ້ອາດຈະເປັນຄັ້ງທໍາອິດທີ່ຄະນະກໍາມະການດ້ານຈັນຍາບັນຂອງ AI ໄດ້ກ້າວຫນ້າທາງດ້ານຄວາມຄິດທີ່ເປັນທາງເລືອກສໍາລັບການຕໍ່ສູ້ກັບຄວາມລໍາອຽງຂອງ AI. ໃນຂະນະທີ່ມັນເບິ່ງຄືວ່າບໍ່ມີຜູ້ພັດທະນາ AI ພຽງພໍທີ່ຈະຊອກຫາຄວາມລໍາອຽງພຽງພໍທີ່ AI ສາມາດຮັບປະກັນດ້ານຈັນຍາບັນ, ມັນຍັງຈະຊ່ວຍໃຫ້ບໍລິສັດຫຼຸດຜ່ອນຄວາມລໍາອຽງໂດຍລວມແລະໄດ້ຮັບຄວາມຮູ້ສຶກວ່າປະເພດຂອງຄວາມລໍາອຽງທີ່ຮົ່ວໄຫລເຂົ້າໄປໃນລະບົບ AI ຂອງພວກເຂົາ.

ຜູ້ຂຽນຂອງເອກະສານໄດ້ອະທິບາຍວ່າແນວຄວາມຄິດຂອງ bug-bounty ສາມາດຂະຫຍາຍໄປສູ່ AI ດ້ວຍການນໍາໃຊ້ຄວາມລໍາອຽງແລະ bounties ຄວາມປອດໄພແລະການນໍາໃຊ້ທີ່ເຫມາະສົມຂອງເຕັກນິກນີ້ສາມາດນໍາໄປສູ່ຊຸດຂໍ້ມູນແລະຕົວແບບທີ່ມີເອກະສານທີ່ດີກວ່າ. ເອກະສານຈະສະທ້ອນໃຫ້ເຫັນເຖິງຂໍ້ຈໍາກັດຂອງທັງແບບຈໍາລອງ ແລະຂໍ້ມູນໄດ້ດີກວ່າ. ນັກຄົ້ນຄວ້າຍັງສັງເກດເຫັນວ່າແນວຄວາມຄິດດຽວກັນສາມາດຖືກນໍາໃຊ້ກັບຄຸນສົມບັດ AI ອື່ນໆເຊັ່ນ: ການຕີຄວາມຫມາຍ, ຄວາມປອດໄພ, ແລະການປົກປ້ອງຄວາມເປັນສ່ວນຕົວ.

ໃນຂະນະທີ່ການສົນທະນາຫຼາຍຂຶ້ນກ່ຽວກັບຫຼັກການດ້ານຈັນຍາບັນຂອງ AI, ຫຼາຍຄົນໄດ້ສັງເກດເຫັນວ່າຫຼັກການດຽວແມ່ນບໍ່ພຽງພໍແລະການປະຕິບັດຕ້ອງໄດ້ຮັບການປະຕິບັດເພື່ອຮັກສາຈັນຍາບັນຂອງ AI. ຜູ້ຂຽນຂອງເອກະສານສັງເກດວ່າ "ກົດລະບຽບແລະມາດຕະຖານທີ່ມີຢູ່ແລ້ວໃນອຸດສາຫະກໍາແລະວິຊາການແມ່ນບໍ່ພຽງພໍເພື່ອຮັບປະກັນການພັດທະນາ AI ທີ່ມີຄວາມຮັບຜິດຊອບ." ຜູ້ຮ່ວມກໍ່ຕັ້ງຂອງ Google Brain ແລະຜູ້ນໍາອຸດສາຫະກໍາ AI Andrew Ng ເຊັ່ນກັນ opined ຫຼັກການແນະນໍາຢ່າງດຽວຂາດຄວາມສາມາດໃນການຮັບປະກັນວ່າ AI ຖືກນໍາໃຊ້ຢ່າງມີຄວາມຮັບຜິດຊອບແລະຍຸຕິທໍາ, ໂດຍກ່າວວ່າພວກເຂົາຈໍານວນຫຼາຍຈໍາເປັນຕ້ອງມີຄວາມຊັດເຈນແລະມີຄວາມຄິດທີ່ປະຕິບັດໄດ້.

ຄໍາແນະນໍາການລ່າສັດທີ່ມີອະຄະຕິຂອງທີມງານຄົ້ນຄ້ວາລວມແມ່ນຄວາມພະຍາຍາມທີ່ຈະຍ້າຍອອກໄປນອກເຫນືອຫຼັກການດ້ານຈັນຍາບັນເຂົ້າໄປໃນພື້ນທີ່ຂອງການປະຕິບັດດ້ານຈັນຍາບັນ. ທີມງານຄົ້ນຄ້ວາຍັງໄດ້ໃຫ້ຄໍາແນະນໍາອື່ນໆຈໍານວນຫນຶ່ງທີ່ສາມາດຊຸກຍູ້ການປະຕິບັດດ້ານຈັນຍາບັນໃນຂົງເຂດ AI.

ທີມງານຄົ້ນຄ້ວາໄດ້ອອກຄໍາແນະນໍາອື່ນໆຈໍານວນຫນຶ່ງທີ່ບໍລິສັດສາມາດປະຕິບັດຕາມເພື່ອເຮັດໃຫ້ການນໍາໃຊ້ AI ຂອງເຂົາເຈົ້າມີຈັນຍາບັນຫຼາຍຂຶ້ນ. ພວກເຂົາແນະນໍາວ່າຖານຂໍ້ມູນທີ່ເປັນສູນກາງຂອງເຫດການ AI ຄວນຖືກສ້າງແລະແບ່ງປັນລະຫວ່າງຊຸມຊົນ AI ທີ່ກວ້າງຂວາງ. ເຊັ່ນດຽວກັນ, ນັກຄົ້ນຄວ້າສະເຫນີວ່າເສັ້ນທາງການກວດສອບຄວນໄດ້ຮັບການສ້າງຕັ້ງຂຶ້ນແລະເສັ້ນທາງເຫຼົ່ານີ້ຄວນຮັກສາຂໍ້ມູນກ່ຽວກັບການສ້າງແລະການນໍາໃຊ້ຄໍາຮ້ອງສະຫມັກທີ່ມີຄວາມສໍາຄັນດ້ານຄວາມປອດໄພໃນເວທີ AI.

ເພື່ອຮັກສາຄວາມເປັນສ່ວນຕົວຂອງປະຊາຊົນ, ທີມງານຄົ້ນຄ້ວາໄດ້ແນະນໍາວ່າເຕັກນິກການເປັນຈຸດໃຈກາງຂອງຄວາມເປັນສ່ວນຕົວເຊັ່ນ: ການສື່ສານທີ່ຖືກເຂົ້າລະຫັດ, ການຮຽນຮູ້ແບບສະຫະພັນ, ແລະຄວາມເປັນສ່ວນຕົວທີ່ແຕກຕ່າງກັນຄວນຖືກໃຊ້ທັງຫມົດ. ນອກເຫນືອຈາກນີ້, ທີມງານຄົ້ນຄ້ວາແນະນໍາວ່າທາງເລືອກແຫຼ່ງເປີດຄວນຈະມີຢູ່ຢ່າງກວ້າງຂວາງແລະຮູບແບບ AI ທາງດ້ານການຄ້າຄວນໄດ້ຮັບການກວດສອບຢ່າງຫນັກແຫນ້ນ. ສຸດທ້າຍ, ທີມງານຄົ້ນຄ້ວາແນະນໍາວ່າການໃຫ້ທຶນຂອງລັດຖະບານເພີ່ມຂຶ້ນເພື່ອໃຫ້ນັກຄົ້ນຄວ້າວິຊາການສາມາດກວດສອບການຮ້ອງຂໍການປະຕິບັດຂອງຮາດແວ.

Blogger ແລະ programmer ທີ່ມີຄວາມຊ່ຽວຊານໃນ ການຮຽນຮູ້ເຄື່ອງ ແລະ Deep Learning ຫົວຂໍ້. Daniel ຫວັງ​ວ່າ​ຈະ​ຊ່ວຍ​ໃຫ້​ຄົນ​ອື່ນ​ນໍາ​ໃຊ້​ພະ​ລັງ​ງານ​ຂອງ AI ເພື່ອ​ຄວາມ​ດີ​ຂອງ​ສັງ​ຄົມ.