ຜູ້ ນຳ ທີ່ຄິດ
ບໍລິສັດສາມາດສ້າງ AI ທີ່ມີຄວາມຮັບຜິດຊອບແລະໂປ່ງໃສແນວໃດ - ຜູ້ນໍາທາງຄວາມຄິດ
By Eric Paternoster, CEO ຂອງ Infosys Public Services
Sundar Pichai, ຊີອີໂອຂອງບໍລິສັດແມ່ຂອງ Google Alphabet, ໄດ້ອະທິບາຍການພັດທະນາໃນ AI ວ່າ "ເລິກເຊິ່ງກວ່າໄຟຫຼືໄຟຟ້າ," ແລະ COVID-19 ໄດ້ນໍາເອົາຄວາມຮີບດ່ວນໃຫມ່ໃນການເປີດເຜີຍຄໍາສັນຍາຂອງເຕັກໂນໂລຢີນີ້. ປະຈຸບັນນີ້ແອັບພລິເຄຊັນຂອງ AI ຢູ່ໃນຈຸດເດັ່ນຢ່າງໜັກແໜ້ນ, ປັບປຸງການປິ່ນປົວ COVID, ການຕິດຕາມຜູ້ສົ່ງສັນຍານ COVID ທີ່ອາດມີ, ແລະນຳໃຊ້ chatbots ໃນເວລາຈິງສຳລັບຜູ້ໃຊ້ທີ່ຫຍຸ້ງຍາກໃນເວັບໄຊທ໌ຂາຍຍ່ອຍ. ຄໍາຮ້ອງສະຫມັກເຫຼົ່ານີ້ໄດ້ສະແດງໃຫ້ເຫັນວ່າ AI ປັບປຸງຄວາມຢືດຢຸ່ນຂອງທຸລະກິດແລະຜົນປະໂຫຍດຕໍ່ສັງຄົມຢ່າງກວ້າງຂວາງ.
ດັ່ງນັ້ນ, ຄຽງຄູ່ກັບ "cloud-native," buzzword ຂອງໄຕມາດທີ່ຜ່ານມາອາດຈະເປັນ "ການຫັນປ່ຽນ AI ທໍາອິດ", ເປັນຄໍາທີ່ນັກປະຕິບັດອຸດສາຫະກໍາເຊື່ອວ່າຈະເປັນຄວາມຈິງເຖິງແມ່ນວ່າຫຼັງຈາກ COVID ອອກໄປ. ສໍາລັບບໍລິສັດຈໍານວນຫຼາຍ, ຄໍາສັນຍາຂອງຄ່າໃຊ້ຈ່າຍຕ່ໍາ (ie, ບົບຕ່ອງໂສ້ການສະຫນອງທີ່ສອດຄ່ອງກັບຄວາມຕ້ອງການ) ແລະການຊຸກຍູ້ການຜະລິດທີ່ຫນ້າຊົມເຊີຍ (ເຊັ່ນ, ເມື່ອທະນາຄານໃຊ້ເອກະສານແລະການຢັ້ງຢືນຕົວຕົນໃນເວລາຈິງ) ແມ່ນດີເກີນໄປທີ່ຈະບໍ່ສົນໃຈ.
ເປັນຫຍັງ AI-First Transformation?
ໃນການຫັນປ່ຽນ AI ທໍາອິດ, ວິສາຫະກິດໃຊ້ AI ເປັນດາວເຫນືອ, ເຮັດວຽກເພື່ອນໍາໃຊ້ມັນບໍ່ພຽງແຕ່ສະຫລາດ, ແຕ່ຍັງຢູ່ໃນວິທີການທີ່ມີອິດທິພົນຕໍ່ການຕັດສິນໃຈທີ່ເຮັດໂດຍປະຊາຊົນ, ຂະບວນການແລະລະບົບຕ່າງໆ. ມັນປັບແຕ່ງອົງການຈັດຕັ້ງໄປສູ່ການປ່ຽນແປງລະຫວ່າງພະນັກງານ, ຄູ່ຮ່ວມງານ, ແລະລູກຄ້າ. ນີ້ເຮັດໃຫ້ພວກເຂົາສາມາດ pivot ແລະຕອບສະຫນອງຄວາມຕ້ອງການທີ່ປ່ຽນແປງຢ່າງໄວວາໃນຂະນະທີ່ສ້າງຄວາມໄດ້ປຽບໃນການແຂ່ງຂັນໃນໄລຍະຍາວ.
ແຕ່ບໍ່ແມ່ນບໍລິສັດທັງຫມົດຢູ່ໃນລະດັບດຽວກັນຂອງການເຕີບໂຕຂອງ AI. ມີບາງອັນທີ່ສາມາດເອີ້ນວ່າ "ກຸ່ມ AI ທໍາມະດາ," ຫຼື H1. ບໍລິສັດເຫຼົ່ານີ້, ທີ່ມີປະສົບການຫນ້ອຍແລະການລົງທຶນ, ໂດຍທົ່ວໄປແລ້ວໃຊ້ວິທີຄລາສສິກເຊັ່ນ naïve Bayes, ເຊິ່ງມີປະມານ 250 ປີ, ຫຼືປ່າໄມ້ແບບສຸ່ມ (ພັດທະນາໂດຍ Tin Kam Ho ໃນປີ 1995) ເພື່ອເພີ່ມຄວາມສະຫລາດທີ່ແຕກແຍກຢູ່ໃນລະບົບທີ່ມີຢູ່. ການໃຊ້ AI ດັ່ງກ່າວເປັນໄປຕາມກົດລະບຽບຢ່າງເຂັ້ມງວດ ແລະຂ້ອນຂ້າງເຂັ້ມງວດ, ຂາດຄວາມສາມາດໃນການທົ່ວໄປຈາກກົດລະບຽບທີ່ພວກເຂົາຄົ້ນພົບ. ຫຼັງຈາກນັ້ນ, ມີ "ກຸ່ມການຮຽນຮູ້ເລິກເຊິ່ງ," ຫຼື H2. ບໍລິສັດເຫຼົ່ານີ້ຍອມຮັບເອົາ AI ທີ່ສັບສົນຫຼາຍ, ລວມທັງການແປພາສາເຄື່ອງຈັກ neural ແລະລະບົບການຖອດຂໍ້ຄວາມ, ເພື່ອຂຸດຄົ້ນຄວາມເຂົ້າໃຈການສົນທະນາ. ລະບົບດັ່ງກ່າວມີພະລັງງານຫຼາຍກວ່າແຕ່ບໍ່ໄດ້ອະທິບາຍໄດ້ງ່າຍວ່າເປັນຫຍັງພວກເຂົາເຮັດສິ່ງທີ່ເຂົາເຈົ້າເຮັດ. ພວກເຂົາຍັງຂາດຄວາມໂປ່ງໃສ. ສໍາລັບສອງກຸ່ມນີ້, AI ທີ່ໃຊ້ມັກຈະບໍ່ຫນ້າເຊື່ອຖືຫຼືເຊື່ອຖືໄດ້ແລະສາມາດຕັດສິນໃຈທີ່ມີຄວາມລໍາອຽງທີ່ນໍາເອົາຄວາມສົນໃຈທາງລົບຢ່າງຫນັກແຫນ້ນຈາກອົງການຈັດຕັ້ງຂອງລັດຖະບານ, ຜູ້ຄວບຄຸມແລະປະຊາຊົນທົ່ວໄປ.
ບໍລິສັດເຫຼົ່ານີ້ຈໍາເປັນຕ້ອງໄດ້ດໍາເນີນການເຄື່ອນໄຫວໃນປັດຈຸບັນເພື່ອປະຕິບັດການປະຕິບັດ AI ຂອງພວກເຂົາຕື່ມອີກ - ໄປຫາ camp ທີສາມ (H3) ບ່ອນທີ່ AI ແມ່ນການຮຽນຮູ້ດ້ວຍຕົນເອງແລະສ້າງ. ໃນຈຸດນີ້, ລະບົບ AI ແມ່ນເຄິ່ງຄວບຄຸມຫຼືແມ້ກະທັ້ງບໍ່ມີການຄວບຄຸມ. ເຂົາເຈົ້າມີຄວາມໂປ່ງໃສ ແລະບັນລຸ “ຄວາມຮູ້ສຶກທົ່ວໄປ” ຜ່ານການຮຽນຮູ້ຫຼາຍໜ້າວຽກ. ລະບົບເຫຼົ່ານີ້ສະໜອງຄວາມສະຫຼາດທີ່ອຸດົມສົມບູນຂຶ້ນ ແລະໃຫ້ຄວາມເຂົ້າໃຈໃນເວລາຈິງ, ສາມາດປະຕິບັດໄດ້. ນີ້ແມ່ນເຮັດໄດ້ໂດຍຜ່ານ AI ທີ່ມີການຄຸ້ມຄອງດີ, ຄວບຄຸມທີ່ສາມາດຕີຄວາມຫມາຍແລະອະທິບາຍໄດ້ໃນທຸກຂັ້ນຕອນ.
ວິທີການເຮັດວຽກໄປສູ່ AI ທີ່ມີຄວາມຮັບຜິດຊອບຫຼາຍຂຶ້ນ, ໂປ່ງໃສ
AI ຖືກນໍາໃຊ້ເພີ່ມຂຶ້ນໃນການຄຸ້ມຄອງໂຮງຮຽນ, ບ່ອນເຮັດວຽກ, ແລະຫນ່ວຍງານສາທາລະນະອື່ນໆ. ໃນການຕັ້ງຄ່າເຫຼົ່ານີ້, ມັນເປັນສິ່ງສໍາຄັນກວ່າທີ່ເຄີຍເປັນທີ່ AI ແມ່ນຍຸດຕິທໍາແລະໂປ່ງໃສ. ຢ່າງໃດກໍຕາມ, ຍ້ອນວ່າສັງຄົມເຮັດວຽກໂດຍຜ່ານການລະເບີດຂອງການຮັບຮອງເອົາ AI ນີ້, ອົງການຈັດຕັ້ງລະບຽບການແມ່ນໃຫ້ຄໍາແນະນໍາຈໍາກັດກ່ຽວກັບການພັດທະນາທີ່ເຫມາະສົມແລະການນໍາໃຊ້ເຕັກໂນໂລຊີ AI. ດັ່ງນັ້ນ, ຄວາມຮັບຜິດຊອບແມ່ນຢູ່ໃນບໍລິສັດທີ່ຈະນໍາພາ. ອຸດສາຫະກໍາເຕັກໂນໂລຢີທີ່ກວ້າງກວ່າຈະຕ້ອງເຮັດໃຫ້ກ້າມຊີ້ນທາງດ້ານການເງິນແລະທຶນມະນຸດເຮັດວຽກ, ຫັນການປະຕິບັດເບື້ອງຕົ້ນຂອງ AI ຊິ້ນສ່ວນໄປສູ່ລະບົບນິເວດທີ່ມີປະສິດທິພາບ, ສ້າງສັນ, ຄວາມຮັບຜິດຊອບ, ແລະໂປ່ງໃສ. ເພື່ອຍ້າຍເຂົ້າໄປໃນພື້ນທີ່ນີ້, ບໍລິສັດຄວນເຮັດສີ່ຢ່າງຕໍ່ໄປນີ້:
- ຮັກສາມະນຸດຢູ່ໃນວົງ: ແບບຈໍາລອງ AI ມັກຈະຖືກອອກແບບເພື່ອເຮັດວຽກເປັນເອກະລາດຂອງມະນຸດ. ຢ່າງໃດກໍຕາມ, ອົງປະກອບຂອງມະນຸດແມ່ນສໍາຄັນໃນຫຼາຍໆກໍລະນີ. ມະນຸດຕ້ອງທົບທວນຄືນການຕັດສິນໃຈ ແລະຫຼີກລ່ຽງຄວາມລຳອຽງ ແລະຄວາມຜິດພາດທີ່ມັກຈະຕິດຕາມໂຄງການ AI. ກໍລະນີການນໍາໃຊ້ສອງຢ່າງປະກອບມີການກວດພົບການສໍ້ໂກງແລະກໍລະນີທີ່ມີການບັງຄັບໃຊ້ກົດຫມາຍ. ພວກເຮົາແນະນໍາໃຫ້ບໍລິສັດຈ້າງຜູ້ປະຕິບັດ AI ຊ້າໆແຕ່ຢ່າງຕໍ່ເນື່ອງໃນໄລຍະເວລາເພື່ອໃຫ້ໄດ້ຂາຂຶ້ນໃນການເດີນທາງທໍາອິດ AI ຂອງພວກເຂົາ.
- ກໍາຈັດຊຸດຂໍ້ມູນທີ່ມີຄວາມລໍາອຽງ: ຊຸດຂໍ້ມູນທີ່ບໍ່ມີອະຄະຕິເປັນເງື່ອນໄຂເບື້ອງຕົ້ນອັນສໍາຄັນທີ່ຈະເຮັດໃຫ້ຕົວແບບ AI ທີ່ເຊື່ອຖືໄດ້, ຍຸຕິທໍາແລະບໍ່ຈໍາແນກ. ເພື່ອໃຫ້ໄດ້ຮັບຮູ້ເຖິງຄວາມສໍາຄັນຂອງມັນ, AI ກໍາລັງຖືກໃຊ້ສໍາລັບລາຍຊື່ຊີວະປະຫວັດຫຍໍ້ແລະການໃຫ້ຄະແນນສິນເຊື່ອໂດຍທະນາຄານ, ແລະມັນກໍ່ໄດ້ເຂົ້າໄປໃນລະບົບການຕັດສິນບາງຢ່າງ. ໃນພູມສັນຖານນີ້, ຄວາມລໍາອຽງທີ່ບໍ່ມີການກວດສອບໄດ້ມີຜົນກະທົບທີ່ແທ້ຈິງຫຼາຍ.
- ໃຫ້ແນ່ໃຈວ່າການຕັດສິນໃຈແມ່ນສາມາດອະທິບາຍໄດ້: ຄຸນນະສົມບັດນີ້ໄດ້ຖືກກວມເອົາໂດຍຈໍານວນຫຼາຍຂອງຂ່າວໃຫຍ່, ແລະຖືກຕ້ອງ. XAI ຊ່ວຍອະທິບາຍວ່າເປັນຫຍັງລະບົບ AI ຈຶ່ງຕັດສິນໃຈທີ່ແນ່ນອນ. ມັນເປີດເຜີຍວ່າລັກສະນະໃດຂອງຮູບແບບການຮຽນຮູ້ທີ່ເລິກເຊິ່ງໄດ້ຖືກນໍາໃຊ້ຫຼາຍກ່ວາຄົນອື່ນເພື່ອເຮັດໃຫ້ການຄາດຄະເນຫຼືສົມມຸດຕິຖານຂອງມັນ. ຄວາມເຂົ້າໃຈກ່ຽວກັບຄວາມສໍາຄັນຂອງຄຸນນະສົມບັດແລະສາມາດກໍານົດວິທີການຕັດສິນໃຈແມ່ນສໍາຄັນຕໍ່ກັບການນໍາໃຊ້ກໍລະນີເຊັ່ນ: ຍານພາຫະນະອັດຕະໂນມັດແລະການວິໄສທັດຄອມພິວເຕີທີ່ໃຊ້ໃນ biopsies ທາງການແພດ.
- ເຜີຍແຜ່ຜົນການຄົ້ນພົບຢ່າງເຊື່ອຖືໄດ້: ເປັນຄວາມຈໍາເປັນທົ່ວໄປໃນໂຄງການຄົ້ນຄ້ວາ, ຮູບແບບ AI ຄວນສອດຄ່ອງໃນເວລາທີ່ໃຫ້ການຄາດຄະເນໃນໄລຍະເວລາ. ແບບຈໍາລອງດັ່ງກ່າວບໍ່ຄວນຖືກແບ່ງອອກໃນເວລາທີ່ນໍາສະເຫນີຂໍ້ມູນໃຫມ່.
ສີ່ສິ່ງເຫຼົ່ານີ້ຈະສ້າງລະບົບນິເວດທີ່ໂປ່ງໃສ, ມີສະຕິປັນຍາ, ກ້າວໄປສູ່ສິ່ງທີ່ພວກເຮົາເອີ້ນວ່າ "ວິສາຫະກິດທີ່ມີຊີວິດ." ໃນທີ່ນີ້, ການຕັດສິນໃຈທີ່ບໍ່ມີອະຄະຕິ, ອະທິບາຍໄດ້ແມ່ນເຮັດໃນເວລາຕໍ່ໄປ, ໂດຍວິສາຫະກິດທັງຫມົດເຮັດຫນ້າທີ່ເປັນສິ່ງມີຊີວິດທີ່ຖືກຄວບຄຸມໂດຍມະນຸດ. ອ່ານ ເອກະສານສີຂາວຂອງສະຖາບັນຄວາມຮູ້ Infosys ຮຽນຮູ້ເພີ່ມເຕີມ.