ກ້ານໃບ Generative AI ໃນ Cybersecurity: The Battlefield, The Threat, & Now The Defense - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ຜູ້ ນຳ ທີ່ຄິດ

Generative AI ໃນ Cybersecurity: The Battlefield, The Threat, & Now the Defense

mm

ຈັດພີມມາ

 on

ສະໜາມຮົບ

ສິ່ງທີ່ເລີ່ມຕົ້ນຍ້ອນຄວາມຕື່ນເຕັ້ນກ່ຽວກັບຄວາມສາມາດຂອງ Generative AI ໄດ້ຫັນໄປສູ່ຄວາມກັງວົນຢ່າງໄວວາ. ເຄື່ອງມື AI ທົ່ວໄປເຊັ່ນ ChatGPT, Google Bard, Dall-E, ແລະອື່ນໆ. ສືບຕໍ່ສ້າງຫົວຂໍ້ຂ່າວເນື່ອງຈາກຄວາມກັງວົນກ່ຽວກັບຄວາມປອດໄພແລະຄວາມເປັນສ່ວນຕົວ. ມັນຍັງນໍາໄປສູ່ການຕັ້ງຄໍາຖາມກ່ຽວກັບສິ່ງທີ່ເປັນຈິງແລະສິ່ງທີ່ບໍ່ແມ່ນ. Generative AI ສາມາດເອົາອອກໄດ້ຢ່າງສົມເຫດສົມຜົນ ແລະດັ່ງນັ້ນຈຶ່ງເຮັດໃຫ້ເນື້ອຫາໜ້າເຊື່ອຖືໄດ້. ຫຼາຍດັ່ງນັ້ນໃນຕອນສະຫຼຸບ 60 ນາທີທີ່ຜ່ານມາກ່ຽວກັບ AI, ເຈົ້າພາບ Scott Pelley ໄດ້ປະໄວ້ຜູ້ຊົມດ້ວຍຄໍາຖະແຫຼງນີ້; "ພວກເຮົາຈະສິ້ນສຸດດ້ວຍບັນທຶກທີ່ບໍ່ເຄີຍປາກົດໃນ 60 ນາທີ, ແຕ່ອັນຫນຶ່ງ, ໃນການປະຕິວັດ AI, ທ່ານອາດຈະໄດ້ຍິນເລື້ອຍໆ: ກ່ອນຫນ້ານີ້ແມ່ນຖືກສ້າງຂຶ້ນດ້ວຍເນື້ອຫາຂອງມະນຸດ 100%.

ສົງຄາມໄຊເບີ Generative AI ເລີ່ມຕົ້ນດ້ວຍເນື້ອໃນທີ່ໜ້າເຊື່ອຖື ແລະ ຊີວິດຈິງ ແລະສະຫນາມຮົບແມ່ນບ່ອນທີ່ແຮກເກີໃຊ້ Generative AI, ໂດຍໃຊ້ເຄື່ອງມືເຊັ່ນ ChatGPT, ແລະອື່ນໆ. ມັນງ່າຍທີ່ສຸດສຳລັບອາຊະຍາກຳທາງອິນເຕີເນັດ, ໂດຍສະເພາະຜູ້ທີ່ມີຊັບພະຍາກອນຈຳກັດ ແລະບໍ່ມີຄວາມຮູ້ທາງດ້ານເຕັກນິກ, ເພື່ອປະຕິບັດອາຊະຍາກໍາຂອງເຂົາເຈົ້າໂດຍຜ່ານວິສະວະກໍາສັງຄົມ, phishing ແລະການໂຈມຕີການປອມຕົວ.

ໄພຂົ່ມຂູ່

Generative AI ມີອໍານາດທີ່ຈະເປັນເຊື້ອໄຟການໂຈມຕີທາງອິນເຕີເນັດທີ່ສັບສົນຫຼາຍຂຶ້ນ.

ເນື່ອງຈາກວ່າເຕັກໂນໂລຢີສາມາດຜະລິດເນື້ອຫາທີ່ຫນ້າເຊື່ອຖືແລະຄ້າຍຄືກັບມະນຸດໄດ້ງ່າຍຂຶ້ນ, ການຫລອກລວງທາງອິນເຕີເນັດໃຫມ່ທີ່ໃຊ້ AI ແມ່ນຍາກກວ່າສໍາລັບທີມງານຄວາມປອດໄພທີ່ຈະຊອກຫາໄດ້ງ່າຍ. ການຫລອກລວງທີ່ສ້າງໂດຍ AI ສາມາດມາໃນຮູບແບບຂອງການໂຈມຕີທາງວິສະວະກໍາສັງຄົມເຊັ່ນການໂຈມຕີ phishing ຫຼາຍຊ່ອງທາງທີ່ດໍາເນີນຜ່ານອີເມລ໌ແລະແອັບຯສົ່ງຂໍ້ຄວາມ. ຕົວຢ່າງໃນໂລກທີ່ແທ້ຈິງອາດຈະເປັນອີເມລ໌ຫຼືຂໍ້ຄວາມທີ່ມີເອກະສານທີ່ຖືກສົ່ງໄປຫາຜູ້ບໍລິຫານຂອງບໍລິສັດຈາກຜູ້ຂາຍພາກສ່ວນທີສາມຜ່ານ Outlook (Email) ຫຼື Slack (Messaging App). ອີເມວ ຫຼືຂໍ້ຄວາມຈະຊີ້ໃຫ້ພວກເຂົາຄລິກໃສ່ມັນເພື່ອເບິ່ງໃບແຈ້ງໜີ້. ດ້ວຍ AI Generative, ມັນເກືອບເປັນໄປບໍ່ໄດ້ທີ່ຈະແຍກແຍະລະຫວ່າງອີເມວຫຼືຂໍ້ຄວາມທີ່ແທ້ຈິງແລະປອມ. ນັ້ນແມ່ນເຫດຜົນທີ່ວ່າມັນເປັນອັນຕະລາຍຫຼາຍ.

ຢ່າງໃດກໍຕາມ, ຫນຶ່ງໃນຕົວຢ່າງທີ່ຫນ້າຕົກໃຈທີ່ສຸດ, ແມ່ນວ່າດ້ວຍ Generative AI, cybercriminals ສາມາດສ້າງການໂຈມຕີໃນທົ່ວຫລາຍພາສາ - ໂດຍບໍ່ຄໍານຶງເຖິງວ່າແຮກເກີຈະເວົ້າພາສາ. ເປົ້າໝາຍແມ່ນເພື່ອຖິ້ມເຄືອຂ່າຍກວ້າງ ແລະອາດຊະຍາກຳທາງອິນເຕີເນັດຈະບໍ່ຈຳແນກຜູ້ເຄາະຮ້າຍໂດຍອີງໃສ່ພາສາ.

ຄວາມກ້າວຫນ້າຂອງ Generative AI ສັນຍານວ່າຂະຫນາດແລະປະສິດທິພາບຂອງການໂຈມຕີເຫຼົ່ານີ້ຈະສືບຕໍ່ເພີ່ມຂຶ້ນ.

ປ້ອງກັນປະເທດ

ການປ້ອງກັນ Cyber ​​ສໍາລັບ Generative AI ມີຊື່ສຽງໂດ່ງດັງທີ່ຂາດຫາຍໄປສໍາລັບປິດສະຫນາ. ຈົນກ່ວາໃນປັດຈຸບັນ. ໂດຍໃຊ້ເຄື່ອງຈັກເພື່ອຕໍ່ສູ້ກັບເຄື່ອງຈັກ, ຫຼືປັກໝຸດ AI ຕໍ່ກັບ AI, ພວກເຮົາສາມາດປ້ອງກັນໄພຂົ່ມຂູ່ອັນໃໝ່ ແລະ ການຂະຫຍາຍຕົວນີ້. ແຕ່ຍຸດທະສາດນີ້ຄວນຈະຖືກກໍານົດແນວໃດແລະມັນມີລັກສະນະແນວໃດ?

ກ່ອນອື່ນ ໝົດ, ອຸດສາຫະ ກຳ ຕ້ອງປະຕິບັດການປັກໝຸດຄອມພິວເຕີກັບຄອມພິວເຕີແທນທີ່ຈະເປັນມະນຸດກັບຄອມພິວເຕີ. ເພື່ອປະຕິບັດຕາມຄວາມພະຍາຍາມນີ້, ພວກເຮົາຕ້ອງພິຈາລະນາແພລະຕະຟອມການຊອກຄົ້ນຫາແບບພິເສດທີ່ສາມາດກວດພົບໄພຂົ່ມຂູ່ທີ່ສ້າງໂດຍ AI, ຫຼຸດຜ່ອນເວລາທີ່ມັນໃຊ້ເວລາໃນການທຸງແລະເວລາທີ່ມັນໃຊ້ເພື່ອແກ້ໄຂການໂຈມຕີທາງວິສະວະກໍາສັງຄົມທີ່ມາຈາກ Generative AI. ບາງສິ່ງບາງຢ່າງທີ່ມະນຸດບໍ່ສາມາດເຮັດໄດ້.

ພວກເຮົາບໍ່ດົນມານີ້ໄດ້ດໍາເນີນການທົດສອບວິທີການນີ້ສາມາດເບິ່ງໄດ້. ພວກເຮົາໄດ້ໃຫ້ ChatGPT ປຸງແຕ່ງອີເມວ phishing callback ທີ່ອີງໃສ່ພາສາໃນຫຼາຍພາສາເພື່ອເບິ່ງວ່າແພລະຕະຟອມຄວາມເຂົ້າໃຈພາສາທໍາມະຊາດຫຼືເວທີການກວດສອບຂັ້ນສູງສາມາດກວດພົບມັນໄດ້. ພວກເຮົາໄດ້ໃຫ້ ChatGPT ທັນທີ, "ຂຽນອີເມລ໌ຮີບດ່ວນຮຽກຮ້ອງໃຫ້ຜູ້ໃດຜູ້ຫນຶ່ງໂທຫາກ່ຽວກັບການແຈ້ງການສຸດທ້າຍກ່ຽວກັບສັນຍາໃບອະນຸຍາດຊອບແວ." ພວກເຮົາຍັງໄດ້ສັ່ງໃຫ້ຂຽນມັນເປັນພາສາອັງກິດແລະພາສາຍີ່ປຸ່ນ.

ແພລະຕະຟອມການຊອກຄົ້ນຫາແບບພິເສດສາມາດຕີອີເມວເປັນການໂຈມຕີທາງວິສະວະກໍາສັງຄົມໄດ້ທັນທີ. ແຕ່, ການຄວບຄຸມອີເມລ໌ພື້ນເມືອງເຊັ່ນ: ແພລະຕະຟອມການກວດສອບ phishing ຂອງ Outlook ບໍ່ສາມາດ. ເຖິງແມ່ນວ່າກ່ອນທີ່ຈະເປີດຕົວຂອງ ChatGPT, ວິສະວະກໍາສັງຄົມທີ່ເຮັດຜ່ານການສົນທະນາ, ການໂຈມຕີທາງພາສາໄດ້ພິສູດຜົນສໍາເລັດຍ້ອນວ່າພວກເຂົາສາມາດຫລີກລ້ຽງການຄວບຄຸມແບບດັ້ງເດີມ, ລົງຈອດຢູ່ໃນກ່ອງຈົດຫມາຍໂດຍບໍ່ມີການເຊື່ອມຕໍ່ຫຼື payload. ດັ່ງນັ້ນແມ່ນແລ້ວ, ມັນຕ້ອງໃຊ້ເຄື່ອງຈັກທຽບກັບການຕໍ່ສູ້ຂອງເຄື່ອງຈັກເພື່ອປ້ອງກັນ, ແຕ່ພວກເຮົາຍັງຕ້ອງແນ່ໃຈວ່າພວກເຮົາໃຊ້ປືນໃຫຍ່ທີ່ມີປະສິດຕິຜົນ, ເຊັ່ນເວທີການຊອກຄົ້ນຫາແບບພິເສດ. ທຸກໆຄົນທີ່ມີເຄື່ອງມືເຫຼົ່ານີ້ຢູ່ໃນການກໍາຈັດຂອງພວກເຂົາມີປະໂຫຍດໃນການຕໍ່ສູ້ຕ້ານ AI Generative.

ໃນເວລາທີ່ມັນມາກັບຂະຫນາດແລະຄວາມຫນ້າເຊື່ອຖືຂອງການໂຈມຕີທາງວິສະວະກໍາສັງຄົມທີ່ຈ່າຍໂດຍ ChatGPT ແລະຮູບແບບອື່ນໆຂອງ Generative AI, ການປ້ອງກັນເຄື່ອງຈັກແລະເຄື່ອງຈັກຍັງສາມາດຖືກປັບປຸງຄືນໃຫມ່. ສໍາລັບຕົວຢ່າງ, ການປ້ອງກັນນີ້ສາມາດຖືກນໍາໃຊ້ໃນຫຼາຍພາສາ. ມັນຍັງບໍ່ພຽງແຕ່ ຈຳ ກັດຄວາມປອດໄພຂອງອີເມລ໌ເທົ່ານັ້ນ, ແຕ່ສາມາດໃຊ້ ສຳ ລັບຊ່ອງທາງການສື່ສານອື່ນໆເຊັ່ນ: Slack, WhatsApp, Teams ແລະອື່ນໆ.

ຮັກສາຄວາມລະມັດລະວັງ

ເມື່ອເລື່ອນຜ່ານ LinkedIn, ຫນຶ່ງໃນພະນັກງານຂອງພວກເຮົາໄດ້ພົບກັບຄວາມພະຍາຍາມວິສະວະກໍາສັງຄົມ Generative AI. ໂຄສະນາການດາວໂຫຼດ “ເຈ້ຍຂາວ” ທີ່ແປກປະຫຼາດປະກົດຂຶ້ນດ້ວຍສິ່ງທີ່ສາມາດອະທິບາຍຢ່າງທົ່ວເຖິງວ່າເປັນການໂຄສະນາ “bizarro”. ຫຼັງຈາກການກວດກາຢ່າງໃກ້ຊິດ, ພະນັກງານໄດ້ເຫັນຮູບແບບສີທີ່ຊັດເຈນຢູ່ໃນມຸມຂວາລຸ່ມທີ່ປະທັບຕາໃສ່ຮູບພາບທີ່ຜະລິດໂດຍ Dall-E, ຮູບແບບ AI ທີ່ສ້າງຮູບພາບຈາກການເຕືອນທີ່ອີງໃສ່ຂໍ້ຄວາມ.

ການປະເຊີນຫນ້າກັບການໂຄສະນາ LinkedIn ປອມນີ້ແມ່ນການເຕືອນທີ່ສໍາຄັນຂອງອັນຕະລາຍທາງວິສະວະກໍາສັງຄົມໃຫມ່ໃນປັດຈຸບັນປະກົດຂຶ້ນເມື່ອສົມທົບກັບ Generative AI. ມັນເປັນສິ່ງ ສຳ ຄັນກວ່າທີ່ຈະຕ້ອງລະມັດລະວັງແລະສົງໃສ.

ອາຍຸຂອງ AI ທົ່ວໄປທີ່ຖືກນໍາໃຊ້ສໍາລັບການກໍ່ອາຊະຍາກໍາທາງອິນເຕີເນັດແມ່ນຢູ່ທີ່ນີ້, ແລະພວກເຮົາຕ້ອງມີຄວາມລະມັດລະວັງແລະກຽມພ້ອມທີ່ຈະຕໍ່ສູ້ກັບທຸກໆເຄື່ອງມືໃນການກໍາຈັດຂອງພວກເຮົາ.

Chris Lehman ເປັນຫົວຫນ້າບໍລິຫານ (CEO) ຂອງ SafeGuard Cyber. Chris ເປັນຜູ້ບໍລິຫານລະດັບສູງທີ່ມີລະດູການທີ່ມີປະສົບການຫຼາຍກວ່າ 20 ປີທີ່ເຮັດວຽກສໍາລັບບໍລິສັດເຕັກໂນໂລຢີທີ່ເຕີບໂຕສູງສຸດແລະປະສົບຜົນສໍາເລັດຫຼາຍທີ່ສຸດຈໍານວນຫນຶ່ງໃນໂລກ.