ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

Deepfakes ແລະ AI: ຄວາມເຂົ້າໃຈຈາກບົດລາຍງານສຽງ ແລະຄວາມປອດໄພຂອງ Pindrop ປີ 2024

mm
ການປັບປຸງ on

ຄວາມກ້າວຫນ້າຢ່າງໄວວາຂອງປັນຍາປະດິດ (AI) ໄດ້ນໍາເອົາຜົນປະໂຫຍດທີ່ສໍາຄັນແລະການປ່ຽນແປງທີ່ປ່ຽນແປງໃນທົ່ວອຸດສາຫະກໍາຕ່າງໆ. ຢ່າງໃດກໍ່ຕາມ, ມັນຍັງໄດ້ນໍາສະເຫນີຄວາມສ່ຽງແລະສິ່ງທ້າທາຍໃຫມ່, ໂດຍສະເພາະໃນເວລາທີ່ມັນມາ ການສໍ້ໂກງ ແລະ ຄວາມປອດໄພ. Deepfakes, ຜະລິດຕະພັນຂອງ AI ທົ່ວໄປ, ກາຍເປັນ sophisticated ເພີ່ມຂຶ້ນແລະເປັນໄພຂົ່ມຂູ່ຢ່າງຫຼວງຫຼາຍຕໍ່ຄວາມຊື່ສັດຂອງ ລະບົບຄວາມປອດໄພສຽງ.

ຜົນການຄົ້ນພົບຈາກ Pindrop's 2024 Voice Intelligence ແລະບົດລາຍງານຄວາມປອດໄພ, ເນັ້ນຫນັກເຖິງຜົນກະທົບຂອງການປອມແປງເລິກໃນຂະແຫນງການຕ່າງໆ, ຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີທີ່ຂັບລົດໄພຂົ່ມຂູ່ເຫຼົ່ານີ້, ແລະວິທີແກ້ໄຂໃຫມ່ທີ່ກໍາລັງພັດທະນາເພື່ອຕ້ານພວກມັນ.

ການລຸກຂຶ້ນຂອງ Deepfakes: ດາບສອງຄົມ

Deepfakes ນໍາໃຊ້ແບບພິເສດ ສູດການຮຽນຮູ້ເຄື່ອງຈັກ ເພື່ອສ້າງຄວາມເປັນຈິງສູງ ເນື້ອຫາສຽງ ແລະວິດີໂອສັງເຄາະ. ໃນຂະນະທີ່ເຕັກໂນໂລຢີເຫຼົ່ານີ້ມີແອັບພລິເຄຊັນທີ່ຫນ້າຕື່ນເຕັ້ນໃນການບັນເທີງແລະສື່, ພວກເຂົາຍັງນໍາສະເຫນີສິ່ງທ້າທາຍດ້ານຄວາມປອດໄພທີ່ຮ້າຍແຮງ. ອີງຕາມບົດລາຍງານຂອງ Pindrop, ຜູ້ບໍລິໂພກຂອງສະຫະລັດມີຄວາມກັງວົນທີ່ສຸດກ່ຽວກັບຄວາມສ່ຽງຂອງ deepfakes ແລະ clones ສຽງໃນຂະແຫນງການທະນາຄານແລະການເງິນ, 67.5% ສະແດງຄວາມເປັນຫ່ວງທີ່ສໍາຄັນ.

ຜົນກະທົບຕໍ່ສະຖາບັນການເງິນ

ສະຖາບັນການເງິນແມ່ນມີຄວາມສ່ຽງໂດຍສະເພາະການໂຈມຕີທີ່ຫຼອກລວງເລິກ. ຜູ້ສໍ້ໂກງໃຊ້ສຽງທີ່ສ້າງຂຶ້ນໂດຍ AI ເພື່ອປອມຕົວເປັນບຸກຄົນ, ໄດ້ຮັບການເຂົ້າເຖິງບັນຊີໂດຍບໍ່ໄດ້ຮັບອະນຸຍາດ, ແລະຈັດການທຸລະກໍາທາງດ້ານການເງິນ. ບົດ​ລາຍ​ງານ​ສະ​ແດງ​ໃຫ້​ເຫັນ​ວ່າ, ​ໃນ​ປີ 2023 ​ໄດ້​ມີ​ການ​ປະນີປະນອມ​ດ້ານ​ຂໍ້​ມູນ​ເປັນ​ປະຫວັດ​ການ, ​ເຊິ່ງມີ​ເຖິງ 3,205 ​ເຫດການ, ​ເພີ່ມ​ຂຶ້ນ 78% ​ເມື່ອ​ທຽບ​ໃສ່​ປີ​ກາຍ. ຄ່າ​ໃຊ້​ຈ່າຍ​ສະ​ເລ່ຍ​ຂອງ​ການ​ລະ​ເມີດ​ຂໍ້​ມູນ​ຢູ່​ໃນ​ສະ​ຫະ​ລັດ​ໃນ​ປັດ​ຈຸ​ບັນ​ແມ່ນ $9.5 ລ້ານ​, ໂດຍ​ສູນ​ຕິດ​ຕໍ່​ໄດ້​ຮັບ​ຜົນ​ກະ​ທົບ​ອັນ​ໃຫຍ່​ຫຼວງ​ຂອງ​ຄວາມ​ປອດ​ໄພ​.

ກໍລະນີທີ່ໜ້າສັງເກດອັນໜຶ່ງກ່ຽວຂ້ອງກັບການນຳໃຊ້ ກ ສຽງ​ປອມ​ເພື່ອ​ຫຼອກ​ລວງ​ບໍ​ລິ​ສັດ​ຢູ່​ຮົງ​ກົງ​ໃຫ້​ໂອນ 25 ລ້ານ​ໂດ​ລາ, ເນັ້ນໃຫ້ເຫັນເຖິງທ່າແຮງອັນຮ້າຍກາດຂອງເຕັກໂນໂລຊີເຫຼົ່ານີ້ເມື່ອໃຊ້ໃນທາງທີ່ເປັນອັນຕະລາຍ.

ໄພຂົ່ມຂູ່ຕໍ່ສື່ມວນຊົນ ແລະການເມືອງຢ່າງກວ້າງຂວາງ

ນອກ​ຈາກ​ການ​ບໍ​ລິ​ການ​ທາງ​ດ້ານ​ການ​ເງິນ​, deepfakes ຍັງສ້າງຄວາມສ່ຽງທີ່ສໍາຄັນຕໍ່ສື່ມວນຊົນແລະສະຖາບັນການເມືອງ. ຄວາມສາມາດໃນການສ້າງເນື້ອຫາສຽງ ແລະວິດີໂອປອມທີ່ໜ້າເຊື່ອຖືສາມາດຖືກນຳໃຊ້ເພື່ອເຜີຍແຜ່ຂໍ້ມູນຂ່າວສານທີ່ບໍ່ຖືກຕ້ອງ, ໝູນໃຊ້ຄວາມຄິດເຫັນຂອງປະຊາຊົນ, ແລະທຳລາຍຄວາມໄວ້ວາງໃຈໃນຂະບວນການປະຊາທິປະໄຕ. ບົດລາຍງານສັງເກດເຫັນວ່າ 54.9% ຂອງຜູ້ບໍລິໂພກມີຄວາມກັງວົນກ່ຽວກັບການຂົ່ມຂູ່ຂອງ deepfakes ກັບສະຖາບັນການເມືອງ, ໃນຂະນະທີ່ 54.5% ເປັນຫ່ວງກ່ຽວກັບຜົນກະທົບຂອງເຂົາເຈົ້າກ່ຽວກັບສື່ມວນຊົນ.

ໃນປີ 2023, ເທັກໂນໂລຍີປອມຕົວເລິກໄດ້ຕິດພັນກັບຫຼາຍເຫດການທີ່ມີຊື່ສຽງ, ລວມທັງເປັນ ການໂຈມຕີ robocall ທີ່ໃຊ້ສຽງສັງເຄາະຂອງປະທານາທິບໍດີ Biden. ເຫດການດັ່ງກ່າວຊີ້ໃຫ້ເຫັນເຖິງຄວາມຮີບດ່ວນຂອງການພັດທະນາກົນໄກການຊອກຄົ້ນຫາ ແລະການປ້ອງກັນທີ່ແຂງແຮງ.

ຄວາມກ້າວຫນ້າທາງດ້ານເຕັກໂນໂລຢີຂັບລົດ Deepfakes

ການຂະຫຍາຍຕົວຂອງເຄື່ອງມື AI ທົ່ວໄປ, ເຊັ່ນ OpenAI's ChatGPT, Bard ຂອງ Google, ແລະ Bing AI ຂອງ Microsoft, ໄດ້ຫຼຸດລົງຢ່າງຫຼວງຫຼາຍອຸປະສັກໃນການສ້າງ deepfakes. ໃນມື້ນີ້, ຫຼາຍກວ່າ 350 ລະບົບ AI ທົ່ວໄປໄດ້ຖືກນໍາໃຊ້ສໍາລັບຄໍາຮ້ອງສະຫມັກຕ່າງໆ, ລວມທັງ Eleven Labs, Descript, Podcastle, PlayHT, ແລະ Speechify. ຕົວຢ່າງເຊັ່ນຕົວແບບ VALL-E ຂອງ Microsoft ສາມາດໂຄນສຽງຈາກຄລິບສຽງສາມວິນາທີ.

ຄວາມກ້າວຫນ້າທາງດ້ານເທກໂນໂລຍີເຫຼົ່ານີ້ໄດ້ເຮັດໃຫ້ການປອມແປງທີ່ມີລາຄາຖືກກວ່າແລະງ່າຍຕໍ່ການຜະລິດ, ເພີ່ມການເຂົ້າເຖິງຂອງພວກມັນໃຫ້ກັບທັງຜູ້ໃຊ້ທີ່ອ່ອນໂຍນແລະນັກສະແດງທີ່ເປັນອັນຕະລາຍ. ໃນປີ 2025, Gartner ຄາດ​ຄະ​ເນ​ວ່າ 80% ຂອງ​ຂໍ້​ສະ​ເໜີ AI ໃນ​ການ​ສົນ​ທະ​ນາ​ຈະ​ລວມ​ເອົາ AI ຜະ​ລິດ​ຕະ​ພັນ, ເພີ່ມ​ຂຶ້ນ​ຈາກ 20% ໃນ​ປີ 2023..

ການຕໍ່ສູ້ກັບ Deepfakes: ການປະດິດສ້າງຂອງ Pindrop

ເພື່ອແກ້ໄຂໄພຂົ່ມຂູ່ທີ່ເພີ່ມຂຶ້ນຂອງ deepfakes, Pindrop ໄດ້ນໍາສະເຫນີການແກ້ໄຂທີ່ທັນສະໄຫມຫຼາຍ. ຫນຶ່ງໃນທີ່ໂດດເດັ່ນທີ່ສຸດແມ່ນ Pulse Deepfake ຮັບປະກັນ, ເປັນການຮັບປະກັນອັນທຳອິດຂອງມັນທີ່ສົ່ງເງິນຄືນໃຫ້ລູກຄ້າທີ່ມີສິດຖ້າ Product Suite ຂອງ Pindrop ລົ້ມເຫລວໃນການກວດສອບການສໍ້ໂກງສຽງທີ່ເລິກລັບ ຫຼື ສັງເຄາະອື່ນໆ. ການລິເລີ່ມນີ້ມີຈຸດປະສົງເພື່ອສະຫນອງຄວາມສະຫງົບຂອງຈິດໃຈໃຫ້ແກ່ລູກຄ້າໃນຂະນະທີ່ຊຸກຍູ້ຊອງຈົດຫມາຍໃນຄວາມສາມາດໃນການກວດສອບການສໍ້ໂກງ.

ວິທີແກ້ໄຂທາງດ້ານເຕັກໂນໂລຢີເພື່ອເພີ່ມຄວາມປອດໄພ

ບົດລາຍງານຂອງ Pindrop ຊີ້ໃຫ້ເຫັນເຖິງປະສິດທິພາບຂອງເທັກໂນໂລຍີການກວດຫາການມີຊີວິດຊີວາຂອງມັນ, ເຊິ່ງວິເຄາະການໂທຫາໂທລະສັບສົດໆສໍາລັບຄຸນສົມບັດທາງສາຍຕາທີ່ຊີ້ບອກວ່າສຽງໃນການໂທແມ່ນ "ສົດ" ຫຼືສັງເຄາະ. ໃນການທົດສອບພາຍໃນ, ການແກ້ໄຂການກວດສອບຊີວິດຂອງ Pindrop ພົບວ່າມີຄວາມຖືກຕ້ອງຫຼາຍກວ່າລະບົບການຮັບຮູ້ສຽງ 12% ແລະຖືກຕ້ອງກວ່າມະນຸດ 64% ໃນການກໍານົດສຽງສັງເຄາະ.

ນອກຈາກນັ້ນ, Pindrop ນຳໃຊ້ການປ້ອງກັນການສໍ້ໂກງແບບປະສົມປະສານຫຼາຍປັດໃຈ ແລະການກວດສອບຄວາມຖືກຕ້ອງ, ການໃຊ້ສຽງ, ອຸປະກອນ, ພຶດຕິກຳ, ຂໍ້ມູນເມຕາເດຕາຂອງຜູ້ໃຫ້ບໍລິການ, ແລະສັນຍານຊີວິດການເປັນຢູ່ເພື່ອເພີ່ມຄວາມປອດໄພ. ວິທີການຫຼາຍຊັ້ນນີ້ເຮັດໃຫ້ແຖບສໍາລັບຜູ້ສໍ້ໂກງຢ່າງຫຼວງຫຼາຍ, ເຮັດໃຫ້ມັນມີຄວາມຫຍຸ້ງຍາກຫຼາຍຂື້ນສໍາລັບພວກເຂົາທີ່ຈະປະສົບຜົນສໍາເລັດ.

ແນວໂນ້ມໃນອະນາຄົດແລະການກຽມພ້ອມ

ຊອກຫາລ່ວງຫນ້າ, ໄດ້ ລາຍ​ງານ​ການ​ຄາດ​ຄະ​ເນ​ ການ​ສໍ້​ໂກງ​ຢ່າງ​ເລິກ​ເຊິ່ງ​ຈະ​ສືບ​ຕໍ່​ເພີ່ມ​ຂຶ້ນ, ສ້າງ​ຄວາມ​ສ່ຽງ 5 ຕື້​ໂດ​ລາ​ຕໍ່​ສູນ​ຕິດ​ຕໍ່​ໃນ​ສະ​ຫະ​ລັດ. ຄວາມຊັບຊ້ອນທີ່ເພີ່ມຂຶ້ນຂອງລະບົບຂໍ້ຄວາມເປັນສຽງເວົ້າ, ສົມທົບກັບເຕັກໂນໂລຊີການເວົ້າສັງເຄາະທີ່ມີລາຄາຖືກ, ສະເຫນີສິ່ງທ້າທາຍຢ່າງຕໍ່ເນື່ອງ.

ເພື່ອສືບຕໍ່ການລ່ວງໜ້າຂອງໄພຂົ່ມຂູ່ເຫຼົ່ານີ້, Pindrop ແນະນຳເຕັກນິກການກວດຫາຄວາມສ່ຽງເບື້ອງຕົ້ນ ເຊັ່ນ: ການກວດຫາການຫຼອກລວງຜູ້ໂທ ແລະການກວດຫາການສໍ້ໂກງຢ່າງຕໍ່ເນື່ອງ, ເພື່ອຕິດຕາມ ແລະຫຼຸດຜ່ອນການເຄື່ອນໄຫວການສໍ້ໂກງໃນເວລາຈິງ. ໂດຍການຈັດຕັ້ງປະຕິບັດມາດຕະການຄວາມປອດໄພຂັ້ນສູງເຫຼົ່ານີ້, ອົງການຈັດຕັ້ງສາມາດປົກປ້ອງຕົນເອງໄດ້ດີຂຶ້ນຕໍ່ກັບສະພາບການປ່ຽນແປງຂອງການສໍ້ໂກງທີ່ຂັບເຄື່ອນດ້ວຍ AI.

ສະຫຼຸບ

ການປະກົດຕົວຂອງ deepfakes ແລະ AI ໂດຍທົ່ວໄປເປັນຕົວແທນຂອງສິ່ງທ້າທາຍທີ່ສໍາຄັນໃນຂົງເຂດການສໍ້ໂກງແລະຄວາມປອດໄພ. Pindrop's 2024 Voice Intelligence and Security Reports underscores the urgently need for innovative solutions to combat these threats. ດ້ວຍຄວາມກ້າວຫນ້າໃນການກວດສອບຊີວິດ, ການພິສູດຢືນຢັນຫຼາຍປັດໃຈ, ແລະຍຸດທະສາດການປ້ອງກັນການສໍ້ໂກງທີ່ສົມບູນແບບ, Pindrop ແມ່ນຢູ່ແຖວຫນ້າຂອງຄວາມພະຍາຍາມເພື່ອຮັບປະກັນອະນາຄົດຂອງການໂຕ້ຕອບສຽງ. ໃນຂະນະທີ່ພູມສັນຖານເຕັກໂນໂລຢີຍັງສືບຕໍ່ພັດທະນາ, ດັ່ງນັ້ນວິທີການຂອງພວກເຮົາເພື່ອຮັບປະກັນຄວາມປອດໄພແລະຄວາມໄວ້ວາງໃຈໃນຍຸກດິຈິຕອນ.

ຄູ່ຮ່ວມງານຜູ້ກໍ່ຕັ້ງຂອງ unite.AI ແລະສະມາຊິກຂອງ ສະພາເທກໂນໂລຍີ Forbes, Antoine ເປັນ futurist ຜູ້ທີ່ມີຄວາມກະຕືລືລົ້ນກ່ຽວກັບອະນາຄົດຂອງ AI ແລະຫຸ່ນຍົນ.

ລາວຍັງເປັນຜູ້ກໍ່ຕັ້ງຂອງ Securities.io, ເວັບໄຊທ໌ທີ່ສຸມໃສ່ການລົງທຶນໃນເຕັກໂນໂລຢີທີ່ຂັດຂວາງ.