ກ້ານໃບ ການເຂົ້າລະຫັດຮູບພາບຕໍ່ກັບການນໍາໃຊ້ໃນ Deepfake ແລະລະບົບສັງເຄາະຮູບພາບ - Unite.AI
ເຊື່ອມຕໍ່ກັບພວກເຮົາ

ປັນຍາປະດິດ

ການເຂົ້າລະຫັດຮູບພາບຕໍ່ກັບການນໍາໃຊ້ໃນ Deepfake ແລະລະບົບການສັງເຄາະຮູບພາບ

mm
ການປັບປຸງ on

ສາຍການສອບຖາມທີ່ຮູ້ກັນດີທີ່ສຸດໃນຂະແຫນງການຄົ້ນຄວ້າຕ້ານການປອມແປງເລິກທີ່ເພີ່ມຂຶ້ນແມ່ນກ່ຽວຂ້ອງກັບລະບົບທີ່ສາມາດຮັບຮູ້ຂອງປອມຫຼືລັກສະນະການຈໍາແນກອື່ນໆທີ່ສົມມຸດຕິຖານຂອງໃບຫນ້າທີ່ປອມແປງ, ສັງເຄາະ, ຫຼືປອມແປງຫຼື 'ດັດແກ້' ໃນເນື້ອຫາວິດີໂອແລະຮູບພາບ.

ວິທີການດັ່ງກ່າວໃຊ້ກົນລະຍຸດຕ່າງໆ, ລວມທັງ ການ​ກວດ​ສອບ​ຄວາມ​ເລິກ​, ການຂັດຂວາງຄວາມເປັນປົກກະຕິຂອງວິດີໂອ, ການປ່ຽນແປງໃນຈໍສະແດງຜົນ (ໃນການໂທວິດີໂອສົດທີ່ອາດຈະປອມຕົວເລິກໆ), ລັກສະນະທາງຊີວະພາບ, ພາກພື້ນໃບຫນ້າພາຍນອກ, ແລະແມ່ນແຕ່ ອໍານາດທີ່ເຊື່ອງໄວ້ ຂອງລະບົບ subconscious ຂອງມະນຸດ.

ສິ່ງທີ່ເຫຼົ່ານີ້, ແລະວິທີການທີ່ຄ້າຍຄືກັນແມ່ນມີຢູ່ທົ່ວໄປແມ່ນວ່າເມື່ອພວກເຂົາຖືກນໍາໄປໃຊ້, ກົນໄກສູນກາງທີ່ພວກເຂົາກໍາລັງສູ້ກັນໄດ້ຖືກຝຶກອົບຮົມຢ່າງສໍາເລັດຜົນເປັນພັນໆ, ຫຼືຫຼາຍຮ້ອຍພັນຮູບພາບທີ່ຖືກຂູດມາຈາກເວັບ - ຮູບພາບທີ່ລະບົບ autoencoder ສາມາດ ເອົາລັກສະນະທີ່ສໍາຄັນໄດ້ຢ່າງງ່າຍດາຍ, ແລະສ້າງແບບຈໍາລອງທີ່ສາມາດກໍານົດຕົວຕົນທີ່ບໍ່ຖືກຕ້ອງເຂົ້າໄປໃນວິດີໂອຫຼືຮູບພາບທີ່ຖືກສັງເຄາະ - ເຖິງແມ່ນວ່າ. ໃນເວລາຈິງ.

ໃນສັ້ນ, ໃນເວລາທີ່ລະບົບດັ່ງກ່າວມີການເຄື່ອນໄຫວ, ມ້າໄດ້ bolted ແລ້ວ.

ຮູບພາບທີ່ເປັນສັດຕູກັບ Deepfake/Synthesis Architectures

ໂດຍວິທີທາງການ ປ້ອງກັນ ທັດສະນະຄະຕິຕໍ່ກັບໄພຂົ່ມຂູ່ຂອງ deepfakes ແລະການສັງເຄາະຮູບພາບ, ເປັນ strand ທີ່ຮູ້ຈັກຫນ້ອຍຂອງການຄົ້ນຄວ້າໃນຂະແຫນງການນີ້ກ່ຽວຂ້ອງກັບຄວາມເປັນໄປໄດ້ທີ່ປະກົດຂຶ້ນໃນການສ້າງຮູບພາບແຫຼ່ງທັງຫມົດເຫຼົ່ານັ້ນ. ບໍ່ເປັນມິດ ໄປສູ່ລະບົບການສັງເຄາະຮູບພາບ AI, ໂດຍປົກກະຕິໃນວິທີການທີ່ບໍ່ສາມາດຮັບຮູ້ໄດ້, ຫຼືເກືອບຈະຮັບຮູ້ໄດ້.

ຕົວຢ່າງລວມມີ FakeTagger, ຂໍ້ສະເໜີປີ 2021 ຈາກສະຖາບັນຕ່າງໆໃນສະຫະລັດ ແລະອາຊີ, ເຊິ່ງເຂົ້າລະຫັດຂໍ້ຄວາມເປັນຮູບພາບ; ການເຂົ້າລະຫັດເຫຼົ່ານີ້ແມ່ນທົນທານຕໍ່ກັບຂະບວນການທົ່ວໄປ, ແລະຕໍ່ມາສາມາດຟື້ນຕົວໄດ້ເຖິງແມ່ນວ່າຮູບພາບໄດ້ຖືກຂູດຈາກເວັບແລະການຝຶກອົບຮົມເຂົ້າໄປໃນເຄືອຂ່າຍ Adversarial ທົ່ວໄປ (GAN) ຂອງປະເພດທີ່ມີຊື່ສຽງຫຼາຍທີ່ສຸດ embodied ໂດຍ thispersondoesnotexist.com, ແລະຂອງມັນ. ອະນຸພັນຈໍານວນຫລາຍ.

FakeTagger encodes ຂໍ້ມູນທີ່ສາມາດຢູ່ລອດຂອງຂະບວນການທົ່ວໄປໃນເວລາທີ່ການຝຶກອົບຮົມ GAN, ເຮັດໃຫ້ມັນເປັນໄປໄດ້ທີ່ຈະຮູ້ວ່າຮູບພາບສະເພາະໃດຫນຶ່ງໄດ້ປະກອບສ່ວນເຂົ້າໃນຄວາມສາມາດສ້າງຂອງລະບົບ. ທີ່ມາ: https://arxiv.org/pdf/2009.09869.pdf

FakeTagger encodes ຂໍ້ມູນທີ່ສາມາດຢູ່ລອດຂອງຂະບວນການທົ່ວໄປໃນເວລາທີ່ການຝຶກອົບຮົມ GAN, ເຮັດໃຫ້ມັນເປັນໄປໄດ້ທີ່ຈະຮູ້ວ່າຮູບພາບສະເພາະໃດຫນຶ່ງໄດ້ປະກອບສ່ວນເຂົ້າໃນຄວາມສາມາດສ້າງຂອງລະບົບ. ທີ່ມາ: https://arxiv.org/pdf/2009.09869.pdf

ສໍາລັບ ICCV 2021, ຄວາມພະຍາຍາມສາກົນອື່ນກໍ່ຕັ້ງຂຶ້ນເຊັ່ນດຽວກັນ fingerprints ປອມສໍາລັບຮູບແບບການຜະລິດ, (ເບິ່ງຮູບຂ້າງລຸ່ມນີ້) ເຊິ່ງອີກເທື່ອຫນຶ່ງຜະລິດ 'ລາຍນິ້ວມື' ທີ່ສາມາດຟື້ນຕົວໄດ້ຈາກຜົນຜະລິດຂອງການສັງເຄາະຮູບພາບ GAN ເຊັ່ນ StyleGAN2.

ເຖິງແມ່ນວ່າພາຍໃຕ້ການຫມູນໃຊ້ທີ່ຮຸນແຮງຫຼາຍ, ການຕັດ, ແລະແລກປ່ຽນໃບຫນ້າ, ລາຍນິ້ວມືທີ່ຜ່ານ ProGAN ຍັງຄົງສາມາດຟື້ນຕົວໄດ້. ທີ່ມາ: https://arxiv.org/pdf/2007.08457.pdf

ເຖິງແມ່ນວ່າພາຍໃຕ້ການຫມູນໃຊ້ທີ່ຮຸນແຮງຫຼາຍ, ການຕັດ, ແລະແລກປ່ຽນໃບຫນ້າ, ລາຍນິ້ວມືທີ່ຜ່ານ ProGAN ຍັງຄົງສາມາດຟື້ນຕົວໄດ້. ທີ່ມາ: https://arxiv.org/pdf/2007.08457.pdf

ການເຮັດຊ້ໍາອີກຂອງແນວຄວາມຄິດນີ້ປະກອບມີ a 2018 ໂຄງການ ຈາກ IBM ແລະ a ໂຄງ​ການ watermarking ດິ​ຈິ​ຕອນ​ ໃນປີດຽວກັນ, ຈາກປະເທດຍີ່ປຸ່ນ.

ມີນະວັດຕະກໍາກວ່າ, ໃນປີ 2021 initiative ຈາກມະຫາວິທະຍາໄລ Nanjing ຂອງການບິນແລະນັກອາວະກາດໄດ້ພະຍາຍາມ 'ເຂົ້າລະຫັດ' ຮູບພາບການຝຶກອົບຮົມໃນແບບທີ່ພວກເຂົາຈະຝຶກອົບຮົມຢ່າງມີປະສິດທິພາບໃນລະບົບທີ່ໄດ້ຮັບອະນຸຍາດເທົ່ານັ້ນ, ແຕ່ຈະລົ້ມເຫລວຢ່າງຮ້າຍແຮງຖ້າຖືກນໍາໃຊ້ເປັນຂໍ້ມູນແຫຼ່ງໃນທໍ່ຝຶກອົບຮົມການສັງເຄາະຮູບພາບທົ່ວໄປ.

ປະສິດທິຜົນວິທີການເຫຼົ່ານີ້ທັງຫມົດຕົກຢູ່ໃນປະເພດຂອງ steganography, ແຕ່ໃນທຸກກໍລະນີ, ຂໍ້ມູນການກໍານົດທີ່ເປັນເອກະລັກໃນຮູບພາບຕ້ອງໄດ້ຮັບການເຂົ້າລະຫັດດັ່ງກ່າວເປັນ 'ຄຸນນະສົມບັດ' ທີ່ສໍາຄັນຂອງຮູບພາບທີ່ບໍ່ມີໂອກາດທີ່ autoencoder ຫຼືສະຖາປັດຕະ GAN ຈະຍົກເລີກດັ່ງກ່າວ. fingerprints ເປັນ 'ສິ່ງລົບກວນ' ຫຼື outlier ແລະຂໍ້ມູນທີ່ບໍ່ສໍາຄັນ, ແຕ່ແທນທີ່ຈະເຂົ້າລະຫັດມັນພ້ອມກັບລັກສະນະໃບຫນ້າອື່ນໆ.

ໃນຂະນະດຽວກັນ, ຂະບວນການດັ່ງກ່າວບໍ່ສາມາດຖືກອະນຸຍາດໃຫ້ບິດເບືອນຫຼືສົ່ງຜົນກະທົບທາງສາຍຕາຂອງຮູບພາບຫຼາຍຈົນເຮັດໃຫ້ຜູ້ຊົມເບິ່ງແບບທໍາມະດາມີຂໍ້ບົກພ່ອງຫຼືມີຄຸນນະພາບຕໍ່າ.

TAFIM

ໃນປັດຈຸບັນ, ຄວາມພະຍາຍາມຄົ້ນຄ້ວາໃຫມ່ຂອງເຢຍລະມັນ (ຈາກວິທະຍາໄລດ້ານວິຊາການຂອງ Munich ແລະ Sony Europe RDC Stuttgart) ໄດ້ສະເຫນີເຕັກນິກການເຂົ້າລະຫັດຮູບພາບທີ່ຮູບແບບ deepfake ຫຼືກອບຮູບແບບ StyleGAN ທີ່ໄດ້ຮັບການຝຶກອົບຮົມກ່ຽວກັບຮູບພາບທີ່ຖືກປຸງແຕ່ງຈະຜະລິດຜົນໄດ້ຮັບສີຟ້າຫຼືສີຂາວທີ່ບໍ່ສາມາດໃຊ້ໄດ້, ຕາມລໍາດັບ. .

ການລົບກວນຮູບພາບລະດັບຕໍ່າຂອງ TAFIM ແກ້ໄຂການບິດເບືອນ/ການປ່ຽນໃບໜ້າທີ່ເປັນໄປໄດ້ຫຼາຍປະເພດ, ບັງຄັບໃຫ້ຕົວແບບທີ່ຝຶກອົບຮົມກ່ຽວກັບຮູບພາບນັ້ນມີຜົນຜະລິດທີ່ບິດເບືອນ ແລະຖືກລາຍງານໂດຍຜູ້ຂຽນວ່າສາມາດນຳໃຊ້ໄດ້ແມ້ແຕ່ຢູ່ໃນສະຖານະການແບບສົດໆເຊັ່ນ DeepFaceLive's real-time deepfake streaming . ທີ່ມາ: https://arxiv.org/pdf/2112.09151.pdf

ການລົບກວນຮູບພາບລະດັບຕໍ່າຂອງ TAFIM ແກ້ໄຂການບິດເບືອນ/ການປ່ຽນໃບໜ້າທີ່ເປັນໄປໄດ້ຫຼາຍປະເພດ, ບັງຄັບໃຫ້ຕົວແບບທີ່ຝຶກອົບຮົມກ່ຽວກັບຮູບພາບນັ້ນມີຜົນຜະລິດທີ່ບິດເບືອນ ແລະຖືກລາຍງານໂດຍຜູ້ຂຽນວ່າສາມາດນຳໃຊ້ໄດ້ແມ້ແຕ່ຢູ່ໃນສະຖານະການແບບສົດໆເຊັ່ນ DeepFaceLive's real-time deepfake streaming . ທີ່ມາ: https://arxiv.org/pdf/2112.09151.pdf

ໄດ້ ເຈ້ຍ, ຫົວຂໍ້ TAFIM: ການໂຈມຕີຂອງສັດຕູທີ່ເປັນເປົ້າໝາຍຕໍ່ກັບການຈັດການຮູບພາບໃບໜ້າ, ໃຊ້ເຄືອຂ່າຍ neural ເພື່ອເຂົ້າລະຫັດການລົບກວນທີ່ບໍ່ສາມາດຮັບຮູ້ໄດ້ເຂົ້າໄປໃນຮູບພາບ. ຫຼັງຈາກຮູບພາບຕ່າງໆໄດ້ຮັບການຝຶກອົບຮົມແລະໂດຍທົ່ວໄປເຂົ້າໄປໃນສະຖາປັດຕະຍະກໍາສັງເຄາະ, ຮູບແບບຜົນໄດ້ຮັບຈະຜະລິດອອກສີສໍາລັບຕົວຕົນຂອງວັດສະດຸປ້ອນຖ້າຖືກນໍາໃຊ້ໃນການປະສົມຮູບແບບຫຼືການຫັນຫນ້າກົງໄປກົງມາ.

TAFIM: ການ​ໂຈມ​ຕີ​ທາງ​ຝ່າຍ​ກົງ​ກັນ​ຂ້າມ​ທີ່​ແນ​ໃສ່​ຕໍ່​ການ​ຫມູນ​ໃຊ້​ຮູບ​ພາບ​ໃບ​ໜ້າ (ECCV'22)

ການເຂົ້າລະຫັດເວັບຄືນໃໝ່..?

ຢ່າງໃດກໍຕາມ, ໃນກໍລະນີນີ້, ພວກເຮົາບໍ່ໄດ້ຢູ່ທີ່ນີ້ເພື່ອກວດກາເບິ່ງ minutiae ແລະຖາປັດຕະຍະຂອງສະບັບຫລ້າສຸດຂອງແນວຄວາມຄິດທີ່ນິຍົມນີ້, ແຕ່ແທນທີ່ຈະພິຈາລະນາການປະຕິບັດຂອງແນວຄວາມຄິດທັງຫມົດ - ໂດຍສະເພາະໃນຄວາມຂັດແຍ້ງທີ່ເພີ່ມຂຶ້ນກ່ຽວກັບການນໍາໃຊ້ສາທາລະນະ -. scraped ຮູບພາບເພື່ອພະລັງງານກອບການສັງເຄາະຮູບພາບເຊັ່ນ: ການແຜ່ກະຈາຍຄົງທີ່, ແລະຜົນສະທ້ອນທາງກົດຫມາຍລຸ່ມນ້ໍາຕໍ່ມາຂອງ ໄດ້ມາຈາກຊອບແວການຄ້າ ຈາກເນື້ອຫາທີ່ອາດຈະ (ຢ່າງນ້ອຍໃນບາງເຂດອຳນາດ) ໃນທີ່ສຸດກໍພິສູດໄດ້ວ່າມີການປົກປ້ອງທາງກົດໝາຍຕໍ່ກັບການເຂົ້າໄປໃນສະຖາປັດຕະຍະກຳສັງເຄາະ AI.

ວິທີການແບບຕັ້ງໃຈ, ອີງໃສ່ການເຂົ້າລະຫັດຂອງປະເພດທີ່ໄດ້ອະທິບາຍຂ້າງເທິງນີ້ບໍ່ມີຄ່າໃຊ້ຈ່າຍເລັກນ້ອຍ. ຢ່າງຫນ້ອຍ, ພວກເຂົາຈະມີສ່ວນຮ່ວມໃນການຈັດຕັ້ງຂະບວນການບີບອັດໃຫມ່ແລະຂະຫຍາຍເຂົ້າໄປໃນຫ້ອງສະຫມຸດການປຸງແຕ່ງເວັບມາດຕະຖານເຊັ່ນ: ImageMagick, ເຊິ່ງເຮັດໃຫ້ຂະບວນການອັບໂຫລດຈໍານວນຫລາຍ, ລວມທັງການໂຕ້ຕອບການອັບໂຫລດສື່ມວນຊົນສັງຄົມຈໍານວນຫຼາຍ, ມອບຫນ້າທີ່ໃຫ້ປ່ຽນຮູບພາບຜູ້ໃຊ້ຕົ້ນສະບັບທີ່ມີຂະຫນາດເກີນເປັນສະບັບທີ່ເຫມາະສົມທີ່ເຫມາະສົມສໍາລັບການແບ່ງປັນນ້ໍາຫນັກເບົາແລະການແຜ່ກະຈາຍເຄືອຂ່າຍ, ແລະຍັງສໍາລັບການຫັນປ່ຽນເຊັ່ນການປູກພືດ, ແລະ. ການ​ເພີ່ມ​ເຕີມ​ອື່ນໆ​.

ຄໍາຖາມຕົ້ນຕໍທີ່ຍົກຂຶ້ນມານີ້ແມ່ນ: ໂຄງການດັ່ງກ່າວຈະຖືກປະຕິບັດ 'ກ້າວໄປຂ້າງຫນ້າ', ຫຼືຈະມີຈຸດປະສົງໃນການນໍາໃຊ້ຢ່າງກວ້າງຂວາງແລະ retroactive, ເຊິ່ງແກ້ໄຂສື່ມວນຊົນປະຫວັດສາດທີ່ອາດມີ, 'ບໍ່ເສຍຫາຍ' ສໍາລັບທົດສະວັດ?

ເວທີເຊັ່ນ Netflix ແມ່ນ ບໍ່ລັງກຽດ ຕໍ່ກັບຄ່າໃຊ້ຈ່າຍຂອງການເຂົ້າລະຫັດລາຍການກັບຄືນໄປບ່ອນທີ່ມີຕົວແປງສັນຍານໃຫມ່ທີ່ອາດຈະມີປະສິດທິພາບຫຼາຍຂຶ້ນ, ຫຼືອາດຈະໃຫ້ຜົນປະໂຫຍດຂອງຜູ້ໃຊ້ຫຼືຜູ້ໃຫ້ບໍລິການ; ເຊັ່ນດຽວກັນ, ການປ່ຽນເນື້ອຫາປະຫວັດສາດຂອງ YouTube ໄປເປັນຕົວແປງສັນຍານ H.264, ປາກົດຂື້ນເພື່ອຮອງຮັບ Apple TV, ເປັນວຽກງານທີ່ສໍາຄັນທາງດ້ານການຂົນສົ່ງ, ບໍ່ໄດ້ຖືກພິຈາລະນາວ່າມີຄວາມຫຍຸ້ງຍາກ, ເຖິງແມ່ນວ່າຂະຫນາດ.

Ironically, ເຖິງແມ່ນວ່າບາງສ່ວນຂະຫນາດໃຫຍ່ຂອງເນື້ອໃນສື່ມວນຊົນໃນອິນເຕີເນັດແມ່ນຂຶ້ນກັບການ re-encoding ເຂົ້າໄປໃນຮູບແບບທີ່ຕ້ານການຝຶກອົບຮົມ, ໄດ້. ພະນັກງານຈໍາກັດຂອງຊຸດຂໍ້ມູນວິໄສທັດຄອມພິວເຕີທີ່ມີອິດທິພົນ ຈະຍັງຄົງບໍ່ໄດ້ຮັບຜົນກະທົບ. ຢ່າງໃດກໍຕາມ, ຄາດວ່າ, ລະບົບທີ່ນໍາໃຊ້ພວກມັນເປັນຂໍ້ມູນຕົ້ນນ້ໍາຈະເລີ່ມຫຼຸດລົງໃນຄຸນນະພາບຂອງຜົນຜະລິດ, ຍ້ອນວ່າເນື້ອໃນທີ່ມີ watermarked ຈະແຊກແຊງຂະບວນການປ່ຽນແປງຂອງສະຖາປັດຕະຍະກໍາ.

ຄວາມຂັດແຍ້ງທາງດ້ານການເມືອງ

ໃນແງ່ທາງດ້ານການເມືອງ, ມີຄວາມເຄັ່ງຕຶງທີ່ເຫັນໄດ້ຊັດເຈນລະຫວ່າງການກໍານົດຂອງລັດຖະບານທີ່ຈະບໍ່ຕົກຢູ່ໃນການພັດທະນາ AI, ແລະການສໍາປະທານຕໍ່ຄວາມກັງວົນຂອງປະຊາຊົນກ່ຽວກັບການນໍາໃຊ້ເນື້ອຫາສຽງ, ວິດີໂອແລະຮູບພາບທີ່ເປີດເຜີຍໃນອິນເຕີເນັດເປັນຊັບພະຍາກອນທີ່ອຸດົມສົມບູນ. ສໍາລັບລະບົບ AI ການຫັນປ່ຽນ.

ຢ່າງເປັນທາງການ, ລັດຖະບານຕາເວັນຕົກມີທ່າອ່ຽງທີ່ຈະອ່ອນເພຍກ່ຽວກັບຄວາມສາມາດຂອງຂະແຫນງການຄົ້ນຄວ້າວິໄສທັດຄອມພິວເຕີທີ່ຈະນໍາໃຊ້ສື່ມວນຊົນສາທາລະນະ, ບໍ່ແມ່ນຢ່າງຫນ້ອຍເພາະວ່າບາງປະເທດໃນອາຊີທີ່ມີ autocratic ຫຼາຍມີຊ່ອງຫວ່າງຫຼາຍກວ່າເກົ່າເພື່ອສ້າງຂະບວນການພັດທະນາຂອງພວກເຂົາໃນທາງທີ່. ຜົນປະໂຫຍດຂອງຄວາມພະຍາຍາມຄົ້ນຄ້ວາຂອງຕົນເອງ - ພຽງແຕ່ຫນຶ່ງໃນປັດໃຈທີ່ ສະ​ແດງ​ໃຫ້​ເຫັນ​ວ່າ​ຈີນ​ກາຍ​ເປັນ​ຜູ້​ນໍາ​ທົ່ວ​ໂລກ​ໃນ AI.

ໃນເດືອນເມສາຂອງປີ 2022, ສານອຸທອນຂອງສະຫະລັດ ຢືນຢັນ ຂໍ້ມູນເວັບທີ່ປະເຊີນຫນ້າກັບສາທາລະນະແມ່ນເກມຍຸດຕິທໍາສໍາລັບຈຸດປະສົງການຄົ້ນຄວ້າ, ເຖິງວ່າຈະມີການປະທ້ວງຢ່າງຕໍ່ເນື່ອງຂອງ LinkedIn, ເຊິ່ງ ຄວາມປາຖະຫນາ ໂປຼໄຟລ໌ຜູ້ໃຊ້ຂອງຕົນທີ່ຈະໄດ້ຮັບການປົກປ້ອງຈາກຂະບວນການດັ່ງກ່າວ.

ຖ້າຮູບພາບທີ່ທົນທານຕໍ່ AI ຈະບໍ່ກາຍເປັນມາດຕະຖານທົ່ວລະບົບ, ບໍ່ມີຫຍັງທີ່ຈະປ້ອງກັນບໍ່ໃຫ້ບາງແຫຼ່ງຂໍ້ມູນການຝຶກອົບຮົມຫຼັກຈາກການປະຕິບັດລະບົບດັ່ງກ່າວ, ດັ່ງນັ້ນຜົນຜະລິດຂອງພວກມັນຈະບໍ່ໄດ້ຮັບຜົນໃນພື້ນທີ່ latent.

ປັດໃຈສໍາຄັນໃນການປະຕິບັດສະເພາະຂອງບໍລິສັດດັ່ງກ່າວແມ່ນຮູບພາບທີ່ຄວນຈະເປັນ ທົນທານຕໍ່ພາຍໃນ ການຝຶກອົບຮົມ. Blockchain-based provenance ເຕັກນິກ, ແລະການເຄື່ອນໄຫວເຊັ່ນ: ການລິເລີ່ມການກວດສອບຄວາມຖືກຕ້ອງຂອງເນື້ອຫາ, ມີຄວາມກັງວົນກ່ຽວກັບການພິສູດວ່າຮູບພາບໄດ້ຖືກປອມແປງຫຼື 'styleGANned', ແທນທີ່ຈະປ້ອງກັນກົນໄກທີ່ເຮັດໃຫ້ການປ່ຽນແປງດັ່ງກ່າວເປັນໄປໄດ້.

ການກວດກາແບບບໍ່ສະບາຍ

ໃນຂະນະທີ່ຂໍ້ສະເຫນີໄດ້ຖືກວາງໄວ້ເພື່ອນໍາໃຊ້ວິທີການ blockchain ເພື່ອພິສູດຫຼັກຖານທີ່ແທ້ຈິງແລະຮູບລັກສະນະຂອງຮູບພາບແຫຼ່ງທີ່ອາດຈະຖືກນໍາມາເຂົ້າໄປໃນຊຸດຂໍ້ມູນການຝຶກອົບຮົມ, ນີ້ບໍ່ໄດ້ປ້ອງກັນການຝຶກອົບຮົມຮູບພາບ, ຫຼືສະຫນອງວິທີການໃດໆທີ່ຈະພິສູດ, ຈາກຜົນໄດ້ຮັບຂອງລະບົບດັ່ງກ່າວ, ຮູບພາບຕ່າງໆໄດ້ຖືກລວມເຂົ້າໃນຊຸດຂໍ້ມູນການຝຶກອົບຮົມ.

ໃນວິທີການ watermarking ໃນການຍົກເວັ້ນຮູບພາບຈາກການຝຶກອົບຮົມ, ມັນຈະບໍ່ສໍາຄັນທີ່ຈະອີງໃສ່ຮູບພາບແຫຼ່ງຂອງຊຸດຂໍ້ມູນທີ່ມີອິດທິພົນທີ່ມີສາທາລະນະສໍາລັບການກວດກາ. ໃນການຕອບໂຕ້ ການຮ້ອງຮຽນຂອງນັກສິລະປິນ ກ່ຽວກັບ Stable Diffusion ຂອງ ingestion ແບບເສລີຂອງການເຮັດວຽກຂອງເຂົາເຈົ້າ, ເວັບໄຊທ໌ haveibeentrained.com ອະ​ນຸ​ຍາດ​ໃຫ້​ຜູ້​ໃຊ້​ສາ​ມາດ​ອັບ​ຮູບ​ພາບ​ແລະ​ກວດ​ສອບ​ວ່າ​ພວກ​ເຂົາ​ເຈົ້າ​ມີ​ແນວ​ໂນ້ມ​ທີ່​ຈະ​ໄດ້​ຮັບ​ການ​ລວມ​ເຂົ້າ​ໃນ​ LAION5B ຊຸດຂໍ້ມູນທີ່ມີອໍານາດການແຜ່ກະຈາຍຄົງທີ່:

'Lenna', ແທ້ໆເປັນສາວໂປສເຕີສໍາລັບການຄົ້ນຄວ້າວິໄສທັດຄອມພິວເຕີຈົນກ່ວາບໍ່ດົນມານີ້, ແນ່ນອນວ່າເປັນຜູ້ປະກອບສ່ວນໃຫ້ Stable Diffusion. ທີ່ມາ: https://haveibeentrained.com/

'Lenna', ແທ້ໆເປັນສາວໂປສເຕີສໍາລັບການຄົ້ນຄວ້າວິໄສທັດຄອມພິວເຕີຈົນກ່ວາບໍ່ດົນມານີ້, ແນ່ນອນວ່າເປັນຜູ້ປະກອບສ່ວນໃຫ້ Stable Diffusion. ທີ່ມາ: https://haveibeentrained.com/

ຢ່າງໃດກໍຕາມ, ເກືອບທັງຫມົດຊຸດຂໍ້ມູນ deepfake ແບບດັ້ງເດີມ, ຕົວຢ່າງ, ໄດ້ຖືກດຶງອອກຈາກວິດີໂອແລະຮູບພາບທີ່ສະກັດຢູ່ໃນອິນເຕີເນັດ, ເຂົ້າໄປໃນຖານຂໍ້ມູນທີ່ບໍ່ແມ່ນສາທາລະນະທີ່ມີພຽງແຕ່ບາງປະເພດຂອງ watermarking ທົນທານຕໍ່ neurally ອາດຈະເປີດເຜີຍການນໍາໃຊ້ຮູບພາບສະເພາະເພື່ອສ້າງຮູບພາບທີ່ໄດ້ມາ. ແລະວິດີໂອ.

ນອກຈາກນັ້ນ, ຜູ້ໃຊ້ Stable Diffusion ກໍາລັງເລີ່ມເພີ່ມເນື້ອຫາ - ໂດຍຜ່ານການປັບປຸງລະອຽດ (ສືບຕໍ່ການຝຶກອົບຮົມຂອງຕົວແບບຢ່າງເປັນທາງການທີ່ມີຄູ່ຮູບພາບ / ຂໍ້ຄວາມເພີ່ມເຕີມ) ຫຼື Textual Inversion, ເຊິ່ງເພີ່ມອົງປະກອບສະເພາະໃດຫນຶ່ງຫຼືບຸກຄົນ - ທີ່ຈະບໍ່ປາກົດຢູ່ໃນໃດໆ. ຄົ້ນຫາຜ່ານຮູບຫຼາຍຕື້ຮູບຂອງ LAION.

ການຝັງ Watermarks ຢູ່ແຫຼ່ງ

ຄໍາຮ້ອງສະຫມັກທີ່ມີທ່າແຮງທີ່ສຸດຂອງ watermarking ຮູບພາບແຫຼ່ງແມ່ນການລວມເອົາຂໍ້ມູນທີ່ບໍ່ຊັດເຈນແລະບໍ່ຊັດເຈນເຂົ້າໄປໃນຜົນຜະລິດການຈັບພາບດິບ, ວິດີໂອຫຼືຮູບພາບ, ຂອງກ້ອງຖ່າຍຮູບທາງການຄ້າ. ເຖິງແມ່ນວ່າແນວຄວາມຄິດດັ່ງກ່າວໄດ້ຖືກທົດລອງແລະເຖິງແມ່ນວ່າໄດ້ຮັບການປະຕິບັດຢ່າງແຂງແຮງໃນຕົ້ນຊຸມປີ 2000, ເປັນການຕອບສະຫນອງຕໍ່ 'ໄພຂົ່ມຂູ່' ຂອງການລ່ວງລະເມີດມັນຕິມີເດຍ, ຫຼັກການແມ່ນໃຊ້ໄດ້ໃນທາງດ້ານວິຊາການສໍາລັບຈຸດປະສົງທີ່ຈະເຮັດໃຫ້ເນື້ອຫາສື່ທົນທານຕໍ່ຫຼືຕ້ານກັບການຝຶກອົບຮົມການຮຽນຮູ້ເຄື່ອງຈັກ. ລະບົບ.

ການຈັດຕັ້ງປະຕິບັດອັນໜຶ່ງ, ໄດ້ຮັບການສະເໜີໃຫ້ນຳໃຊ້ສິດທິບັດໃນທ້າຍຊຸມປີ 1990 ການຫັນປ່ຽນ Cosine ແຍກກັນ ເພື່ອຝັງ steganographic 'ຮູບພາບຍ່ອຍ' ເຂົ້າໄປໃນວິດີໂອແລະຮູບພາບທີ່ຍັງ, ແນະນໍາວ່າປົກກະຕິສາມາດຖືກ 'ລວມເຂົ້າເປັນຄຸນສົມບັດໃນຕົວສໍາລັບອຸປະກອນການບັນທຶກດິຈິຕອນ, ເຊັ່ນ: ກ້ອງຖ່າຍພາບແລະວິດີໂອ'.

ໃນ​ຄໍາ​ຮ້ອງ​ສະ​ຫມັກ​ສິດ​ທິ​ບັດ​ຈາກ​ທ້າຍ​ຊຸມ​ປີ 1990​, Lenna ແມ່ນ imbued ກັບ watermarks occult ທີ່​ສາ​ມາດ​ຟື້ນ​ຟູ​ໄດ້​ຕາມ​ຄວາມ​ຈໍາ​ເປັນ​. ທີ່ມາ: https://www.freepatentsonline.com/6983057.pdf

ໃນໃບຄໍາຮ້ອງສິດທິບັດຈາກທ້າຍຊຸມປີ 1990, Lenna ໄດ້ຖືກຝັງໄວ້ດ້ວຍເຄື່ອງໝາຍນໍ້າຕາບອດທີ່ສາມາດຟື້ນຟູໄດ້ຕາມຄວາມຈໍາເປັນ. ທີ່ມາ: https://www.freepatentsonline.com/6983057.pdf

ວິທີການທີ່ຊັບຊ້ອນໜ້ອຍກວ່າແມ່ນການໃສ່ລາຍນ້ຳທີ່ເຫັນໄດ້ຊັດເຈນໃສ່ຮູບພາບໃນລະດັບອຸປະກອນ – ຄຸນສົມບັດທີ່ບໍ່ໜ້າສົນໃຈສຳລັບຜູ້ໃຊ້ສ່ວນໃຫຍ່ ແລະ ຊ້ຳຊ້ອນໃນກໍລະນີຂອງນັກສິລະປິນ ແລະນັກປະຕິບັດສື່ມືອາຊີບ, ຜູ້ທີ່ສາມາດປົກປ້ອງຂໍ້ມູນແຫຼ່ງທີ່ມາ ແລະເພີ່ມຍີ່ຫໍ້ດັ່ງກ່າວ ຫຼື ຂໍ້ຫ້າມຍ້ອນວ່າພວກເຂົາຖືວ່າເຫມາະສົມ (ບໍ່ແມ່ນຢ່າງຫນ້ອຍ, ບໍລິສັດຮູບພາບຫຼັກຊັບ).

ເຖິງແມ່ນວ່າຢ່າງນ້ອຍ ຫນຶ່ງກ້ອງຖ່າຍຮູບ ປະຈຸບັນອະນຸຍາດໃຫ້ມີການວາງ watermark ຕາມໂລໂກ້ທາງເລືອກທີ່ສາມາດ ສັນຍານການນໍາໃຊ້ທີ່ບໍ່ໄດ້ຮັບອະນຸຍາດ ໃນຮູບແບບ AI ທີ່ມາຈາກ, ການໂຍກຍ້າຍໂລໂກ້ຜ່ານ AI ແມ່ນກາຍເປັນ ຂ້ອນຂ້າງ trivial, ແລະເຖິງແມ່ນວ່າ ການຄ້າແບບບໍ່ສະບາຍ.

 

ພິມຄັ້ງທຳອິດໃນວັນທີ 25 ກັນຍາ 2022.