stub Deepfakes гэж юу вэ? - Нэгдсэн.AI
бидэнтэй хамт холбоно

AI 101

Deepfakes гэж юу вэ?

mm
шинэчлэгдсэн on

Deepfakes хийхэд хялбар, үр бүтээлтэй болох тусам тэдэнд илүү их анхаарал хандуулдаг. Deepfakes нь хиймэл оюун ухааны ёс зүй, ташаа мэдээлэл, мэдээлэл, интернетийн нээлттэй байдал, зохицуулалт зэрэгтэй холбоотой хэлэлцүүлгийн гол цэг болсон. Deepfake-ийн талаар мэдээлэлтэй байх, мөн гүнзгий хуурамч мэдээлэл гэж юу болохыг зөн совингоор ойлгох нь ашигтай. Энэ нийтлэлд deepfake-ийн тодорхойлолтыг тодруулж, тэдгээрийн хэрэглээний тохиолдлуудыг судалж, deepfake-ийг хэрхэн илрүүлэх талаар ярилцаж, гүнзгий хуурамч мэдээлэл нийгэмд үзүүлэх нөлөөг судлах болно.

Deepfakes гэж юу вэ?

Deepfakes-ийн талаар дэлгэрэнгүй ярихаасаа өмнө хэсэг хугацаа зарцуулж, тодруулахад тустай байх болно "Гүн хуурамч" гэж юу вэ. Deepfake гэсэн нэр томьёоны талаар ихээхэн төөрөгдөл байдаг бөгөөд энэ нэр томъёо нь жинхэнэ гүн хуурамч эсэхээс үл хамааран аливаа хуурамч хэвлэл мэдээллийн хэрэгслээр буруу хэрэглэгдэж байдаг. Deepfake-ийн шалгуурыг хангахын тулд тухайн хуурамч медиаг машин сургалтын систем, ялангуяа гүн мэдрэлийн сүлжээгээр үүсгэх ёстой.

Deepfakes-ийн гол бүрэлдэхүүн хэсэг нь машин сурах явдал юм. Машины сургалт нь компьютерт харьцангуй хурдан бөгөөд хялбар видео болон аудиог автоматаар үүсгэх боломжтой болгосон. Хүрээлэн буй орчны зорилтот нөхцөлд хүмүүс хэрхэн харагдах, хөдөлж байгааг мэдэхийн тулд гүн мэдрэлийн сүлжээг бодит хүний ​​дүрс бичлэг дээр сургадаг. Дараа нь бэлтгэгдсэн сүлжээг өөр хүний ​​зураг дээр ашиглаж, шинэ хүнийг анхны бичлэгтэй хослуулахын тулд нэмэлт компьютерийн график техникээр сайжруулдаг. Анхны нүүр болон зорилтот нүүр хоёрын ижил төстэй байдлыг тодорхойлохын тулд кодлогчийн алгоритмыг ашигладаг. Нүүрний нийтлэг шинж чанаруудыг тусгаарласны дараа декодлогч гэж нэрлэгддэг хоёр дахь AI алгоритмыг ашигладаг. Декодер нь кодлогдсон (шахсан) зургуудыг шалгаж, анхны зургийн онцлог дээр үндэслэн дахин бүтээдэг. Хоёр декодлогчийг ашигладаг бөгөөд нэг нь анхны субъектын нүүрэн дээр, хоёр дахь нь зорилтот хүний ​​нүүрэн дээр байдаг. Солилцоо хийхийн тулд Х хүний ​​дүрс дээр бэлтгэгдсэн декодчилогч нь Y хүний ​​дүр төрхийг өгдөг. Үүний үр дүнд Y хүний ​​нүүр царай X хүний ​​нүүрний хувирал, чиг баримжааг дахин сэргээдэг.

Одоогийн байдлаар гүн хуурамч зураг бүтээхэд нэлээд хугацаа шаардлагатай хэвээр байна. Хуурамч бүтээгч нь загварын параметрүүдийг гараар тохируулахад удаан хугацаа зарцуулах шаардлагатай болдог, учир нь оновчтой бус үзүүлэлтүүд нь мэдэгдэхүйц согог, дүрсний доголдолд хүргэж, хуурамч зүйлийн жинхэнэ мөн чанарыг алдагдуулдаг.

Хэдийгээр ихэнх deepfake нь a гэж нэрлэгддэг мэдрэлийн сүлжээгээр хийгдсэн байдаг гэж ихэвчлэн үздэг үүсгэгч өрсөлдөгчийн сүлжээ (GAN), өнөө үед бүтээгдсэн олон (магадгүй ихэнх) deepfakes GAN-д найддаггүй. SUNY Buffalo-ийн Сивэй Люгийн хэлснээр, GAN-ууд эрт гүнзгий хуурамч дүрсийг бүтээхэд чухал үүрэг гүйцэтгэдэг ч ихэнх гүнзгий хуурамч видеог өөр аргуудаар бүтээдэг.

GAN-г сургахын тулд маш их хэмжээний сургалтын өгөгдөл шаардагддаг бөгөөд GAN нь бусад зураг үүсгэх техниктэй харьцуулахад зураг гаргахад илүү их хугацаа зарцуулдаг. GAN-ууд нь фреймээс фрейм хүртэлх тогтвортой байдлыг хадгалахад бэрхшээлтэй байдаг тул GAN нь видеоноос илүү статик дүрс үүсгэхэд илүү дээр юм. Deepfakes үүсгэхийн тулд кодлогч болон олон декодер ашиглах нь илүү түгээмэл байдаг.

Deepfakes юунд ашиглагддаг вэ?

Интернетээс олдсон гүн фэйкүүдийн ихэнх нь порнографын шинж чанартай байдаг. AI-ийн Deeptrace фирмийн хийсэн судалгаагаар 15,000 оны есдүгээр сард авсан 2019 орчим гүн хуурамч видео бичлэгийн түүврийн 95 орчим хувь нь порнографын шинж чанартай байжээ. Энэ баримтын сэтгэл түгшээсэн үр дагавар нь технологийг ашиглахад хялбар болохын хэрээр хуурамч өшөө авалтын порно киноны тохиолдлууд нэмэгдэж болзошгүй юм.

Гэсэн хэдий ч бүх гүн гүнзгий хуурамч зүйл нь порнограф шинж чанартай байдаггүй. Deepfake технологийн илүү хууль ёсны хэрэглээ байдаг. Аудио deepfake технологи нь хүмүүст өвчин, гэмтлийн улмаас эвдэрсэн, алдагдсаны дараа байнгын дуу хоолойгоо дамжуулахад тусалдаг. Deepfakes нь эмзэг, аюултай нөхцөл байдалд байгаа хүмүүсийн нүүрийг нуухын зэрэгцээ уруул, илэрхийлэлийг нь унших боломжийг олгодог. Deepfake технологийг гадаад хэл дээрх киноны дубляжийг сайжруулах, хуучирсан, гэмтсэн хэвлэл мэдээллийн хэрэгслийг засах, тэр ч байтугай урлагийн шинэ хэв маягийг бий болгоход ашиглах боломжтой.

Видео бус Deepfakes

Ихэнх хүмүүс "deepfake" гэсэн нэр томъёог сонсохдоо хуурамч видео гэж боддог ч хуурамч видеонууд нь гүнзгий хуурамч технологиор бүтээгдсэн цорын ганц төрлийн хуурамч медиа биш юм. Deepfake технологи нь зураг болон аудиог хуурамчаар бүтээхэд ашиглагддаг. Өмнө дурьдсанчлан, GAN нь ихэвчлэн хуурамч зураг үүсгэхэд ашиглагддаг. Deepfake алгоритмаар үүсгэсэн профайлын зураг бүхий хуурамч LinkedIn болон Facebook профайлуудын олон тохиолдол байдаг гэж бодож байна.

Аудио гүн фэйкийг ч үүсгэх боломжтой. Гүн мэдрэлийн сүлжээнүүд нь янз бүрийн хүмүүсийн, тэр дундаа алдартнууд, улс төрчдийн дуут клон/дууны арьсыг бүтээхэд сургагдсан байдаг. Аудио Deepfake-ийн нэг алдартай жишээ бол AI компаний Dessa юм AI загварыг ашигласан, подкаст хөтлөгч Жо Роганы дуу хоолойг дахин бүтээхийн тулд AI бус алгоритмаар дэмжигдсэн.

Deepfakes хэрхэн таних вэ

Deepfakes улам боловсронгуй болохын хэрээр тэдгээрийг жинхэнэ хэвлэл мэдээллийн хэрэгслээс ялгах нь улам хатуу, хатуу болно. Одоогоор байгаа хэд хэдэн илтгэх шинж тэмдэг Хүмүүс уруул синхрончлол муутай, байгалийн бус хөдөлгөөнтэй, нүүрний ирмэгийг тойрон анивчсан, үс, шүд, тусгал гэх мэт нарийн ширийн зүйлсийн муруйлт зэрэг нь видео гүн хуурамч эсэхийг мэдэхийн тулд хайж болно. Хуурамч дүрсний бусад шинж тэмдгүүдэд ижил видеоны чанар муутай хэсгүүд, нүд тогтмол анивчих зэрэг орно.

Эдгээр шинж тэмдгүүд нь одоогоор гүний хуурамч зүйлийг олж тогтооход тусалж болох ч гүн хуурамч технологи нь гүн хуурамчийг найдвартай илрүүлэх цорын ганц сонголт бол хуурамч мэдээллийг бодит медиагаас ялгахад сургагдсан бусад төрлийн хиймэл оюун ухаан байж болох юм.

Хиймэл оюун ухааны компаниуд, тэр дундаа олон томоохон технологийн компаниуд хуурамч мэдээллийг илрүүлэх аргуудыг судалж байна. Өнгөрсөн арванхоёрдугаар сард Амазон, Facebook, Майкрософт зэрэг технологийн гурван аварга дэмжсэн гүнзгий хуурамч мэдээллийг илрүүлэх сорилт эхэлсэн. Дэлхийн өнцөг булан бүрээс ирсэн судалгааны багууд гүний хуурамч мэдээллийг илрүүлэх аргууд дээр ажиллаж, хамгийн сайн илрүүлэх аргуудыг боловсруулахаар өрсөлдсөн. Google болон Jigsaw-ийн хосолсон судлаачид гэх мэт бусад бүлэг судлаачид өөрчлөгдсөн видеог илрүүлэх боломжтой "нүүрний шүүх шинжилгээ" дээр ажиллаж байна. өгөгдлийн багцаа нээлттэй эх сурвалж болгох мөн бусад хүмүүсийг гүнзгий хуурамч илрүүлэх аргуудыг хөгжүүлэхэд урамшуулан дэмжих. Дээр дурдсан Десса нь задгай эх сурвалжийн өгөгдлийн багц гэх мэт урьдчилан бэлтгэсэн сургалт, туршилтын өгөгдлийн багц дээр бус харин зэрлэг байгальд (интернэтээс гарсан) олдсон гүн хуурамч бичлэгүүд дээр ажиллахыг баталгаажуулахыг хичээж, гүн хуурамч илрүүлэх арга техникийг боловсронгуй болгохоор ажиллаж байна. Google өгсөн.

Мөн түүнчлэн бусад стратеги Deepfakes-ийн тархалттай тэмцэхийн тулд шалгаж байгаа. Жишээлбэл, видеог бусад мэдээллийн эх сурвалжтай нийцэж байгаа эсэхийг шалгах нь нэг стратеги юм. Өөр өнцгөөс авсан байж болзошгүй үйл явдлуудын видеог хайх эсвэл видеоны арын дэлгэрэнгүй мэдээллийг (цаг агаарын байдал, байршил гэх мэт) зөрчилтэй эсэхийг шалгаж болно. Үүнээс гадна, Blockchain онлайн бүртгэлийн систем нь видеог анх үүсгэсэн үед нь анхны дуу, дүрсийг нь хадгалан бүртгэж болох бөгөөд ингэснээр үүсмэл видеог залилан хийсэн эсэхийг шалгах боломжтой.

Эцсийн эцэст, гүн хуурамч мэдээллийг илрүүлэх найдвартай аргуудыг бий болгож, эдгээр илрүүлэх аргууд нь гүнзгий хуурамч технологийн хамгийн сүүлийн үеийн дэвшлийг дагаж мөрдөх нь чухал юм. Deepfakes-ийн үр нөлөөг яг таг мэдэхэд бэрх боловч хэрэв deepfakes (болон бусад төрлийн хуурамч мэдээллийн хэрэгслийг) илрүүлэх найдвартай арга байхгүй бол ташаа мэдээлэл газар авч, хүмүүсийн нийгэм, институцид итгэх итгэлийг доройтуулж болзошгүй юм.

Deepfakes-ийн үр дагавар

Гүн хуурамч зүйл хяналтгүйгээр олшрох нь ямар аюултай вэ?

Одоогийн байдлаар гүн фэйкүүдийн үүсгэж буй хамгийн том бэрхшээлүүдийн нэг бол хүмүүсийн нүүр царайг порнографын видео, зурагтай хослуулан зохион бүтээсэн, зөвшилцөлгүй порнограф юм. Хуурамч өшөө авалтын порно кино бүтээхэд deepfakes илүү их ашиглагдах болно гэж AI-ийн ёс зүйчид санаа зовж байна. Үүнээс гадна, гүн фэйк нь хүмүүсийг маргаантай, буулттай хувилбаруудад оруулахад ашиглагдаж болох тул бараг хэнийг ч дээрэлхэж, нэр хүндэд нь халдаж болно.

Компаниуд болон кибер аюулгүй байдлын мэргэжилтнүүд хууран мэхлэх, залилан мэхлэх, дээрэмдэхийг хөнгөвчлөхийн тулд гүнзгий хуурамч мэдээлэл ашиглаж байгаад санаа зовж байгаагаа илэрхийлэв. Deepfake аудио байсан гэж таамаглаж байна ажилчдыг итгүүлэхэд ашигладаг луйварчид руу мөнгө шилжүүлэх компанийн

Deepfakes нь дээр дурдсанаас ч илүү хортой нөлөө үзүүлэх боломжтой. Deepfakes нь хүмүүсийн хэвлэл мэдээллийн хэрэгсэлд итгэх итгэлийг бууруулж, бодит мэдээ, хуурамч мэдээг ялгахад хүндрэл учруулж болзошгүй юм. Хэрэв вэб дээрх олон видеонууд хуурамч байвал засгийн газар, компаниуд болон бусад байгууллагууд хууль ёсны маргаан, ёс зүйгүй үйлдлүүдэд эргэлзэхэд хялбар болно.

Засгийн газруудын тухай ярих юм бол гүн фэйк нь ардчиллын үйл ажиллагаанд аюул учруулж болзошгүй юм. Ардчилал нь иргэд улстөрчдийн талаар найдвартай мэдээлэлд тулгуурлан зөв шийдвэр гаргах чадвартай байхыг шаарддаг. Буруу мэдээлэл ардчиллын үйл явцыг алдагдуулдаг. Жишээлбэл, Габоны ерөнхийлөгч Али Бонго Габоны иргэдийг тайвшруулахыг оролдсон видео бичлэг дээр гарч ирэв. Ерөнхийлөгч удаан хугацаанд бие нь муудсан гэж таамаглаж байсан бөгөөд гэнэт гарч ирэв Төрийн эргэлт хийх оролдлогыг эхлүүлсэн байж болзошгүй хуурамч видео. АНУ-ын Ерөнхийлөгч Дональд Трамп эмэгтэйчүүдийн бэлэг эрхтнийг бариулж байгаа тухайгаа онгирч байсан дуу бичлэгийг нь мэдэгдэв хуурамч байсанХэдийгээр үүнийг "хувцас солих өрөөний яриа" гэж тодорхойлдог. Ханхүү Эндрю ч бас Эмили Майтилисийн өмгөөлөгчийн өгсөн зураг хуурамч байсан гэж мэдэгджээ, гэхдээ өмгөөлөгч нь түүний үнэн зөвийг шаарддаг.

Эцсийн эцэст, гүн хуурамч технологийн хууль ёсны хэрэглээ байдаг ч энэ технологийг буруугаар ашигласнаас үүдэлтэй олон хор уршиг бий. Ийм учраас хэвлэл мэдээллийн хэрэгслийн жинхэнэ эсэхийг тодорхойлох аргуудыг бий болгож, хадгалах нь маш чухал юм.

Мэргэшсэн блоггер, программист Машины сургалт болон Гүн сурах сэдвүүд. Даниел бусад хүмүүст хиймэл оюун ухааны хүчийг нийгмийн сайн сайхны төлөө ашиглахад тусална гэж найдаж байна.