სტუბი რა არის Deepfakes? - გაერთიანდი.აი
დაკავშირება ჩვენთან ერთად

AI 101

რა არის Deepfakes?

mm
განახლებულია on

რაც უფრო ადვილი ხდება ღრმა ფეიქების დამზადება და უფრო ნაყოფიერი, უფრო მეტი ყურადღება ექცევა მათ. Deepfakes გახდა დისკუსიის მთავარი წერტილი, რომელიც მოიცავს AI ეთიკას, დეზინფორმაციას, ინფორმაციისა და ინტერნეტის ღიაობას და რეგულირებას. ღირს ინფორმირებული იყოთ ღრმა ფეიქების შესახებ და გქონდეთ ინტუიციური გაგება იმისა, თუ რა არის ღრმა ფეიქი. ეს სტატია განმარტავს ღრმა ფეიკის განმარტებას, შეისწავლის მათი გამოყენების შემთხვევებს, განიხილავს, თუ როგორ შეიძლება გამოვლინდეს ღრმა ფეიქი და შეისწავლის ღრმა ფეიკის გავლენას საზოგადოებაზე.

რა არის Deepfakes?

სანამ ღრმა ფეიკების შემდგომ განხილვას გააგრძელებთ, სასარგებლო იქნება გარკვეული დრო დაგჭირდეთ და გარკვევა რა არის სინამდვილეში "დიპფეიკები".. არსებობს არსებითი დაბნეულობა ტერმინ Deepfake-თან დაკავშირებით და ხშირად ეს ტერმინი არასწორად გამოიყენება ნებისმიერ გაყალბებულ მედიაზე, მიუხედავად იმისა, არის თუ არა ის ნამდვილი ღრმა ფეიქი. Deepfake-ად კვალიფიკაციისთვის, მოცემული ყალბი მედია უნდა იყოს გენერირებული მანქანური სწავლის სისტემით, კონკრეტულად ღრმა ნერვული ქსელით.

Deepfakes-ის მთავარი ინგრედიენტი არის მანქანური სწავლება. მანქანათმცოდნეობამ შესაძლებელი გახადა კომპიუტერებისთვის ვიდეო და აუდიო ავტომატურად გენერირება შედარებით სწრაფად და მარტივად. ღრმა ნერვული ქსელები ივარჯიშება რეალური ადამიანის კადრებზე, რათა ქსელმა გაიგოს, თუ როგორ გამოიყურებიან და მოძრაობენ ადამიანები სამიზნე გარემო პირობებში. შემდეგ გაწვრთნილი ქსელი გამოიყენება სხვა პიროვნების სურათებზე და გაძლიერებულია კომპიუტერული გრაფიკის დამატებითი ტექნიკით, რათა დააკავშიროთ ახალი ადამიანი ორიგინალურ კადრებთან. კოდირების ალგორითმი გამოიყენება ორიგინალურ სახესა და სამიზნე სახეს შორის მსგავსების დასადგენად. მას შემდეგ, რაც სახეების საერთო მახასიათებლები იზოლირებულია, გამოიყენება მეორე AI ალგორითმი, რომელსაც ეწოდება დეკოდერი. დეკოდერი იკვლევს დაშიფრულ (შეკუმშულ) სურათებს და აღადგენს მათ ორიგინალური სურათების მახასიათებლების საფუძველზე. გამოიყენება ორი დეკოდერი, ერთი ორიგინალური სუბიექტის სახეზე და მეორე სამიზნე პირის სახეზე. იმისათვის, რომ გაცვლა განხორციელდეს, X პირის სურათებზე გაწვრთნილი დეკოდერი იკვებება პიროვნების Y-ის გამოსახულებით. შედეგი არის ის, რომ Y-ის სახე არის რეკონსტრუქცია პირის X-ის სახის გამომეტყველებაზე და ორიენტაციაზე.

ამჟამად, ღრმა ფეიკის დამზადებას ჯერ კიდევ საკმაოდ დიდი დრო სჭირდება. ყალბის შემქმნელს მოუწევს დიდი ხნის განმავლობაში დახარჯოს მოდელის პარამეტრების ხელით რეგულირება, რადგან არაოპტიმალური პარამეტრები გამოიწვევს შესამჩნევ ნაკლოვანებებს და გამოსახულების ხარვეზებს, რაც არღვევს ყალბის ნამდვილ ბუნებას.

მიუხედავად იმისა, რომ ხშირად ვარაუდობენ, რომ ღრმა ფეიქების უმეტესობა დამზადებულია ნერვული ქსელის ტიპის გამოყენებით, რომელსაც ეწოდება ა გენერაციული საპირისპირო ქსელი (GAN), ამ დღეებში შექმნილი ბევრი (ალბათ უმეტესობა) ღრმა ფეიქი არ ეყრდნობა GAN-ებს. მიუხედავად იმისა, რომ GAN-ებმა მნიშვნელოვანი როლი ითამაშეს ადრეული ღრმა ფეიქების შექმნაში, ღრმა ფეიქი ვიდეოების უმეტესობა იქმნება ალტერნატიული მეთოდების გამოყენებით, ამბობს სივეი ლიუ SUNY Buffalo-დან.

GAN-ის გაწვრთნას სჭირდება არაპროპორციულად დიდი რაოდენობით სავარჯიშო მონაცემები და GAN-ებს ხშირად გაცილებით მეტი დრო სჭირდება გამოსახულების წარმოებისთვის სხვა გამოსახულების გენერირების ტექნიკასთან შედარებით. GAN-ები ასევე უკეთესია სტატიკური სურათების გენერირებისთვის, ვიდრე ვიდეო, რადგან GAN-ებს უჭირთ კონსისტენციის შენარჩუნება კადრიდან კადრამდე. ბევრად უფრო ხშირია კოდირების და მრავალი დეკოდერის გამოყენება ღრმა ფეიქების შესაქმნელად.

რისთვის გამოიყენება Deepfakes?

ინტერნეტში ნაპოვნი ღრმა ფეიქებიდან ბევრი პორნოგრაფიული ხასიათისაა. ხელოვნური ინტელექტის ფირმის Deeptrace-ის მიერ ჩატარებული კვლევის მიხედვით, 15,000 წლის სექტემბერში გადაღებული დაახლოებით 2019 ღრმა ფაქიზი ვიდეოდან, მათი დაახლოებით 95% პორნოგრაფიული ხასიათისა იყო. ამ ფაქტის შემაშფოთებელი მნიშვნელობა ის არის, რომ ტექნოლოგიის გამოყენება უფრო ადვილი ხდება, ყალბი შურისძიების პორნოს ინციდენტები შეიძლება გაიზარდოს.

თუმცა, ყველა ღრმა ყალბი არ არის პორნოგრაფიული ხასიათის. ღრმა Fake ტექნოლოგიის უფრო ლეგიტიმური გამოყენებაა. აუდიო ღრმა გაყალბების ტექნოლოგიას შეუძლია დაეხმაროს ადამიანებს მათი რეგულარული ხმების გადაცემაში მას შემდეგ, რაც ისინი დაზიანდებიან ან დაკარგავენ ავადმყოფობის ან ტრავმის გამო. Deepfakes ასევე შეიძლება გამოყენებულ იქნას მგრძნობიარე, პოტენციურად სახიფათო სიტუაციებში მყოფი ადამიანების სახეების დასამალად, თუმცა მათი ტუჩებისა და გამომეტყველების წაკითხვის საშუალებას იძლევა. Deepfake ტექნოლოგია პოტენციურად შეიძლება გამოყენებულ იქნას უცხოენოვანი ფილმების დუბლირების გასაუმჯობესებლად, ძველი და დაზიანებული მედიის შეკეთებაში და კიდევ ხელოვნების ახალი სტილის შესაქმნელად.

არავიდეო Deepfakes

მიუხედავად იმისა, რომ ადამიანების უმეტესობა ფიქრობს ყალბ ვიდეოებზე, როდესაც ისმენს ტერმინს "deepfake", ყალბი ვიდეო არ არის ერთადერთი სახის ყალბი მედია, რომელიც დამზადებულია ღრმა Fake ტექნოლოგიით. Deepfake ტექნოლოგია გამოიყენება ფოტო და აუდიო ყალბების შესაქმნელად. როგორც უკვე აღვნიშნეთ, GAN-ები ხშირად გამოიყენება ყალბი სურათების შესაქმნელად. ფიქრობენ, რომ ბევრი შემთხვევა ყოფილა ყალბი LinkedIn-ისა და Facebook-ის პროფილების, რომლებსაც აქვთ პროფილის სურათები გენერირებული ღრმა ყალბი ალგორითმებით.

შესაძლებელია აუდიო ღრმა ფეიქების შექმნაც. ღრმა ნერვული ქსელები გაწვრთნილი არიან სხვადასხვა ადამიანების, მათ შორის ცნობილი ადამიანებისა და პოლიტიკოსების ხმის კლონების/ხმის სკინების შესაქმნელად. აუდიო Deepfake-ის ერთ-ერთი ცნობილი მაგალითია, როდესაც AI კომპანია Dessa გამოიყენა AI მოდელი, მხარდაჭერილი არა AI ალგორითმებით, პოდკასტის წამყვანის ჯო როგანის ხმის ხელახლა შესაქმნელად.

როგორ ამოვიცნოთ Deepfakes

რაც უფრო და უფრო დაიხვეწება ღრმა ფეიქი, მათი გარჩევა ნამდვილი მედიისგან უფრო მკაცრი და მკაცრი გახდება. ამჟამად არსებობს რამდენიმე დამაჯერებელი ნიშანი ადამიანებს შეუძლიათ მოიძიონ, რათა დადგინდეს, არის თუ არა ვიდეო პოტენციურად ღრმა სიყალბე, როგორიცაა ცუდი ტუჩის სინქრონიზაცია, არაბუნებრივი მოძრაობა, მბჟუტავი სახის კიდეზე და წვრილმანი დეტალები, როგორიცაა თმა, კბილები ან ანარეკლი. ღრმა ფეიკის სხვა პოტენციური ნიშნებია იმავე ვიდეოს დაბალი ხარისხის ნაწილები და თვალების არარეგულარული აციმციმება.

მიუხედავად იმისა, რომ ეს ნიშნები შეიძლება დაგვეხმაროს ამ მომენტში ღრმა ფეიკის დადგენაში, რადგან ღრმა Fake ტექნოლოგია აუმჯობესებს ღრმა ფეიკის საიმედო აღმოჩენის ერთადერთი ვარიანტი შეიძლება იყოს სხვა ტიპის ხელოვნური ინტელექტი, რომელიც გაწვრთნილია ყალბისაგან რეალური მედიისგან განასხვავებლად.

ხელოვნური ინტელექტის კომპანიები, მათ შორის მრავალი მსხვილი ტექნოლოგიური კომპანია, იკვლევენ ღრმა ფეიქების გამოვლენის მეთოდებს. გასული წლის დეკემბერში დაიწყო ღრმა სიყალბის გამოვლენის გამოწვევა, რომელსაც მხარს უჭერს სამი ტექნიკური გიგანტი: Amazon, Facebook და Microsoft. კვლევითი გუნდები მთელი მსოფლიოდან მუშაობდნენ ღრმა ფეიქების გამოვლენის მეთოდებზე, ეჯიბრებოდნენ საუკეთესო აღმოჩენის მეთოდების შემუშავებას. მკვლევართა სხვა ჯგუფები, როგორიცაა Google-ისა და Jigsaw-ის კომბინირებული მკვლევართა ჯგუფი, მუშაობენ „სახის სასამართლო ექსპერტიზის“ ტიპზე, რომელსაც შეუძლია შეცვლილი ვიდეოების აღმოჩენა. მათი მონაცემთა ნაკრების ღია წყაროს შექმნა და წაახალისეთ სხვები, შეიმუშავონ ღრმა სიყალბის გამოვლენის მეთოდები. ზემოხსენებული Dessa მუშაობდა ღრმა ყალბი აღმოჩენის ტექნიკის დახვეწაზე, ცდილობდა უზრუნველყოს, რომ აღმოჩენის მოდელები მუშაობდნენ ველურ სამყაროში ნაპოვნი ღრმა ყალბი ვიდეოებზე (ინტერნეტში) და არა მხოლოდ წინასწარ შედგენილ სასწავლო და ტესტირების მონაცემთა ნაკრებებზე, როგორიცაა ღია კოდის მონაცემთა ბაზა. Google-მა უზრუნველყო.

ასევე არსებობს სხვა სტრატეგიები რომლებიც იძიებენ ღრმა ფეიქების გავრცელებას. მაგალითად, ვიდეოების შემოწმება ინფორმაციის სხვა წყაროებთან შესაბამისობისთვის ერთ-ერთი სტრატეგიაა. ძიება შეიძლება განხორციელდეს მოვლენების ვიდეოებისთვის, რომლებიც პოტენციურად არის გადაღებული სხვა კუთხით, ან ვიდეოს ფონის დეტალები (როგორიცაა ამინდის შაბლონები და მდებარეობები) შეიძლება შემოწმდეს შეუსაბამობაზე. ამის მიღმა, ბლოკჩეინის ონლაინ წიგნის სისტემა შეუძლია დაარეგისტრიროს ვიდეოები, როდესაც ისინი თავდაპირველად შეიქმნა, მათი ორიგინალური აუდიო და სურათების შენახვა, რათა წარმოებული ვიდეოები ყოველთვის შემოწმდეს მანიპულირებისთვის.

საბოლოო ჯამში, მნიშვნელოვანია, რომ შეიქმნას ღრმა გაყალბების გამოვლენის საიმედო მეთოდები და რომ აღმოჩენის ეს მეთოდები შეესაბამებოდეს ღრმა ფეიკის ტექნოლოგიების უახლეს მიღწევებს. მიუხედავად იმისა, რომ ძნელია ზუსტად იმის ცოდნა, თუ რა შედეგები მოჰყვება ღრმა ფეიქებს, თუ არ არსებობს ღრმა ფეიქების (და ყალბი მედიის სხვა ფორმების) გამოვლენის სანდო მეთოდები, დეზინფორმაციამ შესაძლოა პოტენციურად გავრცელდეს და შეამციროს ხალხის ნდობა საზოგადოებისა და ინსტიტუტების მიმართ.

Deepfakes-ის შედეგები

რა საფრთხეს უქმნის ღრმა ყალბი შეუმოწმებლად გამრავლების უფლებას?

ერთ-ერთი ყველაზე დიდი პრობლემა, რომელსაც ამჟამად ღრმა ფეიქი ქმნის, არის არაკონსენსუალური პორნოგრაფია, რომელიც შექმნილია ადამიანების სახეების პორნოგრაფიულ ვიდეოებთან და სურათებთან შერწყმით. ხელოვნური ინტელექტის ეთიკოსები შეშფოთებულნი არიან, რომ ღრმა ფეიქი უფრო მეტად გამოიყენებს ყალბი შურისძიების პორნოს შექმნას. გარდა ამისა, ღრმა ფეიქი შეიძლება გამოყენებულ იქნას თითქმის ნებისმიერი ადამიანის რეპუტაციის დაშინებისა და რეპუტაციის შესალახად, რადგან ისინი შეიძლება გამოიყენონ ადამიანების საკამათო და კომპრომატების სცენარებში მოსაყვანად.

კომპანიებმა და კიბერუსაფრთხოების სპეციალისტებმა გამოთქვეს შეშფოთება ღრმა ფეიქების გამოყენების შესახებ თაღლითობის, თაღლითობისა და გამოძალვის გასაადვილებლად. სავარაუდოდ, ღრმა ყალბი აუდიო იყო გამოიყენება თანამშრომლების დასარწმუნებლად კომპანიის თაღლითებისთვის ფულის გადარიცხვის მიზნით

შესაძლებელია, რომ ღრმა ფეიქი შეიძლება ჰქონდეს მავნე ზემოქმედება ზემოთ ჩამოთვლილთა მიღმაც კი. Deepfakes-მა შესაძლოა პოტენციურად შეარყიოს ხალხის ნდობა მედიის მიმართ და გაართულოს ადამიანებს რეალური და ყალბი ამბების გარჩევა. თუ ინტერნეტში ბევრი ვიდეო ყალბია, მთავრობებისთვის, კომპანიებისთვის და სხვა სუბიექტებისთვის უფრო ადვილი ხდება ლეგიტიმურ დაპირისპირებებსა და არაეთიკურ პრაქტიკაში ეჭვის შეტანა.

როდესაც საქმე ეხება მთავრობებს, ღრმა ფეიქებმა შესაძლოა საფრთხეც კი შეუქმნას დემოკრატიის ფუნქციონირებას. დემოკრატია მოითხოვს, რომ მოქალაქეებმა შეძლონ პოლიტიკოსების შესახებ ინფორმირებული გადაწყვეტილებების მიღება სანდო ინფორმაციის საფუძველზე. დეზინფორმაცია ძირს უთხრის დემოკრატიულ პროცესებს. მაგალითად, გაბონის პრეზიდენტი ალი ბონგო გამოჩნდა ვიდეოში, რომელიც ცდილობდა გაბონის მოქალაქეების დარწმუნებას. ითვლებოდა, რომ პრეზიდენტი დიდი ხნის განმავლობაში ცუდად იყო და მისი მოულოდნელი გამოჩენა სავარაუდოდ ყალბმა ვიდეომ დაიწყო გადატრიალების მცდელობა. პრეზიდენტი დონალდ ტრამპი ამტკიცებდა, რომ აუდიოჩანაწერი, სადაც ის ტრაბახობს ქალების სასქესო ორგანოებით დაჭერით ყალბი იყო, მიუხედავად იმისა, რომ ის ასევე აღწერს როგორც "გასახდელში საუბარი". პრინცი ენდრიუ ასევე ამტკიცებდა, რომ ემილი მაიტილისის ადვოკატის მიერ მოწოდებული სურათი ყალბი იყოთუმცა ადვოკატი ამტკიცებდა მის ავთენტურობას.

საბოლოო ჯამში, მიუხედავად იმისა, რომ არსებობს deepfake ტექნოლოგიის ლეგიტიმური გამოყენება, არსებობს მრავალი პოტენციური ზიანი, რომელიც შეიძლება წარმოიშვას ამ ტექნოლოგიის ბოროტად გამოყენებისგან. ამ მიზეზით, ძალზე მნიშვნელოვანია მედიის ავთენტურობის განსაზღვრის მეთოდების შექმნა და შენარჩუნება.

ბლოგერი და პროგრამისტი სპეციალობით მანქანა სწავლა მდე ღრმა სწავლება თემები. დანიელი იმედოვნებს, რომ დაეხმარება სხვებს გამოიყენონ ხელოვნური ინტელექტის ძალა სოციალური სიკეთისთვის.