სტუბი რამდენად შორს და ბნელი წავა Deepfakes? - გაერთიანდი.აი
დაკავშირება ჩვენთან ერთად

აზროვნების ლიდერები

რამდენად შორს და ბნელი წავა Deepfakes?

mm
განახლებულია on

როდესაც ხელოვნური ინტელექტი უფრო ღრმად ერწყმის ჩვენს ყოველდღიურ ცხოვრებას, ღრმა ყალბი ტექნოლოგია გახდა მზარდი შეშფოთება ბევრისთვის, განსაკუთრებით მათთვის, ვისაც უყვარს პირადი მომენტების გაზიარება სოციალურ მედიაში. იქნება ეს ღამე მეგობრებთან ერთად თუ საოჯახო პიკნიკი ბაჰამის კუნძულებზე, ფოტოები, რომლებიც გაზიარებულია პლატფორმებზე, როგორიცაა Instagram, Facebook და Snapchat, სულაც არ არის დაცული პოტენციური ბოროტად გამოყენებისგან.

კორეელი ახალგაზრდა ქალი ახლახან გამოვიდა სოციალურ მედიაში და გამოხატა თავისი მწუხარება ღრმა ყალბი ვიდეოს გამო, რომელიც გადაღებულია შურისძიების მიზნით. ვიდეოში ის გაშიშვლებული ჩანს. იგი ვნებიანად ითხოვდა ხელოვნური ინტელექტის მიერ გენერირებული ვიდეოს წაშლას და მოუწოდა ინდივიდს შეეწყვიტა მისი გავრცელება.

2023 წლის ოქტომბერში ცნობილი ფიგურები, როგორიცაა CBS Mornings-ის თანაწამყვანი გეილ კინგი, მსახიობი ტომ ჰენკსი და YouTube-ის პიროვნება MrBeast, გახდნენ არაავტორიზებული ღრმა ყალბი ვიდეოების მსხვერპლნი, რომლებიც გავრცელდა სოციალური მედიის პლატფორმებზე. კიდევ ერთი ვიდეო, რომელშიც ნაჩვენებია CNN-ის ჟურნალისტი კლარისა უორდი, ისრაელ-ღაზას საზღვართან ახლოს, მანიპულირებულ იქნა მის გაშუქებაში ეჭვის შეტანის მიზნით.

ამ ვიდეოებს, რომლებიც შექმნილია უახლესი ღრმა ყალბი ტექნოლოგიით, აქვს ძალა, ჩაანაცვლოს ინდივიდები არსებული კონტენტის ფარგლებში. მათი რეალისტური ბუნება შემაშფოთებელია, რაც ბევრს სჯერა მათი ავთენტურობის. Ეს მოიცავს ხელოვნური ინტელექტის გამომუშავებული სიმღერები ცნობილი ვარსკვლავების მიბაძვა, რომელთაგან ზოგიერთი გახდა ჩარტების ლიდერი.

ასეთმა მოვლენებმა გამოიწვია გლობალური შეშფოთება საზოგადოებრივი დამცირების, შევიწროების და შანტაჟის პოტენციალის შესახებ, რაც კიდევ უფრო ხაზს უსვამს ღრმა ფეიქების ბოროტ პოტენციალს.

რატომ არის Deepfake ტექნოლოგია იმაზე საშიში, ვიდრე ფიქრობთ

შემაშფოთებელი ინციდენტების ზრდა მიუთითებს პროაქტიული ზომების აუცილებლობაზე ღრმა ფეიქების წინააღმდეგ. ამჟამად, შეერთებულ შტატებშიც კი არ არსებობს უნივერსალური კანონი, რომელიც ეხება ღრმა ფეიქს ან არაავტორიზებული AI-ით გენერირებული კონტენტს. მიუხედავად იმისა, რომ მათი მთლიანად აღმოფხვრა შეუძლებელია, დამცავი ზომების მიღება შესაძლებელია.

მათთვის, ვინც არ იცნობს, ღრმა Fake ტექნოლოგია იყენებს AI-ს რეალისტური, მაგრამ შეთხზული სურათების, ვიდეოების ან აუდიო კლიპების შესაქმნელად. ეს მატყუარა ტექნოლოგია ცნობილი გახდა დაახლოებით 2017 წელს როდესაც Reddit-ის ანონიმურმა მომხმარებელმა წარმოადგინა ალგორითმი სიცოცხლის მსგავსი ყალბი ვიდეოების შესაქმნელად.

მიუხედავად იმისა, რომ თავდაპირველად განკუთვნილი იყო გასართობისთვის, განათლებისთვის ან აქტივიზმისთვის, ხელოვნური ინტელექტის სწრაფი წინსვლა, ღრმა ყალბი შესაძლებლობებით, წარმოადგენს უამრავ უსაფრთხოებისა და ეთიკურ საზრუნავს. Ეს მოიცავს:

  1. კონფიდენციალურობის დარღვევა: უპირველესი საზრუნავი არის პიროვნების მსგავსების უნებართვო გამოყენება. ცნობილ შემთხვევებს შორისაა ცნობილი ადამიანების ღრმა ყალბი ვიდეოები, რომლებიც აფუჭებს მათ იმიჯს. მაგალითად, 2017 წელს ფართოდ გავრცელდა არასათანადო ვიდეო, რომელიც ცრუ ასახავდა მსახიობ გალ გადოტს.
  2. დეზინფორმაცია და მანიპულირება: Deepfakes-ს შეუძლია ჭეშმარიტების დამახინჯება, საზოგადოებრივ აზრზე ზემოქმედება. თვალსაჩინო მაგალითია ღრმა ყალბი ვიდეო, რომელშიც წარმოდგენილია ყოფილი პრეზიდენტი ობამა, შექმნილი BuzzFeed-ისა და Jordan Peele-ის მიერ. მიუხედავად იმისა, რომ განკუთვნილია როგორც PSA დეზინფორმაციის წინააღმდეგ, ის ხაზს უსვამს ტექნოლოგიის პოტენციურ ბოროტად გამოყენებას.
არ დაიჯერებთ რას ამბობს ობამა ამ ვიდეოში! 😉

  1. თაღლითობა და შანტაჟი: ამ ტექნოლოგიას შეუძლია წარმოქმნას ყალბი მტკიცებულება ან მოატყუოს ხმის/გამოსახულების დუბლირების გზით. კრიმინალებმა შესაძლოა გამოიყენონ ღრმა ფეიქი გამოძალვის ან თუნდაც ფინანსური თაღლითობისთვის, როგორც ჩანს, როდესაც გაერთიანებული სამეფოს ენერგეტიკული კომპანია მოატყუეს მნიშვნელოვანი თანხის გადარიცხვაში, პოტენციურად ხმის ღრმა ფეიკის საშუალებით.
  2. მიკერძოება და დისკრიმინაცია: Deepfakes-მა შეიძლება გააძლიეროს ან გააძლიეროს სოციალური ცრურწმენები, პოტენციურად არასწორად წარმოაჩინოს კონკრეტული დემოგრაფიული მონაცემები.

Deepfakes: დემოკრატიის, ურთიერთობებისა და იდენტობის საფრთხეები

მიუხედავად იმისა, რომ ღრმა Fake ტექნოლოგია თავისთავად არ არის ბოროტი, მისი ბოროტად გამოყენება შეიძლება საზიანო იყოს. მას შეუძლია დაამახინჯოს არჩევნების შედეგები, დაძაბოს პირადი ურთიერთობები და დაარღვიოს პიროვნული იდენტობა, როგორც ეს ნაჩვენებია გასართობ პროგრამებში, როგორიცაა Netflix-ის „DeepFake Love“ და „Clickbait“.

დასკვნითი ფიქრები

Deepfakes გარდაქმნის ციფრულ სფეროს, ხსნის ინოვაციურ გზებს და აყენებს ეთიკურ გამოწვევებს. გლობალური რეგულირებისა და ეფექტური გამოვლენის ხელსაწყოების არარსებობა ამას კრიტიკულ საკითხად აქცევს. მიუხედავად იმისა, რომ საზოგადოების ინფორმირებულობა და მედიაწიგნიერება აუცილებელია, ისინი მხოლოდ გადაწყვეტის ნაწილია.

სასიცოცხლოდ მნიშვნელოვანია დაფიქრება: განვიხილავთ თუ არა ღრმა ფეიქებს, როგორც ტექნოლოგიურ საოცრებას ან საფრთხეს ინდივიდუალური და საზოგადოების კეთილდღეობისთვის? საუბარი უნდა გაგრძელდეს, რადგან კოლექტიური ცნობიერება და ქმედება გადამწყვეტია ღრმა ფეიკის ტექნოლოგიის მავნე ზემოქმედების შესამცირებლად.

მე ვარ ჰარის ამერი, ბიჭი, რომელიც მართავს კონტენტ გემს SaaSpartners-ში და თანადამფუძნებელი გამოიკვლიეთ. სრულიად მიჯაჭვული ხელოვნური ინტელექტის ყველაფერზე და მიყვარს ხელოვნური ინტელექტის თხრილებში ჩაძირვა.