სტუბი ჩინეთი გვთავაზობს Deepfakes-ის და სხვა ხელოვნური ინტელექტის სინთეზის სისტემების რეგულირებას - Unite.AI
დაკავშირება ჩვენთან ერთად

ხელოვნური ინტელექტი

ჩინეთი გვთავაზობს Deepfakes-ის და სხვა ხელოვნური ინტელექტის სინთეზის სისტემების რეგულირების გაზრდას

mm
განახლებულია on

ჩინეთის კიბერსივრცის ადმინისტრაციამ (CAC) შესთავაზა რეგულაციების პროექტების ახალი ნაკრები, რომელიც არეგულირებს AI-ს დახმარებით სინთეზის სისტემებს, მათ შორის ღრმა ფეიქებს, ვირტუალური რეალობის სცენებს, ტექსტის გენერირებას, აუდიოსა და AI მედიის სინთეზის სხვა ქვესექტორებს. ჩინეთი ყოველთვიურად აწარმოებს უამრავ აკადემიურ ნაშრომს და ინოვაციურ კვლევით პროექტს.

პოსტი (Google Translation, ორიგინალი აქ დაწკაპუნებით) CAC-ის ოფიციალურ საიტზე ასახავს შემოთავაზებულ ვალდებულებებს და ახასიათებს ზემოქმედების ქვეშ მოქცეულ სერვისებს, როგორც „ღრმა სინთეზის სერვისის პროვაიდერებს“, და იწვევს მოქალაქეებს მონაწილეობის მისაღებად წინადადებების პროექტზე კომენტარების შეტანით, ბოლო ვადა 28 თებერვალი.

არა მხოლოდ Deepfakes

მიუხედავად იმისა, რომ შემოთავაზებული რეგულაციები მოხსენებულია ღრმა ფეიქების შექმნასა და გავრცელებაზე მათი პოტენციური ზემოქმედების თვალსაზრისით, დოკუმენტი ცდილობს ყოვლისმომცველი მიმოხილვა ალგორითმების შესაძლებლობებზე, შექმნან ნებისმიერი ტიპის კონტენტი, რომელიც შეიძლება ინტერპრეტირებული იყოს ფართო გაგებით. "მედია".

მე-2 მუხლი აცხადებს რეგულაციების დაგეგმილ ფარგლებს ექვს სექტორში*:

(1) ტექსტური შინაარსის გენერირების ან რედაქტირების ტექნიკა, როგორიცაა თავების გენერირება, ტექსტის სტილის კონვერტაცია და კითხვა-პასუხის დიალოგი;

(2) ხმოვანი შინაარსის გენერირების ან რედაქტირების ტექნოლოგიები, როგორიცაა ტექსტი მეტყველებაში, ხმის გადაქცევა და ხმის ატრიბუტების რედაქტირება;

(3) არახმოვანი შინაარსის გენერირების ან რედაქტირების ტექნოლოგიები, როგორიცაა მუსიკის გენერირება და სცენის ხმის მონტაჟი;

(4) სახის გენერაცია, სახის ჩანაცვლება, პერსონაჟების ატრიბუტების რედაქტირება, სახის მანიპულირება, ჟესტებით მანიპულირება და სხვა ტექნოლოგიები ბიომეტრიული მახასიათებლების გენერირებისთვის ან რედაქტირებისთვის, როგორიცაა სახეები სურათებში და ვიდეო კონტენტში;

(5) სურათებსა და ვიდეო კონტენტში არაბიოლოგიური მახასიათებლების რედაქტირების ტექნიკა, როგორიცაა გამოსახულების გაუმჯობესება და გამოსახულების აღდგენა;

(6) ვირტუალური სცენების გენერირების ან რედაქტირების ტექნოლოგიები, როგორიცაა 3D რეკონსტრუქცია.

Deepfake რეგულაცია

ჩინეთმა კრიმინალიზაცია მოახდინა ხელოვნური ინტელექტის გამოყენება ყალბი ამბების გავრცელებისთვის დასასრულს 2019, რა დროსაც CAC-მა გამოხატა შეშფოთება ღრმა ფეიკის ტექნოლოგიის პოტენციური შედეგების შესახებ, რამაც აიძულა ბევრმა ჩათვალოს, რომ ჩინეთის მთავრობა საბოლოოდ აკრძალავს ღრმა ფეიკის ტექნოლოგიას.

თუმცა, ეს გამოიწვევს ჩინეთს ოფიციალურად უარის თქმას ერთ-ერთ ყველაზე პოლიტიკურად და კულტურულად მნიშვნელოვან განვითარებაზე მედიის გენერირების, ხელოვნური ინტელექტისა და თუნდაც პოლიტიკის ისტორიაში და მოწყვეტას გლობალური და ღია სამეცნიერო თანამშრომლობის სარგებელს.

მაშასადამე, როგორც ჩანს, ჩინეთი ახლა გადაწყვეტილი აქვს ექსპერიმენტი ჩაატაროს კონტროლზე და არა აკრძალვაზე პოტენციურად მზაკვრული ტექნოლოგიის შესახებ, რომელიც, ბევრის აზრით, საბოლოოდ გადავა მისი ქვეყნიდან. პორნოს ამაჩქარებლის ფაზა და ლეგიტიმური და ექსპლუატაციის გამოყენების შემთხვევების ერთობლიობაში, განსაკუთრებით გასართობში.

მოყვება NeRF

მუხლი 2.6 ეხება ვირტუალური სცენების გენერირებას ან რედაქტირებას, როგორიცაა 3D რეკონსტრუქცია, უფრო ახალშობილ ტექნოლოგიას, ვიდრე ღრმა ფალსიფიკაციას, და რომელიც მიაღწია ყველაზე გამორჩეულს ბოლო ორი წლის განმავლობაში ნერვული გასხივოსნების ველების გამოჩენის გზით (NeRF), სადაც ფოტოგრამეტრია გამოიყენება მანქანური სწავლების მოდელების შესასწავლად ლატენტურ სივრცეში მთელი სცენების სინთეზირებისთვის.

თუმცა, NeRF სწრაფად აფართოვებს თავის წვდომას მოდელების ცხრილებიდან და გარემოში გავლილი გარემოდან მთლიანი ტანის ვიდეოების გენერირებამდე, ჩინელი მკვლევარებმა წინ წაიწიეს. რამდენიმე ძირითადი ინოვაცია ამ მხრივ.

ST-NeRF

ჩინეთის ST-NeRF მოქმედებაში.

მიუხედავად იმისა, რომ NeRF-მა 2020 წლის გამოცხადების შემდეგ მოამზადა ახალი კვლევების ქარბუქი, მისი დანერგვა VR ან AR სისტემებში, ან მისი ვარგისიანობა ვიზუალური ეფექტების მილსადენებში, ჯერ კიდევ აქვს მრავალი მნიშვნელოვანი გამოწვევა და ტექნოლოგიური ბარიერი. NeRF-ის მზარდი უნარი აღადგინოს და დაარედაქტიროს სრული ადამიანური ფიზიონომიები ჯერ კიდევ არ შეიცავს სტანდარტული იდენტობის გარდაქმნის ღრმა ფაიკის შესაძლებლობებს, რომლებიც ახასიათებდა ახალი ამბების სათაურებს ბოლო ორი წლის განმავლობაში.

აუდიო Deepfakes პრიორიტეტია?

თუ 2 მუხლის სიის თანმიმდევრობა მივიღოთ, როგორც ღრმა სინთეზის ტექნოლოგიების მითითება, რომლის კონტროლი და რეგულირება ყველაზე მეტად ჩინეთია დაინტერესებული, ეს ნიშნავს, რომ ტექსტზე დაფუძნებული ხელოვნური ინტელექტის გამომუშავებული ყალბი ამბები არის უპირველესი საზრუნავი, ვიდეოს წინ ხმის სინთეზი. deepfakes მისი პოტენციური გავლენის თვალსაზრისით.

თუ ასეა, ეს ემთხვევა იმ ფაქტს, რომ ღრმა ყალბი ვიდეო ჯერ კიდევ არ არის გამოყენებული პორნოგრაფიასთან დაკავშირებული ნებისმიერი დანაშაულისთვის (აზიაში არ უყოყმანოდ კრიმინალიზება ღრმაფეიქ პორნო), მაშინ როცა ღრმა ფაქიზი აუდიო განლაგებულია აქტიურ ტექნოლოგიად სულ მცირე ორ ძირითად ფინანსურ დანაშაულში, დიდ ბრიტანეთში წელს 2019და არაბეთის გაერთიანებულ საემიროებში წელს 2021.

ახალი რეგულაციების პროექტი ავალდებულებს მომხმარებლებს, რომლებსაც სურთ გამოიყენონ პიროვნების იდენტურობა მანქანური სწავლების სისტემების გამოყენებით, მოითხოვონ წერილობითი ნებართვა ინდივიდისგან. გარდა ამისა, სინთეზირებულ მედიაში უნდა იყოს გამოსახული რაიმე სახის „გამოჩენილი“ ლოგო ან წყლის ნიშანი, ან სხვა საშუალებები, რომლითაც მასალის მომხმარებელმა შეიძლება გააცნობიეროს, რომ შინაარსი შეცვლილია ან მთლიანად შეთითხნილი. ბოლომდე გაურკვეველია, როგორ შეიძლება ამის მიღწევა აუდიო ღრმა ფეიქების შემთხვევაში.

დარეგისტრირება

რატიფიცირების შემთხვევაში, წინადადებების პროექტი ავალდებულებს ღრმა სინთეზის სერვისის პროვაიდერებს, დაარეგისტრირონ თავიანთი შესაბამისი განაცხადები სახელმწიფოში, ინტერნეტ საინფორმაციო სერვისების ალგორითმის რეკომენდაციების ადმინისტრირების შესახებ არსებული დებულებების შესაბამისად და დაიცვან შევსების ყველა აუცილებელი პროცედურა. ღრმა სინთეზის პროვაიდერებს ასევე მოეთხოვებათ თავისუფლად ითანამშრომლონ ზედამხედველობისა და შემოწმების კუთხით და მოთხოვნის შემთხვევაში წარმოადგინონ „აუცილებელი ტექნიკური და მონაცემთა მხარდაჭერა და დახმარება“.

გარდა ამისა, ასეთ პროვაიდერებს მოუწევთ დააფუძნონ მომხმარებლისთვის მოსახერხებელი პორტალები საჩივრებისთვის და გამოაქვეყნონ მოსალოდნელი ვადები ასეთი საჩივრების დამუშავების შესახებ, ასევე მოეთხოვონ შესთავაზონ „ჭორების უარყოფის მექანიზმები“ – თუმცა წინადადებები არ შეიცავს დეტალებს. ამის განხორციელებასთან დაკავშირებით.

დარღვევამ შეიძლება გამოიწვიოს ჯარიმები 10,000-დან 100,000 იუანამდე ($1,600 და $16,000), ისევე როგორც დამნაშავე კომპანიები სამოქალაქო და სისხლის სამართლის სარჩელების წინაშე.

 

* Google Translate-ის თარგმანი, იხილეთ ბმული სტატიის დასაწყისში.

პირველად გამოქვეყნდა 28 წლის 2022 იანვარს.