სტუბი AI ახლა ინსტიტუტი აფრთხილებს ემოციების გამოვლენის პროგრამული უზრუნველყოფის ბოროტად გამოყენების და სხვა ეთიკური საკითხების შესახებ - Unite.AI
დაკავშირება ჩვენთან ერთად

ეთიკის

AI ახლა ინსტიტუტი აფრთხილებს ემოციების გამოვლენის პროგრამული უზრუნველყოფის ბოროტად გამოყენებისა და სხვა ეთიკური საკითხების შესახებ

mm
განახლებულია on

AI Now Institute-მა გამოაქვეყნა ანგარიში, რომელიც მოუწოდებს კანონმდებლებს და სხვა მარეგულირებელ ორგანოებს დააწესონ მკაცრი შეზღუდვები ემოციების გამოვლენის ტექნოლოგიის გამოყენებაზე, აკრძალონ ის იმ შემთხვევებში, როდესაც ის შეიძლება გამოყენებულ იქნას ისეთი მნიშვნელოვანი გადაწყვეტილებების მისაღებად, როგორიცაა თანამშრომლების დაქირავება ან სტუდენტების მიღება. გარდა ამისა, მოხსენება შეიცავდა უამრავ სხვა წინადადებას ხელოვნური ინტელექტის სფეროში სხვადასხვა თემებთან დაკავშირებით.

ის AI ახლა ინსტიტუტი არის NYU-ში დაფუძნებული კვლევითი ინსტიტუტი, რომელსაც აქვს მისია შეისწავლოს AI-ის გავლენა საზოგადოებაზე. AI Now აქვეყნებს ყოველწლიურ ანგარიშს, რომელიც აჩვენებს მათ დასკვნებს AI კვლევის მდგომარეობასთან და ეთიკურ შედეგებთან დაკავშირებით, თუ როგორ გამოიყენება AI ამჟამად. როგორც BBC იტყობინება, წლევანდელი ანგარიში ეხებოდა ისეთ თემებს, როგორიცაა ალგორითმული დისკრიმინაცია, ხელოვნური ინტელექტის კვლევების მრავალფეროვნების ნაკლებობა და შრომითი საკითხები.

Affect Recognition, ტექნიკური ტერმინი ემოციების გამოვლენის ალგორითმებისთვის, არის AI კვლევის სწრაფად მზარდი სფერო. ისინი, ვინც იყენებს ტექნოლოგიას გადაწყვეტილების მისაღებად, ხშირად ამტკიცებენ, რომ სისტემებს შეუძლიათ მიიღონ სანდო ინფორმაცია ადამიანების ემოციური მდგომარეობის შესახებ მიკროგამოხატვების ანალიზით, სხვა მინიშნებებთან ერთად, როგორიცაა ხმის ტონი და სხეულის ენა. AI Now ინსტიტუტი აღნიშნავს, რომ ტექნოლოგია გამოიყენება აპლიკაციების ფართო სპექტრში, როგორიცაა იმის განსაზღვრა, თუ ვინ დაიქირაოს, სადაზღვევო ფასების დადგენა და მონიტორინგი, თუ მოსწავლეები ყურადღებას აქცევენ კლასში.

პროფესორმა ქეით კროუფორდმა, AI Now-ს თანადამფუძნებელმა განმარტა, რომ ხშირად სჯეროდათ, რომ ადამიანის ემოციების ზუსტად პროგნოზირება შესაძლებელია შედარებით მარტივი მოდელებით. კროუფორდმა თქვა, რომ ზოგიერთი ფირმა თავისი პროგრამული უზრუნველყოფის შემუშავებას ეფუძნება პოლ ეკმანის მუშაობაზე, ფსიქოლოგის, რომელმაც ჰიპოთეზა გამოთქვა, რომ სახეზე მხოლოდ ექვსი ძირითადი ტიპის ემოციაა რეგისტრირებული. თუმცა, კროუფორდი აღნიშნავს, რომ ეკმანის თეორიის დანერგვის შემდეგ, კვლევებმა აჩვენა, რომ სახის გამონათქვამებში გაცილებით დიდი ცვალებადობაა და რომ გამონათქვამები შეიძლება შეიცვალოს სიტუაციებსა და კულტურაში ძალიან მარტივად.

„ამ ტექნოლოგიების გავრცელების პარალელურად, დიდი რაოდენობით კვლევები აჩვენებს, რომ არ არსებობს... არ არსებობს რაიმე არსებითი მტკიცებულება იმისა, რომ ადამიანებს აქვთ ასეთი თანმიმდევრული კავშირი თქვენს გრძნობებსა და სახეს შორის. განაცხადა კროუფორდმა BBC-სთან.

ამ მიზეზით, AI Now ინსტიტუტი ამტკიცებს, რომ ზემოქმედების ამოცნობის დიდი ნაწილი ეფუძნება არასანდო თეორიებს და საეჭვო მეცნიერებას. მაშასადამე, ემოციების გამოვლენის სისტემები არ უნდა იყოს გამოყენებული მანამ, სანამ არ ჩატარდება მეტი კვლევა და რომ „მთავრობებმა კონკრეტულად უნდა აკრძალონ ზემოქმედების ამოცნობის გამოყენება მაღალი ფსონების გადაწყვეტილების მიღების პროცესებში“. AI Now ამტკიცებდა, რომ ჩვენ განსაკუთრებით უნდა შევწყვიტოთ ტექნოლოგიის გამოყენება „სენსიტიურ სოციალურ და პოლიტიკურ კონტექსტში“, კონტექსტებში, რომლებიც მოიცავს დასაქმებას, განათლებას და პოლიციას.

მინიმუმ ერთი ხელოვნური ინტელექტის განვითარების ფირმა, რომელიც სპეციალიზირებულია ეფექტის ამოცნობაში, Emteq, დათანხმდა, რომ უნდა არსებობდეს რეგულაცია, რომელიც თავიდან აიცილებს ტექნიკის ბოროტად გამოყენებას. Emteq-ის დამფუძნებელმა ჩარლზ ნდუკამ BBC-ს განუმარტა, რომ მიუხედავად იმისა, რომ ხელოვნური ინტელექტის სისტემებს შეუძლიათ ზუსტად ამოიცნონ სახის სხვადასხვა გამომეტყველება, არ არსებობს მარტივი რუკა გამომეტყველებიდან ემოციამდე. ნდუკამ გამოხატა შეშფოთება იმის გამო, რომ რეგულაციები ძალიან შორს არის გადაყვანილი და ახშობს კვლევას და აღნიშნა, რომ თუ „რამეს აიკრძალება, ძალიან მნიშვნელოვანია, რომ ადამიანებმა არ გადააგდონ ბავშვი აბაზანის წყლით“.

როგორც NextWeb იუწყება, AI Now ასევე რეკომენდაციას უწევს უამრავ სხვა პოლიტიკას და ნორმას, რომლებიც უნდა წარმართონ AI ინდუსტრიის წინსვლას.

AI Now-მ ხაზი გაუსვა ხელოვნური ინტელექტის ინდუსტრიის აუცილებლობას, გახადოს სამუშაო ადგილები უფრო მრავალფეროვანი და განაცხადა, რომ მუშაკებს უნდა ჰქონდეთ გარანტირებული უფლება გამოხატონ თავიანთი შეშფოთება ინვაზიური და ექსპლუატაციური ხელოვნური ინტელექტის შესახებ. ტექნიკურ მუშაკებს ასევე უნდა ჰქონდეთ უფლება იცოდნენ, გამოიყენება თუ არა მათი ძალისხმევა მავნე ან არაეთიკური სამუშაოს შესაქმნელად.

AI Now-მ ასევე შესთავაზა კანონმდებლებმა მიიღონ ზომები, რათა მოითხოვონ ინფორმირებული თანხმობა ჯანმრთელობასთან დაკავშირებული AI-დან მიღებული ნებისმიერი მონაცემის გამოყენებაზე. ამის გარდა, რეკომენდაცია იქნა მიღებული, რომ მონაცემთა კონფიდენციალურობა უფრო სერიოზულად იქნას მიღებული და რომ სახელმწიფოებმა უნდა იმუშაონ კონფიდენციალურობის კანონების შემუშავებაზე ბიომეტრიული მონაცემებისთვის, რომელიც მოიცავს როგორც კერძო, ასევე საჯარო სუბიექტებს.

დაბოლოს, ინსტიტუტმა ურჩია, რომ ხელოვნური ინტელექტის ინდუსტრიამ დაიწყო ფიქრი და მოქმედება უფრო გლობალურად, შეეცადოს გაუმკლავდეს ხელოვნური ინტელექტის უფრო დიდ პოლიტიკურ, სოციალურ და ეკოლოგიურ შედეგებს. რეკომენდირებული იყო არსებითი ძალისხმევა გაეთვალისწინებინა ხელოვნური ინტელექტის გავლენა გეოგრაფიულ გადაადგილებასა და კლიმატზე და რომ მთავრობებმა უნდა გახადონ AI ინდუსტრიის კლიმატის გავლენა საჯაროდ.

ბლოგერი და პროგრამისტი სპეციალობით მანქანა სწავლა მდე ღრმა სწავლება თემები. დანიელი იმედოვნებს, რომ დაეხმარება სხვებს გამოიყენონ ხელოვნური ინტელექტის ძალა სოციალური სიკეთისთვის.