სტუბი მკვლევარები აპროტესტებენ მანქანათმცოდნეობის ხანგრძლივ დაშვებას - Unite.AI
დაკავშირება ჩვენთან ერთად

ეთიკის

მკვლევარები ეჭვქვეშ აყენებენ მანქანათმცოდნეობის ხანგრძლივ დაშვებას

გამოქვეყნებულია

 on

კარნეგი მელონის უნივერსიტეტის მკვლევარები ეჭვქვეშ აყენებენ მანქანათმცოდნეობის ხანგრძლივ დაშვებას, რომ არსებობს სიზუსტე და სამართლიანობა ალგორითმებში, რომლებიც გამოიყენება საჯარო პოლიტიკის გადაწყვეტილებების მისაღებად. 

მანქანური სწავლების გამოყენება იზრდება ბევრ სფეროში, როგორიცაა სისხლის სამართლის სამართალი, დაქირავება, ჯანდაცვის მიწოდება და სოციალური სერვისების ინტერვენციები. ამ ზრდასთან ერთად ასევე იზრდება შეშფოთება იმის შესახებ, შეიძლება თუ არა ამ ახალმა აპლიკაციებმა არსებული უთანასწორობის გაუარესება. ისინი შეიძლება იყოს განსაკუთრებით საზიანო რასობრივი უმცირესობების ან ეკონომიკური მინუსების მქონე პირებისთვის. 

სისტემის რეგულირება

მიკერძოებისგან თავის დასაცავად მუდმივი კორექტირება ხდება მონაცემებზე, ეტიკეტებზე, მოდელის ტრენინგზე, ქულების სისტემებზე და სისტემის სხვა ასპექტებზე. თუმცა, თეორიული ვარაუდი იყო, რომ სისტემა ნაკლებად ზუსტი ხდება, როდესაც ეს კორექტირება მეტია. 

CMU-ის გუნდმა ამ თეორიის გამოწვევა დაიწყო ახალ კვლევაში, რომელიც გამოქვეყნდა ბუნების მანქანის დაზვერვა.

Rayid Ghani არის პროფესორი კომპიუტერული მეცნიერების სკოლის მანქანათმცოდნეობის დეპარტამენტში (MLD) და ჰაინცის საინფორმაციო სისტემებისა და საჯარო პოლიტიკის კოლეჯში. მას შეუერთდა კიტ როდოლფა, მკვლევარი MLD-ში; და ჰემანკ ლამბა, პოსტდოქტორანტი მკვლევარი SCS-ში. 

რეალურ სამყაროში აპლიკაციების ტესტირება

მკვლევარებმა გამოსცადეს ეს ვარაუდი რეალურ აპლიკაციებში, და რაც მათ აღმოაჩინეს, იყო ის, რომ კომპრომისი უმნიშვნელოა პოლიტიკის ბევრ სფეროში. 

”თქვენ რეალურად შეგიძლიათ მიიღოთ ორივე. თქვენ არ გჭირდებათ სიზუსტის გაწირვა სამართლიანი და სამართლიანი სისტემების შესაქმნელად,” - თქვა ღანიმ. ”მაგრამ ეს მოითხოვს თქვენგან განზრახ შეიმუშავოთ სისტემები, რომ იყოს სამართლიანი და სამართლიანი. თაროზე არსებული სისტემები არ იმუშავებს“.

გუნდმა ყურადღება გაამახვილა სიტუაციებზე, სადაც მოთხოვნადი რესურსები შეზღუდულია. ამ რესურსების განაწილებას ხელს უწყობს მანქანათმცოდნეობა.

მათ ყურადღება გაამახვილეს სისტემებზე ოთხ სფეროში:

  • პრიორიტეტი ფსიქიკური ჯანმრთელობის მზრუნველობის შეზღუდული მიწოდების მინიჭებაზე დაფუძნებული პირის ციხეში დაბრუნების რისკზე, რათა შემცირდეს რეინკარცერაცია;
  • უსაფრთხოების სერიოზული დარღვევების პროგნოზირება ქალაქის შეზღუდული საბინაო ინსპექტორების უკეთ განლაგების მიზნით;
  • მოსწავლეების დროულად არ დამთავრების რისკის მოდელირება, რათა გამოავლინოს ის, ვინც ყველაზე მეტად საჭიროებს დამატებით დახმარებას;
  • და ეხმარება მასწავლებლებს მიაღწიონ crowdfunding მიზნებს საკლასო საჭიროებისთვის.

მკვლევარებმა დაადგინეს, რომ სიზუსტისთვის ოპტიმიზირებული მოდელები ეფექტურად იწინასწარმეტყველებენ ინტერესის შედეგებს. თუმცა, მათ ასევე აჩვენეს მნიშვნელოვანი განსხვავება ინტერვენციების რეკომენდაციებში. 

მნიშვნელოვანი შედეგები მოვიდა, როდესაც მკვლევარებმა გამოიყენეს კორექტირება მოდელების შედეგებზე, რომლებიც მიზნად ისახავდა მათი სამართლიანობის გაუმჯობესებას. მათ აღმოაჩინეს, რომ სიზუსტის დაკარგვა არ მომხდარა, როდესაც აღმოიფხვრა განსხვავება რასის, ასაკისა თუ შემოსავლის მიხედვით. 

„ჩვენ გვსურს ხელოვნური ინტელექტის, კომპიუტერული მეცნიერებისა და მანქანათმცოდნეობის საზოგადოებებმა შეწყვიტონ ამ ვარაუდის მიღება სიზუსტესა და სამართლიანობას შორის და დაიწყონ მიზანმიმართულად შექმნან სისტემები, რომლებიც ორივეს მაქსიმალურს გაზრდის“, - თქვა როდოლფამ. ”ჩვენ ვიმედოვნებთ, რომ პოლიტიკის შემქმნელები გამოიყენებენ მანქანურ სწავლებას, როგორც ინსტრუმენტს გადაწყვეტილების მიღებისას, რათა დაეხმარონ მათ სამართლიანი შედეგების მიღწევაში.”

ალექს მაკფარლანდი არის ხელოვნური ინტელექტის ჟურნალისტი და მწერალი, რომელიც იკვლევს ხელოვნურ ინტელექტის უახლეს მოვლენებს. ის თანამშრომლობდა მრავალრიცხოვან AI სტარტაპთან და პუბლიკაციებთან მთელ მსოფლიოში.