სტუბი პროფესორი იულია სტოიანოვიჩი, პასუხისმგებელი ხელოვნური ინტელექტის ცენტრის დირექტორი - ინტერვიუების სერია - Unite.AI
დაკავშირება ჩვენთან ერთად

ინტერვიუები

პროფესორი იულია სტოიანოვიჩი, პასუხისმგებელი AI – ინტერვიუს სერიის ცენტრის დირექტორი

mm
განახლებულია on

იულია სტოიანოვიჩი, არის NYU-ს ტანდონის საინჟინრო სკოლის პროფესორი და პასუხისმგებელი ხელოვნური ინტელექტის ცენტრის დამფუძნებელი დირექტორი. მან ცოტა ხნის წინ ჩვენება მისცა NYC საბჭოს ტექნოლოგიის კომიტეტს შემოთავაზებული კანონპროექტი რომელიც დაარეგულირებს ხელოვნური ინტელექტის გამოყენებას დაქირავებისა და დასაქმების გადაწყვეტილებებისთვის.

თქვენ ხართ NYU-ში პასუხისმგებელი AI ცენტრის დამფუძნებელი დირექტორი. შეგიძლიათ გაგვიზიაროთ ამ ორგანიზაციის მიერ წამოწყებული რამდენიმე ინიციატივა?

მე სტივენ კუიანთან ერთად ვხელმძღვანელობ NYU-ში პასუხისმგებელი AI (R/AI) ცენტრს. მე და სტივენს გვაქვს დამატებითი ინტერესები და გამოცდილება. მე ვარ აკადემიკოსი, კომპიუტერული მეცნიერების გამოცდილება და დიდი ინტერესი მაქვს გამოყენებაზე შთაგონებული სამუშაოების მიმართ მონაცემთა ინჟინერიის, პასუხისმგებელი მონაცემთა მეცნიერებისა და პოლიტიკის კვეთაზე. სტივენი არის მმართველი დირექტორი NYU Tandon Future Labsსტარტაპ ინკუბატორებისა და ამაჩქარებლების ქსელი, რომელსაც უკვე ჰქონდა უზარმაზარი ეკონომიკური გავლენა ნიუ-იორკის შტატში. ჩვენი ხედვა R/AI არის დაეხმაროს "პასუხისმგებლო AI"-ს სინონიმად აქციოს "AI", გამოყენებითი კვლევის, საჯარო განათლებისა და ჩართულობის კომბინაციით და დავეხმაროთ დიდ და პატარა კომპანიებს - განსაკუთრებით მცირე - განავითარონ პასუხისმგებელი AI.

ბოლო რამდენიმე თვის განმავლობაში, R/AI აქტიურად იყო ჩართული საუბრებში ADS (Automated Decision Systems) ზედამხედველობის შესახებ. ჩვენი მიდგომა ეფუძნება საგანმანათლებლო აქტივობებისა და პოლიტიკის ჩართულობის ერთობლიობას.

ნიუ-იორკი განიხილავს შემოთავაზებულ კანონს, 1894 წელს, რომელიც დაარეგულირებს ADS-ის გამოყენებას დაქირავებისას აუდიტისა და საჯარო გამჟღავნების კომბინაციის გზით. R/AI-მ წარადგინა საჯარო კომენტარები კანონპროექტზე, ჩვენს კვლევასა და სამუშაოს მაძიებელთაგან მიღებული შეხედულებების საფუძველზე. საზოგადოების ჩართულობა საქმიანობა.

ჩვენც ვითანამშრომლეთ GovLab NYU-ში და მასთან ერთად მიუნხენის ტექნიკურ უნივერსიტეტში ხელოვნური ინტელექტის ეთიკის ინსტიტუტი უფასო ონლაინ კურსზე სახელწოდებით "ხელოვნური ინტელექტის ეთიკა: გლობალური პერსპექტივები” რომელიც ამოქმედდა ამ თვის დასაწყისში.

R/AI-ს კიდევ ერთი ბოლო პროექტი, რომელიც საკმაოდ დიდ ყურადღებას იპყრობს, არის ჩვენი კომიქსების სერია "მონაცემები, პასუხისმგებლობით". სერიის პირველ ტომს ჰქვია „სარკე, სარკე“, ის ხელმისაწვდომია ინგლისურ, ესპანურ და ფრანგულ ენებზე და ხელმისაწვდომია ეკრანის წამკითხველით სამივე ენაზე. კომიქსმა მიიღო თვის ინოვაცია ჯილდო Metro Lab Network-ისა და GovTech-ისგან და დაფარული იყო ტორონტოში ვარსკვლავიდა სხვა.

რა არის ზოგიერთი ამჟამინდელი ან პოტენციური საკითხი AI მიკერძოებულთან დაკავშირებით დაქირავებისა და დასაქმების გადაწყვეტილების მისაღებად?

ეს არის რთული კითხვა, რომელიც მოითხოვს, პირველ რიგში, ნათლად ვიყოთ რას ვგულისხმობთ „მიკერძოებულობაში“. მთავარია აღინიშნოს, რომ დაქირავების ავტომატური სისტემები არის „პროგნოზირებადი ანალიტიკა“ - ისინი პროგნოზირებენ მომავალს წარსულზე დაყრდნობით. წარსული წარმოდგენილია ისტორიული მონაცემებით იმ პირების შესახებ, რომლებიც დაქირავებულ იქნა კომპანიის მიერ და იმის შესახებ, თუ როგორ მუშაობდნენ ეს პირები. შემდეგ სისტემა "გაწვრთნილი" ხდება ამ მონაცემებზე, რაც იმას ნიშნავს, რომ ის განსაზღვრავს სტატისტიკურ შაბლონებს და იყენებს მათ პროგნოზების გასაკეთებლად. ეს სტატისტიკური შაბლონები ხელოვნური ინტელექტის „ჯადოსნობაა“, სწორედ ამას ეფუძნება პროგნოზირების მოდელები. ცხადია, მაგრამ რაც მთავარია, ისტორიული მონაცემები, საიდანაც ეს ნიმუშები იქნა მოპოვებული, დუმს იმ პირებზე, რომლებიც არ იყვნენ დაქირავებული, რადგან ჩვენ უბრალოდ არ ვიცით, როგორ გააკეთებდნენ ისინი იმ სამუშაოს, რომელიც მათ არ მიიღეს. და სწორედ აქ მოქმედებს მიკერძოება. თუ ჩვენ სისტემატურად დავიქირავებ უფრო მეტ ინდივიდს კონკრეტული დემოგრაფიული და სოციალურ-ეკონომიკური ჯგუფებიდან, მაშინ ამ ჯგუფებში წევრობა და მახასიათებლები, რომლებიც თან ახლავს ამ ჯგუფის წევრობას, გახდება პროგნოზირების მოდელის ნაწილი. მაგალითად, თუ ჩვენ ოდესმე ვხედავთ მხოლოდ ტოპ უნივერსიტეტების კურსდამთავრებულებს, რომლებიც დაქირავებულნი არიან აღმასრულებელი როლებისთვის, მაშინ სისტემა ვერ გაიგებს, რომ ადამიანები, რომლებიც სხვა სკოლაში სწავლობდნენ, შეიძლება ასევე კარგად იყვნენ. ადვილია მსგავსი პრობლემის დანახვა სქესის, რასისა და ინვალიდობის სტატუსისთვის.

AI-ში მიკერძოება ბევრად უფრო ფართოა, ვიდრე უბრალოდ მიკერძოება მონაცემებში. ეს წარმოიქმნება მაშინ, როდესაც ჩვენ ვცდილობთ გამოვიყენოთ ტექნოლოგია, სადაც ტექნიკური გადაწყვეტა უბრალოდ შეუსაბამოა, ან როდესაც ჩვენ ვაყენებთ არასწორ მიზნებს AI-ს - ხშირად იმიტომ, რომ ჩვენ არ გვაქვს მრავალფეროვანი ხმები დიზაინის მაგიდაზე, ან როდესაც ჩვენ უარს ვამბობთ. სააგენტო ადამიანებში - ხელოვნური ინტელექტის ურთიერთქმედება AI-ს განლაგების შემდეგ. მიკერძოების თითოეული ეს მიზეზი იმსახურებს საკუთარ განხილვას, რომელიც, სავარაუდოდ, უფრო მეტხანს გაგრძელდება, ვიდრე ამ სტატიის სივრცე იძლევა საშუალებას. ასე რომ, კონცენტრირების მიზნით, ნება მომეცით დავუბრუნდე მიკერძოებას მონაცემებში.

მონაცემთა მიკერძოების ახსნისას, მე მომწონს სარკის ასახვის მეტაფორის გამოყენება. მონაცემები არის სამყაროს გამოსახულება, მისი სარკის ანარეკლი. როდესაც ჩვენ ვფიქრობთ მიკერძოებულობაზე მონაცემებში, ჩვენ ვკითხულობთ ამ ანარეკლს. „მონაცემებში მიკერძოების“ ერთ-ერთი ინტერპრეტაცია არის ის, რომ ასახვა დამახინჯებულია - ჩვენი სარკე ნაკლებად ან ზედმეტად წარმოადგენს მსოფლიოს ზოგიერთ ნაწილს, ან სხვაგვარად ამახინჯებს კითხვებს. „მონაცემებში მიკერძოების“ კიდევ ერთი ინტერპრეტაცია არის ის, რომ, თუნდაც ასახვა იყოს 100% ერთგული, ის მაინც იქნება მსოფლიოს ასახვა, როგორიც დღეს არის და არა იმისა, თუ როგორ შეიძლება ან უნდა იყოს. მნიშვნელოვანია, რომ მონაცემები ან ალგორითმი არ არის დამოკიდებული იმაზე, არის თუ არა ეს გატეხილი სამყაროს სრულყოფილი ასახვა, თუ სრულყოფილი სამყაროს გატეხილი ასახვა, თუ ეს დამახინჯებები შერეულია. ხალხის გადასაწყვეტია - ინდივიდები, ჯგუფები, ზოგადად საზოგადოება - მიაღწიონ კონსენსუსს იმის თაობაზე, კარგად ვართ თუ არა სამყაროსთან ისეთი, როგორიც არის, ან, თუ არა, როგორ უნდა ვიმოქმედოთ მის გაუმჯობესებაზე.

დაუბრუნდით პროგნოზირებულ ანალიტიკას: რაც უფრო ძლიერია განსხვავება მონაცემებში, როგორც წარსულის ასახვა, მით უფრო სავარაუდოა, რომ ისინი აისახება პროგნოზირების მოდელების მიერ და მომავალში განმეორდება - და კიდევ უფრო გამწვავდება.

თუ ჩვენი მიზანია გავაუმჯობესოთ ჩვენი დაქირავების პრაქტიკა თანასწორობისა და მრავალფეროვნების გათვალისწინებით, მაშინ ჩვენ უბრალოდ ვერ მოვახერხეთ ეს სამუშაო მანქანებს. ჩვენ უნდა შევასრულოთ შრომისმოყვარეობა დასაქმებისა და დასაქმების მიკერძოების ჭეშმარიტი მიზეზების იდენტიფიცირებისთვის და ყველა დაინტერესებული მხარის მონაწილეობით სოციალურ-სამართლებრივ-ტექნიკური გადაწყვეტის შესახებ მოლაპარაკების პროცესში. ტექნოლოგიას, რა თქმა უნდა, აქვს როლი იმაში, რომ დაგვეხმაროს სტატუს კვოს გაუმჯობესებაში: ის დაგვეხმარება გულწრფელად ვიყოთ ჩვენი მიზნებისა და შედეგების მიმართ. მაგრამ პრეტენზია, როგორც მონაცემების მიკერძოება ან პროგნოზირებადი ანალიტიკა, გადაჭრის დისკრიმინაციის ღრმა პრობლემებს დაქირავებისას, საუკეთესო შემთხვევაში გულუბრყვილობაა.

თქვენ ახლახანს მიაწოდეთ ჩვენება ნიუ-იორკის საბჭოს ტექნოლოგიის კომიტეტს, ერთი გასაოცარი კომენტარი ასეთი იყო: „ჩვენ ვხვდებით, რომ როგორც რეკლამის განმთავსებლის ბიუჯეტი, ასევე რეკლამის შინაარსი მნიშვნელოვნად უწყობს ხელს Facebook-ის რეკლამის მიწოდების არაჩვეულებრივ მიწოდებას. კრიტიკულად, ჩვენ ვაკვირდებით მნიშვნელოვან გადახრის მიწოდებას გენდერული და რასობრივი ხაზების გასწვრივ დასაქმებისა და საცხოვრებლის შესაძლებლობების "რეალური" რეკლამებისთვის, მიუხედავად ნეიტრალური მიზნობრივი პარამეტრებისა." რა არის გადაწყვეტილებები ამ ტიპის მიკერძოების თავიდან ასაცილებლად?

ეს კომენტარი, რომელიც მე გავაკეთე, ეფუძნება ბრწყინვალეს ალი და სხვების ნაშრომი. სახელწოდებით „დისკრიმინაცია ოპტიმიზაციის გზით: როგორ შეიძლება Facebook-ის რეკლამის მიწოდებამ მიკერძოებულ შედეგებამდე მიგვიყვანოს“. ავტორები თვლიან, რომ რეკლამის მიწოდების მექანიზმი თავად არის პასუხისმგებელი დისკრიმინაციული ეფექტების დანერგვაზე და გაძლიერებაზე. ზედმეტია იმის თქმა, რომ ეს აღმოჩენა უაღრესად პრობლემურია, განსაკუთრებით იმის გამო, რომ ის გაუმჭვირვალობის ფონზე ხდება Facebook-სა და სხვა პლატფორმებზე - Google-სა და Twitter-ზე. ტვირთი ეკისრება პლატფორმებს, რათა სასწრაფოდ და დამაჯერებლად აჩვენონ, რომ მათ შეუძლიათ ბატონობდნენ დისკრიმინაციული ეფექტებით, როგორიცაა ალი და სხვები. მოკლედ, მე ვერ ვპოულობ გამართლებას პერსონალიზებული რეკლამის მიზნობრივი გამოყენებისათვის საცხოვრებელში, დასაქმებაში და. სხვა სფეროები, სადაც ადამიანების სიცოცხლე და საარსებო წყარო არის საფრთხეში.

როგორ შეუძლიათ მონაცემთა მეცნიერებმა და AI დეველოპერებმა საუკეთესოდ აიცილონ სხვა უნებლიე მიკერძოება მათ სისტემებში?

 ეს არ არის მთლიანად მონაცემთა მეცნიერების, ან რომელიმე დაინტერესებული ჯგუფის გადასაწყვეტი, რათა უზრუნველყონ ტექნიკური სისტემები საზოგადოების ღირებულებებთან შესაბამისობაში. მაგრამ მონაცემთა მეცნიერები, მართლაც, ამ ბრძოლის წინა პლანზე არიან. როგორც კომპიუტერის მეცნიერი, მე შემიძლია დავამტკიცო მიმზიდველობა იმისა, რომ ჩვენს მიერ შემუშავებული სისტემები არის „ობიექტური“, „ოპტიმალური“ ან „სწორი“. რამდენად წარმატებულია კომპიუტერული მეცნიერება და მონაცემთა მეცნიერება - რამდენად გავლენიანი და ფართოდ გამოიყენება - კურთხევაც და წყევლაც არის. ჩვენ ტექნოლოგებს აღარ გვაქვს იმის ფუფუნება, დავიმალოთ ობიექტურობისა და სისწორის მიუღწეველი მიზნების მიღმა. ტვირთი ჩვენზეა, რომ ყურადღებით ვიფიქროთ ჩვენს ადგილებზე მსოფლიოში და ვისწავლოთ საკუთარი თავი იმ სოციალურ და პოლიტიკურ პროცესებზე, რომლებზეც გავლენას ვიღებთ. საზოგადოება არ გვაძლევს საშუალებას გვაძლევს სწრაფად ვიმოქმედოთ და გავაფუჭოთ რამე, ჩვენ უნდა შევანელოთ და ვიფიქროთ.

სიმბოლურია, რომ ფილოსოფია იყო ოდესღაც მთელი სამეცნიერო და საზოგადოებრივი დისკურსის ცენტრი, შემდეგ მოვიდა მათემატიკა, შემდეგ კომპიუტერული მეცნიერება. ახლა, როდესაც მონაცემთა მეცნიერება დგას ცენტრში, ჩვენ სრული წრე მივიღეთ და გვჭირდება დავუკავშირდეთ ჩვენს ფილოსოფიურ ფესვებს.

კიდევ ერთი რეკომენდაცია, რომელიც თქვენ გააკეთეთ არის ინფორმირებული საზოგადოების შექმნა. როგორ ვაცნობოთ საზოგადოებას, რომელიც შესაძლოა არ იცნობდეს AI-ს, ან არ ესმოდეს AI მიკერძოებულობასთან დაკავშირებული პრობლემები?

აუცილებელია არატექნიკური ადამიანების განათლება ტექნოლოგიის შესახებ და ტექნიკური ადამიანების განათლება მისი სოციალური შედეგების შესახებ. ორივე ამ მიზნის მიღწევას დასჭირდება ჩვენი მთავრობის ძლიერი ვალდებულება და მნიშვნელოვანი ინვესტიცია. ჩვენ უნდა შევიმუშაოთ მასალები და საგანმანათლებლო მეთოდოლოგია ყველა ამ ჯგუფისთვის და მოვძებნოთ გზები მონაწილეობის წახალისებისთვის. და ჩვენ არ შეგვიძლია ამ სამუშაოს კომერციულ სუბიექტებს მივატოვოთ. ევროკავშირი ლიდერობს, რომელსაც რამდენიმე მთავრობა უჭერს მხარს საბაზისო AI განათლება მისი მოქალაქეებისა და AI სასწავლო გეგმების ჩართვა საშუალო სკოლის პროგრამებში. ჩვენ R/AI-ში ვმუშაობთ საჯაროდ ხელმისაწვდომ და ფართოდ ხელმისაწვდომ კურსზე, რომლის მიზანია შევქმნათ ჩართული საზოგადოება, რომელიც დაეხმარება ხელოვნური ინტელექტის შექმნას ისეთად, როგორიც ჩვენ გვინდა, რომ იყოს. ჩვენ ძალიან აღფრთოვანებულები ვართ ამ ნამუშევრით, გთხოვთ, თვალყური ადევნოთ დამატებით ინფორმაციას მომავალ თვეში.

გმადლობთ შესანიშნავი დეტალური გამოხმაურებისთვის, მკითხველებს, რომელთაც სურთ მეტი გაიგონ, უნდა ეწვიონ პასუხისმგებელი ხელოვნური ინტელექტის ცენტრს. 

unite.AI-ს დამფუძნებელი პარტნიორი და წევრი Forbes-ის ტექნოლოგიური საბჭო, ანტუანი არის ა ფუტურისტი რომელიც გატაცებულია ხელოვნური ინტელექტისა და რობოტიკის მომავლის მიმართ.

ის ასევე არის დამფუძნებელი Securities.io, ვებსაიტი, რომელიც ფოკუსირებულია დამრღვევ ტექნოლოგიებში ინვესტირებაზე.