stubs Prof. Jūlija Stojanoviča, Atbildīgā mākslīgā intelekta centra direktore — interviju sērija — Unite.AI
Savienoties ar mums

Intervijas

Prof. Jūlija Stojanoviča, Atbildīgā AI centra direktore — interviju sērija

mm
Atjaunināts on

Jūlija Stojanoviča, ir NYU Tandonas inženierzinātņu skolas profesors un Atbildīgā AI centra dibinātājs. Viņa nesen sniedza liecību NYC Padomes Tehnoloģiju komitejai par ierosinātais likumprojekts kas regulētu mākslīgā intelekta izmantošanu darbā pieņemšanas un nodarbinātības lēmumu pieņemšanā.

Jūs esat NYU Atbildīgā AI centra dibinātājs. Vai jūs varētu dalīties ar mums ar dažām šīs organizācijas iniciatīvām?

Es kopā ar Stīvenu Kujanu vadu Atbildīgā AI (R/AI) centru Ņujorkā. Man un Stīvenam ir viena otru papildinošas intereses un zināšanas. Esmu akadēmiķis, ar datorzinātņu pieredzi un lielu interesi par lietojuma iedvesmotu darbu datu inženierijas, atbildīgas datu zinātnes un politikas krustpunktā. Stīvens ir uzņēmuma rīkotājdirektors NYU Tandon Future Labs, starta inkubatoru un paātrinātāju tīkls, kam Ņujorkā jau ir bijusi milzīga ekonomiskā ietekme. Mūsu vīzija par R/AI ir palīdzēt padarīt “atbildīgu AI” par sinonīmu “AI”, apvienojot lietišķos pētījumus, sabiedrības izglītošanu un iesaistīšanos, kā arī palīdzot lieliem un maziem uzņēmumiem, īpaši maziem, izstrādāt atbildīgu AI.

Dažu pēdējo mēnešu laikā R/AI ir aktīvi iesaistījies sarunās par ADS (Automated Decision Systems) uzraudzību. Mūsu pieeja balstās uz izglītojošu darbību un politikas iesaistes kombināciju.

Ņujorka apsver ierosināto likumu, Int 1894, kas regulētu ADS izmantošanu darbā pieņemšanā, apvienojot auditu un publiskošanu. R/AI iesniedza publiskus komentārus par likumprojektu, pamatojoties uz mūsu pētījumiem un ieskatiem, ko ieguvām no darba meklētājiem, izmantojot vairākus sabiedrības iesaistīšanās aktivitātes.

Sadarbojāmies arī ar GovLab NYU un ar Minhenes Tehniskās universitātes MI Ētikas institūts bezmaksas tiešsaistes kursā ar nosaukumu “AI ētika: globālās perspektīvas” kas tika uzsākta šī mēneša sākumā.

Vēl viens nesens R/AI projekts, kuram ir pievērsta diezgan liela uzmanība, ir mūsu komiksu sērija “Dati, Atbildīgi”. Sērijas pirmais sējums saucas “Spogulis, spogulis”, tas ir pieejams angļu, spāņu un franču valodā un pieejams ar ekrāna lasītāju visās trīs valodās. Komikss ieguva Mēneša inovācija balvu no Metro Lab Network un GovTech, un to sedza Toronto Star, Among others.

Kādas ir dažas no pašreizējām vai iespējamām problēmām, kas saistītas ar AI neobjektivitāti attiecībā uz lēmumiem par pieņemšanu darbā un darbā?

Šis ir sarežģīts jautājums, kas liek mums vispirms noskaidrot, ko mēs saprotam ar “neobjektivitāti”. Galvenais, kas jāņem vērā, ir tas, ka automatizētās darbā pieņemšanas sistēmas ir “prognozējoša analītika” — tās prognozē nākotni, pamatojoties uz pagātni. Pagātni atspoguļo vēsturiskie dati par personām, kuras uzņēmums pieņēma darbā, un par šo personu veikumu. Pēc tam sistēma tiek “apmācīta” uz šiem datiem, kas nozīmē, ka tā identificē statistikas modeļus un izmanto tos, lai veiktu prognozes. Šie statistikas modeļi ir AI “maģija”, uz ko balstās prognozēšanas modeļi. Skaidrs, bet svarīgi ir tas, ka vēsturiskie dati, no kuriem šie modeļi tika iegūti, klusē par personām, kuras netika pieņemtas darbā, jo mēs vienkārši nezinām, kā viņi būtu veikuši darbu, kuru viņi nesaņēma. Un šeit parādās neobjektivitāte. Ja mēs sistemātiski pieņemsim darbā vairāk cilvēku no noteiktām demogrāfiskām un sociālekonomiskajām grupām, tad dalība šajās grupās un īpašības, kas ir saistītas ar dalību grupā, kļūs par daļu no prognozēšanas modeļa. Piemēram, ja mēs vienmēr redzam, ka vadošo universitāšu absolventi tiek pieņemti darbā vadošos amatos, tad sistēma nevar uzzināt, ka cilvēkiem, kuri mācījās citā skolā, arī varētu iet labi. Ir viegli redzēt līdzīgu problēmu attiecībā uz dzimumu, rasi un invaliditātes statusu.

AI novirze ir daudz plašāka nekā tikai datu novirze. Tā rodas, kad mēs cenšamies izmantot tehnoloģiju, kur tehniskais risinājums ir vienkārši nepiemērots, vai kad mēs izvirzām nepareizus AI mērķus — bieži vien tāpēc, ka pie projektēšanas galda mums nav daudz dažādu balsu, vai kad mēs atsakāmies no sava. aģentūra cilvēka un AI mijiedarbībā pēc AI izvietošanas. Katrs no šiem neobjektivitātes iemesliem ir pelnījis savu diskusiju, kas, iespējams, ilgs ilgāk, nekā atļauj vieta šajā rakstā. Tāpēc, lai saglabātu uzmanību, ļaujiet man atgriezties pie datu novirzes.

Skaidrojot datu neobjektivitāti, man patīk izmantot spoguļatstarojuma metaforu. Dati ir pasaules attēls, tās spoguļattēls. Kad mēs domājam par neobjektivitāti datos, mēs pārbaudām šo pārdomu. Viena no “datu novirzes” interpretācijām ir tāda, ka atspoguļojums ir izkropļots — mūsu spogulis pārāk maz vai pārāk reprezentē dažas pasaules daļas, vai kā citādi izkropļo rādījumus. Vēl viena “datu novirzes” interpretācija ir tāda, ka pat tad, ja atspoguļojums būtu 100% patiess, tas joprojām atspoguļotu tādu pasauli, kāda tā ir šodien, nevis to, kādai tai varētu būt vai vajadzētu būt. Svarīgi, ka tas nav atkarīgs no datiem vai algoritma, kas mums norāda, vai tas ir ideāls salauztas pasaules atspulgs vai nevainojamas pasaules atspulgs, vai arī šie izkropļojumi ir saistīti. Cilvēkiem — indivīdiem, grupām, sabiedrībai kopumā — ir jāpanāk vienprātība par to, vai mums viss ir kārtībā ar tādu pasauli, kāda tā ir, vai, ja nē, kā mums to vajadzētu uzlabot.

Atpakaļ uz prognozējošo analīzi: jo lielākas ir atšķirības datos, kas atspoguļo pagātni, jo lielāka iespēja, ka prognozēšanas modeļi tās uztvers un nākotnē tiks atkārtotas un pat saasinātas.

Ja mūsu mērķis ir uzlabot mūsu darbā pieņemšanas praksi, ievērojot vienlīdzību un dažādību, mēs vienkārši nevaram uzticēt šo darbu mašīnām. Mums ir jādara smags darbs, lai identificētu patiesos neobjektivitātes cēloņus darbā pieņemšanas un nodarbinātības jomā un apspriestu sociāli juridiski tehnisko risinājumu, iesaistot visas ieinteresētās personas. Tehnoloģijai noteikti ir sava loma, palīdzot mums uzlabot status quo: tās var palīdzēt mums palikt godīgiem par saviem mērķiem un rezultātiem. Taču izlikties par datu novirzīšanu vai paredzamo analīzi atrisinās dziļi iesakņojušās diskriminācijas problēmas darbā pieņemšanā, labākajā gadījumā ir naivi.

Jūs nesen sniedzāt liecību NYC Padomes Tehnoloģiju komitejai, viens pārsteidzošs komentārs bija šāds: “Mēs atklājam, ka gan reklāmdevēja budžets, gan reklāmas saturs būtiski ietekmē Facebook reklāmu rādīšanas novirzi. Kritiski mēs novērojam ievērojamas novirzes pēc dzimuma un rases attiecībā uz “īstām” nodarbinātības un mājokļa iespējām, neskatoties uz neitrālajiem mērķauditorijas atlases parametriem. Kādi ir daži risinājumi, lai izvairītos no šāda veida aizspriedumiem?

Šis komentārs, ko es izteicu, ir balstīts uz izcilu Ali et al papīrs. ar nosaukumu "Diskriminācija optimizācijas rezultātā: kā Facebook reklāmu piegāde var novest pie neobjektīviem rezultātiem". Autori atklāj, ka pats reklāmu piegādes mehānisms ir atbildīgs par diskriminējošas ietekmes ieviešanu un pastiprināšanu. Lieki piebilst, ka šis atklājums ir ļoti problemātisks, jo īpaši tāpēc, ka tas notiek uz Facebook un citu platformu — Google un Twitter — necaurredzamības fona. Platformu pienākums ir steidzami un pārliecinoši pierādīt, ka tās var radīt diskriminējošu ietekmi, piemēram, Ali et al.. Turklāt es nevaru atrast attaisnojumu turpmākai personalizētu reklāmu mērķauditorijas atlases izmantošanai mājokļu, nodarbinātības un citas jomas, kurās ir apdraudēta cilvēku dzīvība un iztika.

Kā datu zinātnieki un mākslīgā intelekta izstrādātāji vislabāk var novērst citu nejaušu aizspriedumu iekļūšanu viņu sistēmās?

 Tas nav tikai datu zinātnieku vai jebkuras vienas ieinteresēto personu grupas ziņā, lai nodrošinātu, ka tehniskās sistēmas ir saskaņotas ar sabiedrības vērtībām. Bet datu zinātnieki patiešām ir šīs cīņas priekšgalā. Pats būdams datorzinātnieks, es varu apliecināt, cik pievilcīgi ir domāt, ka mūsu izstrādātās sistēmas ir “objektīvas”, “optimālas” vai “pareizas”. Cik veiksmīgas ir datorzinātnes un datu zinātne — cik ietekmīgas un plaši izmantotas — ir gan svētība, gan lāsts. Mums, tehnologiem, vairs nav greznības slēpties aiz nesasniedzamajiem objektivitātes un korektuma mērķiem. Mums ir pienākums rūpīgi pārdomāt savu vietu pasaulē un izglītot sevi par sociālajiem un politiskajiem procesiem, kurus mēs ietekmējam. Sabiedrība nevar atļauties mums virzīties ātri un sabojāt lietas, mums ir jāsamazina temps un jāpārdomā.

Simboliski, ka filozofija savulaik bija visa zinātniskā un sabiedriskā diskursa centrālais elements, tad nāca matemātika un tad datorzinātne. Tagad, kad datu zinātne ieņem galveno vietu, mēs esam sasnieguši pilnu apli un mums ir jāatgriežas pie mūsu filozofiskajām saknēm.

Vēl viens jūsu ieteikums ir informētas sabiedrības izveide. Kā informēt sabiedrību, kas, iespējams, nav pazīstama ar AI, vai izprot problēmas, kas saistītas ar AI novirzēm?

Ir ļoti nepieciešams izglītot netehniskos cilvēkus par tehnoloģijām un izglītot tehniskos cilvēkus par to sociālajām sekām. Abu šo mērķu sasniegšana prasīs stingru mūsu valdības apņemšanos un ievērojamus ieguldījumus. Mums ir jāizstrādā materiāli un izglītības metodika visām šīm grupām un jāatrod veidi, kā stimulēt līdzdalību. Un mēs nevaram atstāt šo darbu komercsabiedrību ziņā. Eiropas Savienība ir vadošā loma, un vairākas valdības sniedz atbalstu AI pamatizglītība AI mācību programmas iekļaujot vidusskolas programmās. Mēs, R/AI, strādājam pie publiski pieejama un plaši pieejama kursa, kura mērķis ir izveidot iesaistītu sabiedrību, kas palīdzēs padarīt AI tādu, kādu MĒS vēlamies. Mēs esam ļoti satraukti par šo darbu, lūdzu, sekojiet līdzi jaunākajai informācijai nākamajā mēnesī.

Paldies par lieliskajām detalizētajām atbildēm, lasītājiem, kuri vēlas uzzināt vairāk, vajadzētu apmeklēt Atbildīgā AI centru.