Liity verkostomme!

Etiikka

Tutkijat haastavat pitkään pidetyn koneoppimisen oletuksen

Julkaistu

 on

Carnegie Mellonin yliopiston tutkijat kyseenalaistavat pitkään vallinneen koneoppimisoletuksen, jonka mukaan julkisten poliittisten päätösten tekemiseen käytettävien algoritmien tarkkuuden ja oikeudenmukaisuuden välillä on kompromissi. 

Koneoppimisen käyttö lisääntyy monilla aloilla, kuten rikosoikeudessa, palkkaamisessa, terveydenhuollon toimittamisessa ja sosiaalipalveluissa. Tämä kasvu lisää myös huolta siitä, voivatko nämä uudet sovellukset pahentaa olemassa olevaa eriarvoisuutta. Ne voivat olla erityisen haitallisia rotuvähemmistöille tai henkilöille, joilla on taloudellisia haittoja. 

Järjestelmän säätäminen

Tietoihin, merkintöihin, mallikoulutukseen, pisteytysjärjestelmiin ja muihin järjestelmän osa-alueisiin tehdään jatkuvasti muutoksia, jotta vältetään harha. Teoreettisena oletuksena on kuitenkin ollut, että järjestelmästä tulee vähemmän tarkka, kun näitä säätöjä on enemmän. 

CMU:n tiimi päätti haastaa tämän teorian uudessa tutkimuksessa, joka julkaistiin vuonna Luonto-koneiden tiedustelu.

Rayid Ghani on tietotekniikan korkeakoulun koneoppimisosaston (MLD) ja Heinz College of Information Systems and Public Policyn professori. Häneen liittyi MLD:n tutkija Kit Rodolfa; ja Hemank Lamba, SCS:n tohtoritutkija. 

Reaalimaailman sovellusten testaus

Tutkijat testasivat tätä oletusta reaalimaailman sovelluksissa, ja he havaitsivat, että kompromissi on merkityksetön monilla politiikan aloilla. 

"Itse asiassa voit saada molemmat. Sinun ei tarvitse uhrata tarkkuutta rakentaaksesi reiluja ja tasapuolisia järjestelmiä”, Ghani sanoi. "Mutta se vaatii, että järjestelmät suunnitellaan tarkoituksella oikeudenmukaisiksi ja tasa-arvoisiksi. Valmiit järjestelmät eivät toimi."

Tiimi keskittyi tilanteisiin, joissa kysyntäresurssit ovat rajalliset. Näiden resurssien kohdentamista auttaa koneoppiminen.

He keskittyivät järjestelmiin neljällä alueella:

  • priorisoimalla rajoitettu mielenterveyshuolto, joka perustuu henkilön riskiin palata vankilaan, jotta voidaan vähentää uudelleen vangitsemista;
  • vakavien turvallisuusrikkomusten ennustaminen, jotta kaupungin rajalliset asuntotarkastajat voidaan sijoittaa paremmin käyttöön;
  • mallinnetaan riskiä siitä, että opiskelijat eivät valmistu lukiosta ajoissa, jotta voidaan tunnistaa ne, jotka eniten tarvitsevat lisätukea;
  • ja auttaa opettajia saavuttamaan joukkorahoitustavoitteet luokkahuoneen tarpeisiin.

Tutkijat havaitsivat, että tarkkuutta varten optimoidut mallit voivat tehokkaasti ennustaa kiinnostavia tuloksia. He osoittivat kuitenkin myös huomattavia eroja toimenpiteitä koskevissa suosituksissa. 

Tärkeitä tuloksia saatiin, kun tutkijat sovelsivat mallien tuotoksiin oikaisuja, joilla pyrittiin parantamaan niiden oikeudenmukaisuutta. He havaitsivat, että tarkkuus ei heikentynyt, kun rodun, iän tai tulojen erot poistettiin. 

"Haluamme, että tekoäly-, tietojenkäsittely- ja koneoppimisyhteisöt lakkaavat hyväksymästä tätä oletusta tarkkuuden ja oikeudenmukaisuuden välisestä kompromissista ja alkavan tarkoituksella suunnitella järjestelmiä, jotka maksimoivat molemmat", Rodolfa sanoi. "Toivomme, että poliittiset päättäjät omaksuvat koneoppimisen työkaluna päätöksenteossa auttaakseen heitä saavuttamaan oikeudenmukaisia ​​tuloksia."

Alex McFarland on tekoälytoimittaja ja kirjailija, joka tutkii tekoälyn viimeisintä kehitystä. Hän on tehnyt yhteistyötä lukuisten AI-startup-yritysten ja -julkaisujen kanssa maailmanlaajuisesti.