stomp Navorsers daag masjienleer-aanname uit wat lank gehou word - Unite.AI
Verbinding met ons

Etiek

Navorsers daag masjienleer-aanname uit wat lank gehou word

Gepubliseer

 on

Navorsers aan die Carnegie Mellon Universiteit daag 'n masjienleer-aanname uit dat daar 'n afweging is tussen akkuraatheid en regverdigheid in algoritmes wat gebruik word om openbare beleidsbesluite te neem. 

Die gebruik van masjienleer neem toe op baie gebiede soos kriminele geregtigheid, verhuring, lewering van gesondheidsorg en maatskaplike diensintervensies. Met hierdie groei kom ook groter kommer oor of hierdie nuwe toepassings bestaande ongelykhede kan vererger. Hulle kan veral skadelik wees vir rasseminderhede of individue met ekonomiese nadele. 

Aanpassing van 'n stelsel

Daar is voortdurend aanpassings aan data, etikette, modelopleiding, puntestelsels en ander aspekte van die stelsel om teen vooroordeel te waak. Die teoretiese aanname was egter dat die stelsel minder akkuraat word wanneer daar meer van hierdie aanpassings is. 

Die span by CMU het probeer om hierdie teorie uit te daag in 'n nuwe studie gepubliseer in Nature Machine Intelligence.

Rayid Ghani is 'n professor in die Skool vir Rekenaarwetenskap se masjienleer-afdeling (MLD) en die Heinz-kollege vir inligtingstelsels en openbare beleid. Hy is aangesluit deur Kit Rodolfa, 'n navorsingswetenskaplike in MLD; en Hemank Lamba, 'n postdoktorale navorser in SCS. 

Toets werklike toepassings

Die navorsers het hierdie aanname in werklike toepassings getoets, en wat hulle gevind het, was dat die afweging oor baie beleidsdomeine weglaatbaar is. 

“Jy kan eintlik albei kry. Jy hoef nie akkuraatheid op te offer om stelsels te bou wat regverdig en billik is nie,” het Ghani gesê. “Maar dit vereis wel dat jy stelsels doelbewus ontwerp om regverdig en billik te wees. Van die rak-stelsels sal nie werk nie.”

Die span het gefokus op situasies waar hulpbronne in aanvraag beperk is. Die toekenning van hierdie hulpbronne word aangehelp deur masjienleer.

Hulle het gefokus op stelsels in vier areas:

  • prioritisering van beperkte geestesgesondheidsorg-uitreik gebaseer op 'n persoon se risiko om terug te keer na die tronk om hergevangenskap te verminder;
  • ernstige veiligheidsoortredings te voorspel om 'n stad se beperkte behuisingsinspekteurs beter te ontplooi;
  • modellering van die risiko dat studente nie betyds van hoërskool gradueer nie om diegene te identifiseer wat die meeste bykomende ondersteuning benodig;
  • en om onderwysers te help om skarebefondsingsdoelwitte vir klaskamerbehoeftes te bereik.

Die navorsers het bevind dat modelle wat vir akkuraatheid geoptimaliseer is, die uitkomste van belangstelling effektief kan voorspel. Hulle het egter ook aansienlike verskille in aanbevelings vir intervensies getoon. 

Die belangrike resultate het gekom toe die navorsers die aanpassings toegepas het op die uitsette van die modelle wat daarop gemik was om hul regverdigheid te verbeter. Hulle het ontdek dat daar geen verlies aan akkuraatheid was wanneer ongelykhede op ras, ouderdom of inkomste verwyder is nie. 

"Ons wil hê die kunsmatige intelligensie-, rekenaarwetenskap- en masjienleergemeenskappe moet ophou om hierdie aanname van 'n afweging tussen akkuraatheid en regverdigheid te aanvaar en om doelbewus stelsels te begin ontwerp wat albei maksimeer," het Rodolfa gesê. "Ons hoop dat beleidmakers masjienleer sal aangryp as 'n instrument in hul besluitneming om hulle te help om billike uitkomste te bereik."

Alex McFarland is 'n KI-joernalis en skrywer wat die jongste ontwikkelings in kunsmatige intelligensie ondersoek. Hy het wêreldwyd met talle KI-opstarters en publikasies saamgewerk.