stub NSF og Amazon Grant støtter forskning ved NYU for å hjelpe byer med å redusere skjevheter i AI Støttet beslutningstaking - Unite.AI
Kontakt med oss

etikk

NSF og Amazon Grant støtter forskning ved NYU for å hjelpe byer med å redusere skjevheter i AI Støttet beslutningstaking

mm
oppdatert on

Et team av forskere ved New York University vil utvikle nye metoder og verktøy som tar sikte på å minimere systemiske skjevheter og produsere mer rettferdige konsekvenser for offentlig politikk på områder som boliginspeksjon, politi og domstoler.

Under et stipend på 1 million dollar fra National Science Foundation (NSF) og Amazon, professor i informatikk Daniel B. Neill vil lede det treårige forskningsprosjektet sentrert om den økende bruken av kunstig intelligens (AI) av urbane, offentlige organisasjoner – arbeid som vil inkludere å lage åpen kildekode-verktøy for å vurdere og korrigere skjevheter.

"Menneskelige avgjørelser og algoritmiske avgjørelser har potensial for systematiske skjevheter som kan føre til dårlige nedstrømsresultater som ulikheter og ulikhet på tvers av rase-, kjønns- og sosioøkonomiske linjer," sa Neill, et medlem av fakultetet. Senter for byvitenskap og fremgang (CUSP) ved NYU Tandon School of Engineering, og professor ved NYU's Wagner Graduate School of Public Service.

"Det vi ønsker å forstå er hvordan algoritmer kan forbedre menneskelig beslutningstaking ved å eliminere implisitte skjevheter, og å utvikle metoder og verktøy for å hjelpe de som designer og implementerer politiske intervensjoner i byer."

Ved å se på både risikoene og fordelene med algoritmisk beslutningstaking, vil prosjektteamet utvikle en ny, pipelinet konseptualisering av rettferdighet som består av syv forskjellige stadier: data, modeller, spådommer, anbefalinger, beslutninger, virkninger og utfall. Denne "ende-til-ende rettferdighetspipeline" vil redegjøre for flere kilder til skjevheter, modellere hvordan skjevheter forplanter seg gjennom rørledningen for å resultere i urettferdige utfall, og vurdere følsomhet for umålte skjevheter.

For det andre vil teamet bygge et generelt metodisk rammeverk for å identifisere og korrigere skjevheter i hvert trinn av rørledningen, en slags skjevhetsskanning, sammen med algoritmiske beslutningsstøtteverktøy som gir anbefalinger til en menneskelig beslutningstaker (som algoritmiske "dykk" å lede menneskelige beslutninger mot rettferdighet).

Til slutt vil prosjektteamet lage nye beregninger for å måle tilstedeværelsen og omfanget av skjevhet i strafferetts- og boligdomenene, og verktøyene som kan brukes til å: (a) redusere fengsling ved rettferdig å gi støttende intervensjoner til rettslige involverte befolkninger; (b) prioritere boliginspeksjoner og reparasjoner; (c) vurdere og forbedre rettferdigheten i sivile og strafferettslige prosesser; og (d) analysere de ulike helseeffektene av uønskede miljøeksponeringer, inkludert boliger av dårlig kvalitet og aggressiv, urettferdig politipraksis.

"Den ultimate effekten av dette arbeidet er å fremme sosial rettferdighet for de som bor i byer og som er avhengige av bytjenester eller er involvert i rettssystemet, ved å vurdere og dempe skjevheter i beslutningsprosesser og redusere forskjeller," sa Neill. også direktør for NYUs Learning for Good Laboratory og et fakultetsmedlem ved NYUs Courant Institute of Mathematical Sciences.

I tillegg til Neill inkluderer forskerteamet Ravi Shroff, en assisterende professor ved CUSP og NYUs Steinhardt School of Culture, Education, and Human Development; Constantine Kontokosta, professor ved NYUs Marron Institute of Urban Management og tilknyttet fakultet ved NYU Tandon; og Edward McFowland III, professor ved University of Minnesotas Carlson School of Management.

Tilskuddet ble gitt under NSF-programmet om rettferdighet i kunstig intelligens i samarbeid med Amazon (2040898).

En grunnlegger av unite.AI og et medlem av Forbes teknologiråd, Antoine er en futurist som brenner for fremtiden til AI og robotikk.

Han er også grunnleggeren av Securities.io, et nettsted som fokuserer på å investere i forstyrrende teknologi.