výhonek Výzkumníci zpochybňují dlouhodobý předpoklad strojového učení - Unite.AI
Spojte se s námi

Etika

Výzkumníci zpochybňují dlouhodobý předpoklad strojového učení

Zveřejněno

 on

Výzkumníci z Carnegie Mellon University zpochybňují zažitý předpoklad strojového učení, že existuje kompromis mezi přesností a spravedlností v algoritmech používaných k rozhodování o veřejné politice. 

Využívání strojového učení se zvyšuje v mnoha oblastech, jako je trestní soudnictví, najímání, poskytování zdravotní péče a intervence sociálních služeb. S tímto růstem přicházejí také zvýšené obavy, zda tyto nové aplikace mohou zhoršit stávající nerovnosti. Mohly by být zvláště škodlivé pro rasové menšiny nebo jednotlivce s ekonomickým znevýhodněním. 

Nastavení systému

Neustále dochází k úpravám dat, štítků, modelového školení, skórovacích systémů a dalších aspektů systému, aby se zabránilo zkreslení. Teoretickým předpokladem však bylo, že systém se stává méně přesným, když je těchto úprav více. 

Tým z CMU se rozhodl tuto teorii zpochybnit v nové studii publikované v Nature Machine Intelligence.

Rayid Ghani je profesorem na katedře strojového učení (MLD) School of Computer Science a na Heinz College of Information Systems and Public Policy. K němu se připojil Kit Rodolfa, vědecký pracovník MLD; a Hemank Lamba, postdoktorandský výzkumník v SCS. 

Testování aplikací v reálném světě

Výzkumníci testovali tento předpoklad v aplikacích v reálném světě a zjistili, že kompromis je v mnoha oblastech politiky zanedbatelný. 

"Vlastně můžeš dostat obojí." Nemusíte obětovat přesnost, abyste vytvořili systémy, které jsou spravedlivé a spravedlivé,“ řekl Ghani. „Ale vyžaduje to, abyste záměrně navrhovali systémy tak, aby byly spravedlivé a nestranné. Běžné systémy nebudou fungovat.“

Tým se zaměřil na situace, kdy jsou požadované zdroje omezené. Alokaci těchto zdrojů pomáhá strojové učení.

Zaměřili se na systémy ve čtyřech oblastech:

  • upřednostňování omezeného dosahu péče o duševní zdraví na základě rizika osoby, že se vrátí do vězení, aby se snížilo opětovné uvěznění;
  • předvídání závažných porušení bezpečnosti, aby bylo možné lépe nasadit inspektory omezeného bydlení ve městě;
  • modelování rizika, že studenti neabsolvují střední školu včas, aby bylo možné identifikovat ty, kteří nejvíce potřebují další podporu;
  • a pomoci učitelům dosáhnout cílů crowdfundingu pro potřeby tříd.

Výzkumníci zjistili, že modely optimalizované pro přesnost mohou účinně předpovídat výsledky zájmu. Prokázaly však také značné rozdíly v doporučeních pro intervence. 

Důležité výsledky přišly, když výzkumníci aplikovali úpravy na výstupy modelů, které se zaměřovaly na zlepšení jejich spravedlnosti. Zjistili, že nedochází ke ztrátě přesnosti, když byly odstraněny rozdíly založené na rase, věku nebo příjmu. 

„Chceme, aby komunity umělé inteligence, informatiky a strojového učení přestaly akceptovat tento předpoklad kompromisu mezi přesností a spravedlností a začaly záměrně navrhovat systémy, které maximalizují obojí,“ řekl Rodolfa. "Doufáme, že tvůrci politik přijmou strojové učení jako nástroj ve svém rozhodování, který jim pomůže dosáhnout spravedlivých výsledků."

Alex McFarland je AI novinář a spisovatel, který zkoumá nejnovější vývoj v oblasti umělé inteligence. Spolupracoval s řadou AI startupů a publikací po celém světě.