škrbina AI može izbjeći određena neželjena ponašanja s novim algoritmima - Unite.AI
Povežite se s nama

Umjetna inteligencija

AI može izbjeći određena neželjena ponašanja s novim algoritmima

mm

Objavljeno

 on

Kako algoritmi i sustavi umjetne inteligencije postaju sofisticiraniji i preuzimaju veće odgovornosti, postaje sve važnije osigurati da sustavi umjetne inteligencije izbjegavaju opasno, neželjeno ponašanje. Nedavno je tim istraživača sa Sveučilišta Massachusetts Amherst i Stanford objavio rad koji pokazuje kako se specifično ponašanje umjetne inteligencije može izbjeći upotrebom tehnike koja izaziva precizne matematičke upute koje se mogu koristiti za podešavanje ponašanja umjetne inteligencije.

Prema TechXplore, istraživanje se temeljilo na pretpostavci da se nepošteno/nesigurno ponašanje može definirati matematičkim funkcijama i varijablama. Ako je to točno, istraživačima bi trebalo biti omogućeno trenirati sustave da izbjegnu ova specifična ponašanja. Istraživački tim imao je za cilj razviti set alata koji bi korisnici AI mogli koristiti kako bi odredili koja ponašanja žele da AI izbjegne i omogućio inženjerima AI da pouzdano obuče sustav koji će izbjeći neželjene radnje kada se koristi u scenarijima stvarnog svijeta.

Phillip Thomas, prvi autor rada i asistent profesora informatike na Sveučilištu Michigan Amherst, objasnio je da istraživački tim ima za cilj pokazati da dizajneri algoritama za strojno učenje mogu korisnicima AI-ja olakšati opisivanje neželjenih ponašanja i učiniti da to bude visoko vjerojatno će sustav umjetne inteligencije izbjeći takvo ponašanje.

Istraživački tim testirao je svoju tehniku ​​primjenom na čest problem u znanosti o podacima, rodnu pristranost. Cilj istraživačkog tima bio je učiniti algoritme koji se koriste za predviđanje prosjeka ocjena studenata pravednijima smanjenjem rodne pristranosti. Istraživački tim upotrijebio je eksperimentalni skup podataka i uputio svoj AI sustav da izbjegne stvaranje modela koji općenito podcjenjuju/precjenjuju GPA za jedan spol. Kao rezultat istraživačevih uputa, algoritam je stvorio model koji je bolje predviđao prosječne ocjene učenika i imao znatno manje sustavne rodne pristranosti od prethodno postojećih modela. Prethodni modeli predviđanja GPA patili su od pristranosti jer su modeli smanjenja pristranosti često bili previše ograničeni da bi bili korisni ili se smanjenje pristranosti uopće nije koristilo.

Istraživački tim je također razvio drugačiji algoritam. Ovaj je algoritam implementiran u automatiziranu inzulinsku pumpu, a algoritam je trebao uravnotežiti performanse i sigurnost. Automatizirane inzulinske pumpe moraju odlučiti koliku dozu inzulina treba dati pacijentu. Nakon jela, pumpa će idealno isporučiti dozu inzulina dovoljno veliku da održava razinu šećera u krvi pod kontrolom. Doze inzulina koje se isporučuju ne smiju biti ni prevelike ni premale.

Algoritmi strojnog učenja već su vješti u prepoznavanju uzoraka u odgovoru pojedinca na doze inzulina, ali ove postojeće metode analize ne mogu dopustiti liječnicima da specificiraju ishode koje bi trebalo izbjegavati, kao što je pad razine šećera u krvi. Nasuprot tome, istraživački tim uspio je razviti metodu koja se može osposobiti za isporuku doza inzulina koje ostaju unutar dviju krajnosti, sprječavajući premalo ili predoziranje. Iako sustav još nije spreman za testiranje na pravim pacijentima, sofisticiranija umjetna inteligencija temeljena na ovom pristupu mogla bi poboljšati kvalitetu života za one koji pate od dijabetesa.

U istraživačkom radu, istraživači algoritam nazivaju "seledonskim" algoritmom. Ovo se odnosi na tri zakona robotike koje je opisao autor znanstvene fantastike Isaac Asimov. Implikacija je da sustav umjetne inteligencije "ne može ozlijediti ljudsko biće ili, kroz nedjelovanje, dopustiti da ljudsko biće bude ozlijeđeno." Istraživački tim se nada da će njihov okvir omogućiti istraživačima i inženjerima umjetne inteligencije stvaranje raznih algoritama i sustava koji izbjegavaju opasno ponašanje. Emma Brunskill, viša autorica rada i docentica računarstva na Stanfordu, objasnio za TechXplore:

"Želimo unaprijediti umjetnu inteligenciju koja poštuje vrijednosti svojih ljudskih korisnika i opravdava povjerenje koje dajemo autonomnim sustavima."

Bloger i programer sa specijalnošću u Strojno učenje i Duboko učenje temama. Daniel se nada pomoći drugima da iskoriste snagu umjetne inteligencije za društveno dobro.