škrbina Raziskovalci razvijajo algoritme, namenjene preprečevanju slabega vedenja v AI - Unite.AI
Povežite se z nami

etika

Raziskovalci razvijajo algoritme, namenjene preprečevanju slabega vedenja v AI

mm
Posodobljeno on

Poleg vseh napredkov in prednosti, ki jih je umetna inteligenca pokazala doslej, so bila tudi poročila o neželenih stranskih učinkih, kot sta rasna in spolna pristranskost pri umetni inteligenci. Tako kot sciencealert.com postavlja vprašanje "kako lahko znanstveniki zagotovijo, da so lahko napredni sistemi razmišljanja pošteni ali celo varni?«

Odgovor je morda poročilo raziskovalcev na Stanfordu in Univerza Massachusetts Amherst, z naslovom Preprečevanje neželenega vedenja inteligentnih strojev. Kot eurekaalert.org ugotavlja v svoji zgodbi o tem poročilu, AI zdaj začenja obravnavati občutljive naloge, zato »oblikovalci politik vztrajajo, da računalniški znanstveniki nudijo zagotovila, da so bili avtomatizirani sistemi zasnovani tako, da minimizirajo, če ne popolnoma preprečijo, neželene rezultate, kot so pretirano tveganje ali rasni in spolna pristranskost."

Poročilo, ki ga je predstavila ta skupina raziskovalcev, jeorisuje novo tehniko, ki prevede nejasen cilj, kot je izogibanje pristranskosti glede na spol, v natančna matematična merila, ki bi omogočila algoritmu strojnega učenja, da usposobi aplikacijo AI, da se izogne ​​takšnemu vedenju.«

Namen je bil, kot Emma Brunskill, docentka za računalništvo na Stanfordu in višja avtorica prispevka, poudarja, da "želimo napredovati AI, ki spoštuje vrednote svojih človeških uporabnikov in upravičuje zaupanje, ki ga dajemo avtonomnim sistemom."

Ideja je bila opredeliti »nevarni« ali »nepošteni« rezultati ali vedenja v matematičnem smislu. To bi po mnenju raziskovalcev omogočilo "ustvariti algoritme, ki se lahko učijo iz podatkov o tem, kako se z visoko stopnjo zaupanja izogniti tem neželenim rezultatom."

Drugi cilj je bil "razviti niz tehnik, ki bi uporabnikom olajšale določitev vrste neželenega vedenja, ki ga želijo omejiti, in oblikovalcem strojnega učenja omogočile, da z gotovostjo predvidijo, da se je mogoče zanesti na sistem, ki je usposobljen z uporabo preteklih podatkov, ko se uporablja v resničnem življenju. svetovne razmere."

ScienceAlert pravi, da je ekipa poimenovala ta novi sistem  'Seldonian' algoritmi, po osrednjem liku slavnega Isaaca Asimova Fundacija serije znanstvenofantastičnih romanov. philip Thomas, docent za računalništvo na univerzi Massachusetts Amherst in prvi avtor prispevka, ugotavlja, »Če uporabim Seldonov algoritem za sladkorna bolezen zdravljenja, lahko navedem, da neželeno vedenje pomeni nevarno nizek krvni sladkor ali hipoglikemijo.« 

»Aparatu lahko rečem: 'Medtem ko poskušate izboljšati krmilnik insulinske črpalke, ne delajte sprememb, ki bi povečale pogostost hipoglikemije.' Večina algoritmov vam ne omogoča, da na vedenje postavite tovrstno omejitev; ni bil vključen v zgodnje načrte.«

Thomas dodaja, da "ta seldonski okvir bo načrtovalcem strojnega učenja olajšal vgradnjo navodil za izogibanje vedenju v vse vrste algoritmov na način, ki jim bo omogočil oceniti verjetnost, da bodo usposobljeni sistemi pravilno delovali v resničnem svetu.«

To ugotavlja tudi Emma Brunskill "Razmišljanje o tem, kako lahko ustvarimo algoritme, ki najbolje spoštujejo vrednote, kot sta varnost in pravičnost, je bistvenega pomena, saj se družba vedno bolj zanaša na umetno inteligenco."

Nekdanji diplomat in prevajalec za ZN, trenutno samostojni novinar/pisatelj/raziskovalec, ki se osredotoča na sodobno tehnologijo, umetno inteligenco in sodobno kulturo.