škrbina AI se lahko izogne ​​določenim neželenim vedenjem z novimi algoritmi - Unite.AI
Povežite se z nami

Umetna inteligenca

AI se lahko z novimi algoritmi izogne ​​določenim neželenim vedenjem

mm

objavljeno

 on

Ker postajajo algoritmi in sistemi umetne inteligence bolj izpopolnjeni in prevzemajo večje odgovornosti, postaja vedno bolj pomembno zagotoviti, da se sistemi umetne inteligence izogibajo nevarnemu, neželenemu vedenju. Pred kratkim je skupina raziskovalcev z Univerze Massachusetts Amherst in Stanford objavil prispevek ki prikazuje, kako se je mogoče izogniti specifičnemu vedenju AI z uporabo tehnike, ki izvabi natančna matematična navodila, ki jih je mogoče uporabiti za prilagajanje vedenja AI.

Glede na TechXplore, je raziskava temeljila na predpostavki, da je mogoče nepošteno/nevarno vedenje definirati z matematičnimi funkcijami in spremenljivkami. Če je to res, bi moralo biti raziskovalcem omogočeno, da usposobijo sisteme za izogibanje tem specifičnim vedenjem. Raziskovalna skupina je želela razviti komplet orodij, ki bi ga lahko uporabili uporabniki umetne inteligence, da bi določili, kateremu vedenju želijo, da se umetna inteligenca izogne, in omogočil inženirjem umetne inteligence, da zanesljivo usposobijo sistem, ki se bo izognil neželenim dejanjem pri uporabi v realnih scenarijih.

Phillip Thomas, prvi avtor prispevka in pomočnik profesorja računalništva na univerzi Michigan Amherst, je pojasnil, da želi raziskovalna skupina dokazati, da lahko oblikovalci algoritmov za strojno učenje uporabnikom umetne inteligence olajšajo opisovanje neželenih vedenj in omogočijo visoko sistem umetne inteligence se bo temu vedenju verjetno izognil.

Raziskovalna skupina je svojo tehniko preizkusila tako, da jo je uporabila za pogost problem podatkovne znanosti, pristranskost glede spola. Raziskovalna skupina je želela narediti algoritme, ki se uporabljajo za napovedovanje povprečne ocene študentov, pravičnejše z zmanjšanjem pristranskosti glede na spol. Raziskovalna skupina je uporabila eksperimentalni nabor podatkov in svojemu sistemu umetne inteligence dala navodila, naj se izogne ​​ustvarjanju modelov, ki na splošno podcenjujejo/precenjujejo GPA za en spol. Kot rezultat navodil raziskovalca je algoritem ustvaril model, ki je bolje napovedal povprečne ocene študentov in imel bistveno manj sistemske pristranskosti glede na spol kot prejšnji modeli. Pri prejšnjih modelih napovedi GPA je prišlo do pristranskosti, ker so bili modeli za zmanjšanje pristranskosti pogosto preveč omejeni, da bi bili uporabni, ali pa zmanjšanje pristranskosti sploh ni bilo uporabljeno.

Raziskovalna skupina je razvila tudi drugačen algoritem. Ta algoritem je bil implementiran v avtomatsko inzulinsko črpalko, algoritem pa naj bi uravnotežil učinkovitost in varnost. Avtomatizirane inzulinske črpalke se morajo odločiti, kako velik odmerek insulina naj bolnik prejme. Po jedi bo črpalka v idealnem primeru dala ravno dovolj velik odmerek insulina, da vzdržuje raven sladkorja v krvi. Odmerki insulina, ki se dajejo, ne smejo biti niti preveliki niti premajhni.

Algoritmi strojnega učenja so že sposobni prepoznati vzorce posameznikovega odziva na odmerke inzulina, vendar te obstoječe metode analize zdravnikom ne morejo dovoliti, da določijo rezultate, ki se jim je treba izogibati, kot so padci nizkega krvnega sladkorja. Nasprotno pa je raziskovalni skupini uspelo razviti metodo, ki jo je mogoče usposobiti za dajanje odmerkov inzulina, ki ostanejo znotraj dveh skrajnosti in preprečujejo premajhno ali preveliko odmerjanje. Medtem ko sistem še ni pripravljen za testiranje pri resničnih bolnikih, bi lahko bolj izpopolnjena umetna inteligenca, ki temelji na tem pristopu, izboljšala kakovost življenja tistih s sladkorno boleznijo.

V raziskovalnem prispevku raziskovalci algoritem imenujejo "seledonski" algoritem. To se nanaša na tri zakone robotike, ki jih je opisal avtor znanstvene fantastike Isaac Asimov. Posledica tega je, da sistem umetne inteligence "ne sme poškodovati človeka ali z neukrepanjem omogočiti, da se človek poškoduje." Raziskovalna skupina upa, da bo njihov okvir raziskovalcem in inženirjem AI omogočil ustvarjanje različnih algoritmov in sistemov, ki se izogibajo nevarnemu vedenju. Emma Brunskill, višja avtorica prispevka in docentka za računalništvo na Stanfordu, pojasnil za TechXplore:

"Želimo napredovati AI, ki spoštuje vrednote svojih človeških uporabnikov in upravičuje zaupanje, ki ga dajemo avtonomnim sistemom."

Bloger in programer s posebnostmi v strojno učenje in Globoko učenje teme. Daniel upa, da bo drugim pomagal uporabiti moč umetne inteligence za družbeno dobro.