škrbina Kaj je odgovorna umetna inteligenca? Načela, izzivi in ​​koristi - Unite.AI
Povežite se z nami

AI 101

Kaj je odgovorna umetna inteligenca? Načela, izzivi in ​​koristi

mm
Posodobljeno on
Oseba, ki v rokah drži globus, medtem ko stoji na polju.

Odgovorni AI (RAI) se nanaša na načrtovanje in uvajanje sistemov umetne inteligence, ki so pregledni, nepristranski, odgovorni in upoštevajo etične smernice. Ker postajajo sistemi umetne inteligence vse bolj robustni in razširjeni, je nujno zagotoviti, da so razviti odgovorno ter v skladu z varnostnimi in etičnimi smernicami.

Zdravje, promet, upravljanje omrežja in nadzor so varnostno kritične aplikacije AI kjer ima lahko okvara sistema resne posledice. Velika podjetja se zavedajo, da je RAI bistvenega pomena za zmanjševanje tehnoloških tveganj. Toda glede na poročilo MIT Sloan/BCG, ki je vključevalo 1093 anketirancev, 54% podjetij ni imelo strokovnega znanja in talenta za odgovorno umetno inteligenco.

Čeprav so voditelji in organizacije razvili načela za odgovorno umetno inteligenco, zagotavljanje odgovornega razvoja sistemov umetne inteligence še vedno predstavlja izziv. Raziščimo to idejo podrobno:

5 načel za odgovorno umetno inteligenco

1. Poštenost

Tehnologi bi morali oblikovati postopke tako, da sistemi umetne inteligence obravnavajo vse posameznike in skupine pošteno in brez pristranskosti. Zato je pravičnost primarna zahteva v aplikacijah za sprejemanje odločitev z visokim tveganjem.

Poštenost je opredeljeno kot:

"Preučevanje vpliva na različne demografske skupine in izbira ene od več matematičnih definicij skupinske pravičnosti, ki bo ustrezno zadovoljila želeni niz pravnih, kulturnih in etičnih zahtev."

2. Odgovornost

Odgovornost pomeni, da morajo biti posamezniki in organizacije, ki razvijajo in uvajajo sisteme umetne inteligence, odgovorni za svoje odločitve in dejanja. Ekipa, ki uvaja sisteme umetne inteligence, mora zagotoviti, da je njihov sistem umetne inteligence pregleden, razložljiv, revizijski in ne škoduje družbi.

Odgovornost vključuje sedem sestavni deli:

  1. Kontekst (namen, za katerega je potrebna odgovornost)
  2. Razpon (predmet odgovornosti)
  3. Agent (kdo je odgovoren?)
  4. Forum (komu mora odgovorna oseba poročati)
  5. Standardi (merila za odgovornost)
  6. Postopek (metoda odgovornosti)
  7. Posledice (posledice odgovornosti)

3. Preglednost

Transparentnost pomeni, da je razlog za odločanje v sistemih AI jasen in razumljiv. Pregledni sistemi AI so razložljivi.

Glede na Ocenjevalni seznam za zaupanja vredno umetno inteligenco (ALTAI)ima preglednost tri ključne elemente:

  1. Sledljivost (podatki, koraki predprocesiranja in model so dostopni)
  2. Razložljivost (razlog za odločanje/napoved je jasen)
  3. Odprta komunikacija (glede omejitev sistema AI)

4. Zasebnost

Zasebnost je eno glavnih načel odgovorne umetne inteligence. Nanaša se na varstvo osebnih podatkov. To načelo zagotavlja, da se osebni podatki ljudi zbirajo in obdelujejo s privolitvijo ter da niso v rokah nezadovoljnikov.

Kot je bilo pred kratkim dokazano, je bil primer podjetja Clearview, ki izdeluje modele za prepoznavanje obrazov za organe pregona in univerze. Britanski nadzorniki podatkov tožil Clearview AI za 7.5 milijona funtov za zbiranje slik prebivalcev Združenega kraljestva iz družbenih medijev brez privolitve za ustvarjanje baze podatkov z 20 milijardami slik.

5. Varnost

Varnost pomeni zagotoviti, da so sistemi AI varni in ne ogrožajo družbe. Primer varnostne grožnje AI je neželeni napadi. Ti zlonamerni napadi zavedejo modele ML, da sprejmejo napačne odločitve. Zaščita sistemov umetne inteligence pred kibernetskimi napadi je nujna za odgovorno umetno inteligenco.

4 glavni izzivi in ​​tveganja odgovorne umetne inteligence

1. Pristranskost

Človeške pristranskosti, povezane s starostjo, spolom, narodnostjo in raso, lahko vplivajo na zbiranje podatkov, kar lahko vodi do pristranskih modelov umetne inteligence. Študija ameriškega ministrstva za trgovino ugotovili, da umetna inteligenca za prepoznavanje obraza napačno prepozna barvne ljudi. Zato lahko uporaba umetne inteligence za prepoznavanje obrazov pri kazenskem pregonu povzroči neupravičene aretacije. Tudi izdelava pravičnih modelov AI je izziv, ker obstajajo 21 različne parametre za njihovo opredelitev. Torej obstaja kompromis; zadovoljitev enega poštenega parametra AI pomeni žrtvovanje drugega.

2. Interpretabilnost

Interpretabilnost je ključni izziv pri razvoju odgovorne umetne inteligence. Nanaša se na razumevanje, kako je model strojnega učenja prišel do določenega zaključka.

Globokim nevronskim mrežam primanjkuje razlage, ker delujejo kot črne skrinjice z več plastmi skritih nevronov, zaradi česar je težko razumeti proces odločanja. To je lahko izziv pri sprejemanju odločitev z velikimi vložki, kot so zdravstvo, finance itd.

Poleg tega je formalizacija interpretabilnosti v modelih ML zahtevna, ker je subjektivno in domensko specifična.

3. Upravljanje

Upravljanje se nanaša na niz pravil, politik in postopkov, ki nadzirajo razvoj in uvajanje sistemov umetne inteligence. V zadnjem času je prišlo do pomembnega napredka v diskurzu o upravljanju umetne inteligence, saj so organizacije predstavile okvire in etične smernice.

Etične smernice za zaupanja vredna umetna inteligenca EUAvstralski etični okvir AIin Načela OECD AI so primeri okvirov upravljanja umetne inteligence.

Toda hiter napredek umetne inteligence v zadnjih letih lahko prehiti te okvire upravljanja umetne inteligence. V ta namen mora obstajati okvir, ki ocenjuje pravičnost, razlagljivost in etičnost sistemov umetne inteligence.

4. Uredba

Ker postajajo sistemi umetne inteligence vse bolj razširjeni, je potrebna ureditev, ki bo upoštevala etične in družbene vrednote. Razvoj predpisov, ki ne zavira inovacij umetne inteligence, je ključni izziv za odgovorno umetno inteligenco.

Čeprav so Splošna uredba o varstvu podatkov (GDPR), Kalifornijski zakon o zasebnosti potrošnikov (CCPA) in Zakon o varstvu osebnih podatkov (PIPL) kot regulativni organi, so raziskovalci AI ugotovili, da 97% spletnih mest EU ni v skladu z zahtevami pravnega okvira GDPR.

Poleg tega se zakonodajalci soočajo z a pomemben izziv pri doseganju soglasja o definiciji umetne inteligence, ki vključuje tako klasične sisteme umetne inteligence kot najnovejše aplikacije umetne inteligence.

3 glavne prednosti odgovorne umetne inteligence

1. Zmanjšana pristranskost

Odgovorna umetna inteligenca zmanjšuje pristranskost v postopkih odločanja in gradi zaupanje v sisteme umetne inteligence. Zmanjšanje pristranskosti v sistemih umetne inteligence lahko zagotovi pravičen in pravičen sistem zdravstvenega varstva ter zmanjša pristranskost v sistemih, ki temeljijo na umetni inteligenci. finančne storitve in tako naprej

2. Izboljšana preglednost

Odgovorna umetna inteligenca ustvarja pregledne aplikacije umetne inteligence, ki gradijo zaupanje v sisteme umetne inteligence. Pregledni sistemi AI zmanjša tveganje za napake in zlorabo. Izboljšana preglednost poenostavi revizijo sistemov umetne inteligence, pridobi zaupanje deležnikov in lahko vodi do odgovornih sistemov umetne inteligence.

3. Boljša varnost

Varne aplikacije umetne inteligence zagotavljajo zasebnost podatkov, ustvarjajo zanesljive in neškodljive rezultate ter so varne pred kibernetskimi napadi.

Tehnološki velikani kot Microsoft in google, ki so v ospredju razvoja sistemov umetne inteligence, so razvili načela odgovorne umetne inteligence. Odgovorna umetna inteligenca zagotavlja, da inovacije v umetni inteligenci niso škodljive za posameznike in družbo.

Voditelji razmišljanja, raziskovalci, organizacije in pravni organi bi morali nenehno pregledovati literaturo o odgovorni AI, da bi zagotovili varno prihodnost za inovacije AI.

Za več vsebin, povezanih z umetno inteligenco, obiščite združiti.ai.