škrbina Što je odgovorna umjetna inteligencija? Načela, izazovi i prednosti - Unite.AI
Povežite se s nama
Majstorski tečaj umjetne inteligencije:

AI 101

Što je odgovorna umjetna inteligencija? Načela, izazovi i prednosti

mm
Ažurirano on
Osoba koja u rukama drži globus dok stoji u poljima.

Odgovorna umjetna inteligencija (RAI) odnosi se na projektiranje i implementaciju AI sustava koji su transparentni, nepristrani, odgovorni i slijede etičke smjernice. Kako sustavi umjetne inteligencije postaju robusniji i sve rašireniji, ključno je osigurati da se razvijaju odgovorno i slijede sigurnosne i etičke smjernice.

Zdravlje, transport, upravljanje mrežom i nadzor su AI aplikacije kritične za sigurnost gdje kvar sustava može imati ozbiljne posljedice. Velike tvrtke svjesne su da je RAI ključan za ublažavanje tehnoloških rizika. Ipak, prema izvješću MIT Sloan/BCG koje je uključivalo 1093 ispitanika, 54% tvrtki nedostajalo je stručnosti i talenta za odgovornu umjetnu inteligenciju.

Iako su vodeći ljudi i organizacije razvili načela za odgovornu umjetnu inteligenciju, osiguravanje odgovornog razvoja sustava umjetne inteligencije još uvijek predstavlja izazov. Istražimo ovu ideju u detalje:

5 principa za odgovornu umjetnu inteligenciju

1. Pravednost

Tehnolozi bi trebali dizajnirati postupke tako da sustavi umjetne inteligencije tretiraju sve pojedince i grupe pravedno i bez predrasuda. Stoga je pravednost primarni zahtjev u visokorizičnim aplikacijama za donošenje odluka.

Poštenje je definirano kao:

"Ispitivanje utjecaja na različite demografske skupine i odabir jedne od nekoliko matematičkih definicija grupne pravednosti koja će adekvatno zadovoljiti željeni skup pravnih, kulturnih i etičkih zahtjeva."

2. Odgovornost

Odgovornost znači da bi pojedinci i organizacije koje razvijaju i implementiraju sustave umjetne inteligencije trebali biti odgovorni za svoje odluke i postupke. Tim koji implementira AI sustave treba osigurati da je njihov AI sustav transparentan, interpretabilan, provjerljiv i da ne šteti društvu.

Odgovornost uključuje sedam komponente:

  1. Kontekst (svrha za koju je potrebna odgovornost)
  2. Raspon (predmet odgovornosti)
  3. Agent (tko je odgovoran?)
  4. Forum (kome se odgovorna strana mora prijaviti)
  5. Standardi (kriteriji za odgovornost)
  6. Proces (metoda odgovornosti)
  7. Implikacije (posljedice odgovornosti)

3. prozirnost

Transparentnost znači da je razlog donošenja odluka u sustavima umjetne inteligencije jasan i razumljiv. Transparentni AI sustavi su objašnjivi.

Prema Popis za procjenu pouzdane umjetne inteligencije (ALTAI), transparentnost ima tri ključna elementa:

  1. Sljedivost (podaci, koraci pretprocesiranja i model su dostupni)
  2. Objašnjivost (razlozi iza donošenja odluka/predviđanja su jasni)
  3. Otvorena komunikacija (u vezi s ograničenjima AI sustava)

4. Privatnost

Privatnost je jedno od glavnih načela odgovorne umjetne inteligencije. Odnosi se na zaštitu osobnih podataka. Ovo načelo osigurava da se osobni podaci ljudi prikupljaju i obrađuju uz pristanak i da se čuvaju izvan ruku nezadovoljnika.

Kao što je nedavno dokazano, bio je slučaj Clearviewa, tvrtke koja proizvodi modele za prepoznavanje lica za policiju i sveučilišta. Britanski psi čuvari podataka tužio Clearview AI za 7.5 milijuna funti za prikupljanje slika stanovnika Ujedinjenog Kraljevstva s društvenih medija bez pristanka za stvaranje baze podataka od 20 milijardi slika.

5. Sigurnost

Sigurnost znači osigurati da su sustavi umjetne inteligencije sigurni i da ne prijete društvu. Primjer AI sigurnosne prijetnje je protivnički napadi. Ovi zlonamjerni napadi varaju ML modele da donesu pogrešne odluke. Zaštita AI sustava od cyber napada imperativ je za odgovornu AI.

4 glavna izazova i rizika odgovorne umjetne inteligencije

1. Pristranost

Ljudske predrasude povezane s dobi, spolom, nacionalnošću i rasom mogu utjecati na prikupljanje podataka, potencijalno dovodeći do pristranih modela umjetne inteligencije. Studija američkog Ministarstva trgovine otkrili da umjetna inteligencija za prepoznavanje lica pogrešno identificira obojene ljude. Stoga korištenje umjetne inteligencije za prepoznavanje lica u provedbi zakona može dovesti do nezakonitih uhićenja. Također, izrada poštenih AI modela je izazovna jer postoje 21 različite parametre za njihovo definiranje. Dakle, postoji kompromis; zadovoljiti jedan pošten AI parametar znači žrtvovati drugi.

2. Interpretabilnost

Interpretabilnost je ključni izazov u razvoju odgovorne umjetne inteligencije. Odnosi se na razumijevanje kako je model strojnog učenja došao do određenog zaključka.

Duboke neuronske mreže nemaju mogućnost tumačenja jer djeluju kao crne kutije s više slojeva skrivenih neurona, što otežava razumijevanje procesa donošenja odluka. To može biti izazov u donošenju odluka s visokim ulozima, poput zdravstva, financija itd.

Štoviše, formaliziranje interpretabilnosti u ML modelima izazovno je jer jest subjektivanspecifičan za domenu.

3. Upravljanje

Upravljanje se odnosi na skup pravila, politika i postupaka koji nadziru razvoj i implementaciju AI sustava. Nedavno je došlo do značajnog napretka u diskursu upravljanja umjetnom inteligencijom, s organizacijama koje predstavljaju okvire i etičke smjernice.

Etičke smjernice za pouzdana AI od strane EUAustralski etički okvir umjetne inteligencijeOECD AI načela primjeri su okvira upravljanja umjetnom inteligencijom.

No brzi napredak AI-ja posljednjih godina može nadmašiti te okvire upravljanja AI-jem. U tu svrhu treba postojati okvir koji procjenjuje pravednost, interpretabilnost i etičnost AI sustava.

4. Propis

Kako sustavi umjetne inteligencije postaju sve rašireniji, potrebna je regulativa koja će uzeti u obzir etičke i društvene vrijednosti. Razvoj regulative koja ne guši inovacije umjetne inteligencije ključni je izazov u odgovornoj umjetnoj inteligenciji.

Čak i s Općom uredbom o zaštiti podataka (GDPR), Kalifornijskim zakonom o privatnosti potrošača (CCPA) i Zakonom o zaštiti osobnih podataka (PIPL) kao regulatornim tijelima, istraživači umjetne inteligencije otkrili su da 97% EU web stranica nije u skladu sa zahtjevima pravnog okvira GDPR-a.

Štoviše, zakonodavci se suočavaju s a značajan izazov u postizanju konsenzusa o definiciji AI koja uključuje i klasične AI sustave i najnovije AI aplikacije.

3 glavne prednosti odgovorne umjetne inteligencije

1. Smanjena pristranost

Odgovorna umjetna inteligencija smanjuje pristranost u procesima donošenja odluka, izgrađujući povjerenje u sustave umjetne inteligencije. Smanjenje pristranosti u sustavima umjetne inteligencije može osigurati pošten i pravičan zdravstveni sustav i smanjuje pristranost u sustavima koji se temelje na umjetnoj inteligenciji financijskih usluga i tako dalje

2. Poboljšana transparentnost

Odgovorna umjetna inteligencija stvara transparentne AI aplikacije koje grade povjerenje u AI sustave. Transparentni AI sustavi smanjiti rizik od pogreške i zlouporabe. Poboljšana transparentnost olakšava reviziju AI sustava, stječe povjerenje dionika i može dovesti do odgovornih AI sustava.

3. Bolje sigurnosti

Sigurne AI aplikacije osiguravaju privatnost podataka, proizvode pouzdane i bezopasne rezultate i sigurne su od kibernetičkih napada.

Tehnički divovi poput microsoftGoogle, koji su na čelu razvoja AI sustava, razvili su načela odgovorne umjetne inteligencije. Odgovorna umjetna inteligencija osigurava da inovacije u umjetnoj inteligenciji nisu štetne za pojedince i društvo.

Lideri mišljenja, istraživači, organizacije i pravna tijela trebali bi kontinuirano revidirati literaturu o odgovornoj umjetnoj inteligenciji kako bi osigurali sigurnu budućnost za inovacije umjetne inteligencije.

Za više sadržaja vezanih uz umjetnu inteligenciju posjetite ujediniti.ai.