- Terminologija (A do D)
- Kontrola sposobnosti AI
- AI Ops
- albumacije
- Performanse imovine
- Autokoder
- Širenje unatrag
- Bayesov teorem
- Big Podaci
- Chatbot: Vodič za početnike
- Računalno razmišljanje
- računalni vid
- Matrica zabune
- Konvolucionarne neuronske mreže
- Cybersecurity
- Data Fabric
- Pripovijedanje podataka
- Znanost podatke
- Skladištenje podataka
- Stablo odlučivanja
- Deepfakes
- Duboko učenje
- Učenje dubokog pojačanja
- DevOps
- DevSecOps
- Difuzijski modeli
- Digitalni blizanci
- Smanjenje dimenzija
- Terminologija (E do K)
- Edge AI
- Emocija AI
- Učenje ansambla
- Etičko hakiranje
- ETL
- Objašnjiva AI
- Federalno učenje
- FinOps
- Generativna AI
- Generativna savjetodavna mreža
- Generativno protiv diskriminacije
- Pojačavanje gradijenta
- Gradijentni silazak
- Malokratno učenje
- Klasifikacija slika
- IT operacije (ITOPs)
- Automatizacija incidenata
- Inženjering utjecaja
- Klasteriranje K-sredstava
- K-najbliži susjedi
- Terminologija (L do Q)
- Terminologija (R do Z)
- Učenje ojačanja
- Odgovorna umjetna inteligencija
- RLHF
- Robotska automatizacija procesa
- Strukturirani protiv nestrukturiranih
- Analiza osjećaja
- Nadzirani vs nenadzirani
- Podrška vektorskih strojeva
- Sintetički podaci
- Sintetički mediji
- Klasifikacija teksta
- TinyML
- Prijenos učenja
- Transformatorske neuronske mreže
- Turingov test
- Pretraživanje sličnosti vektora
AI 101
Što je odgovorna umjetna inteligencija? Načela, izazovi i prednosti
By
Haziqa SajidSadržaj
Odgovorna umjetna inteligencija (RAI) odnosi se na projektiranje i implementaciju AI sustava koji su transparentni, nepristrani, odgovorni i slijede etičke smjernice. Kako sustavi umjetne inteligencije postaju robusniji i sve rašireniji, ključno je osigurati da se razvijaju odgovorno i slijede sigurnosne i etičke smjernice.
Zdravlje, transport, upravljanje mrežom i nadzor su AI aplikacije kritične za sigurnost gdje kvar sustava može imati ozbiljne posljedice. Velike tvrtke svjesne su da je RAI ključan za ublažavanje tehnoloških rizika. Ipak, prema izvješću MIT Sloan/BCG koje je uključivalo 1093 ispitanika, 54% tvrtki nedostajalo je stručnosti i talenta za odgovornu umjetnu inteligenciju.
Iako su vodeći ljudi i organizacije razvili načela za odgovornu umjetnu inteligenciju, osiguravanje odgovornog razvoja sustava umjetne inteligencije još uvijek predstavlja izazov. Istražimo ovu ideju u detalje:
5 principa za odgovornu umjetnu inteligenciju
1. Pravednost
Tehnolozi bi trebali dizajnirati postupke tako da sustavi umjetne inteligencije tretiraju sve pojedince i grupe pravedno i bez predrasuda. Stoga je pravednost primarni zahtjev u visokorizičnim aplikacijama za donošenje odluka.
Poštenje je definirano kao:
"Ispitivanje utjecaja na različite demografske skupine i odabir jedne od nekoliko matematičkih definicija grupne pravednosti koja će adekvatno zadovoljiti željeni skup pravnih, kulturnih i etičkih zahtjeva."
2. Odgovornost
Odgovornost znači da bi pojedinci i organizacije koje razvijaju i implementiraju sustave umjetne inteligencije trebali biti odgovorni za svoje odluke i postupke. Tim koji implementira AI sustave treba osigurati da je njihov AI sustav transparentan, interpretabilan, provjerljiv i da ne šteti društvu.
Odgovornost uključuje sedam komponente:
- Kontekst (svrha za koju je potrebna odgovornost)
- Raspon (predmet odgovornosti)
- Agent (tko je odgovoran?)
- Forum (kome se odgovorna strana mora prijaviti)
- Standardi (kriteriji za odgovornost)
- Proces (metoda odgovornosti)
- Implikacije (posljedice odgovornosti)
3. prozirnost
Transparentnost znači da je razlog donošenja odluka u sustavima umjetne inteligencije jasan i razumljiv. Transparentni AI sustavi su objašnjivi.
Prema Popis za procjenu pouzdane umjetne inteligencije (ALTAI), transparentnost ima tri ključna elementa:
- Sljedivost (podaci, koraci pretprocesiranja i model su dostupni)
- Objašnjivost (razlozi iza donošenja odluka/predviđanja su jasni)
- Otvorena komunikacija (u vezi s ograničenjima AI sustava)
4. Privatnost
Privatnost je jedno od glavnih načela odgovorne umjetne inteligencije. Odnosi se na zaštitu osobnih podataka. Ovo načelo osigurava da se osobni podaci ljudi prikupljaju i obrađuju uz pristanak i da se čuvaju izvan ruku nezadovoljnika.
Kao što je nedavno dokazano, bio je slučaj Clearviewa, tvrtke koja proizvodi modele za prepoznavanje lica za policiju i sveučilišta. Britanski psi čuvari podataka tužio Clearview AI za 7.5 milijuna funti za prikupljanje slika stanovnika Ujedinjenog Kraljevstva s društvenih medija bez pristanka za stvaranje baze podataka od 20 milijardi slika.
5. Sigurnost
Sigurnost znači osigurati da su sustavi umjetne inteligencije sigurni i da ne prijete društvu. Primjer AI sigurnosne prijetnje je protivnički napadi. Ovi zlonamjerni napadi varaju ML modele da donesu pogrešne odluke. Zaštita AI sustava od cyber napada imperativ je za odgovornu AI.
4 glavna izazova i rizika odgovorne umjetne inteligencije
1. Pristranost
Ljudske predrasude povezane s dobi, spolom, nacionalnošću i rasom mogu utjecati na prikupljanje podataka, potencijalno dovodeći do pristranih modela umjetne inteligencije. Studija američkog Ministarstva trgovine otkrili da umjetna inteligencija za prepoznavanje lica pogrešno identificira obojene ljude. Stoga korištenje umjetne inteligencije za prepoznavanje lica u provedbi zakona može dovesti do nezakonitih uhićenja. Također, izrada poštenih AI modela je izazovna jer postoje 21 različite parametre za njihovo definiranje. Dakle, postoji kompromis; zadovoljiti jedan pošten AI parametar znači žrtvovati drugi.
2. Interpretabilnost
Interpretabilnost je ključni izazov u razvoju odgovorne umjetne inteligencije. Odnosi se na razumijevanje kako je model strojnog učenja došao do određenog zaključka.
Duboke neuronske mreže nemaju mogućnost tumačenja jer djeluju kao crne kutije s više slojeva skrivenih neurona, što otežava razumijevanje procesa donošenja odluka. To može biti izazov u donošenju odluka s visokim ulozima, poput zdravstva, financija itd.
Štoviše, formaliziranje interpretabilnosti u ML modelima izazovno je jer jest subjektivan i specifičan za domenu.
3. Upravljanje
Upravljanje se odnosi na skup pravila, politika i postupaka koji nadziru razvoj i implementaciju AI sustava. Nedavno je došlo do značajnog napretka u diskursu upravljanja umjetnom inteligencijom, s organizacijama koje predstavljaju okvire i etičke smjernice.
Etičke smjernice za pouzdana AI od strane EU, Australski etički okvir umjetne inteligencijei OECD AI načela primjeri su okvira upravljanja umjetnom inteligencijom.
No brzi napredak AI-ja posljednjih godina može nadmašiti te okvire upravljanja AI-jem. U tu svrhu treba postojati okvir koji procjenjuje pravednost, interpretabilnost i etičnost AI sustava.
4. Propis
Kako sustavi umjetne inteligencije postaju sve rašireniji, potrebna je regulativa koja će uzeti u obzir etičke i društvene vrijednosti. Razvoj regulative koja ne guši inovacije umjetne inteligencije ključni je izazov u odgovornoj umjetnoj inteligenciji.
Čak i s Općom uredbom o zaštiti podataka (GDPR), Kalifornijskim zakonom o privatnosti potrošača (CCPA) i Zakonom o zaštiti osobnih podataka (PIPL) kao regulatornim tijelima, istraživači umjetne inteligencije otkrili su da 97% EU web stranica nije u skladu sa zahtjevima pravnog okvira GDPR-a.
Štoviše, zakonodavci se suočavaju s a značajan izazov u postizanju konsenzusa o definiciji AI koja uključuje i klasične AI sustave i najnovije AI aplikacije.
3 glavne prednosti odgovorne umjetne inteligencije
1. Smanjena pristranost
Odgovorna umjetna inteligencija smanjuje pristranost u procesima donošenja odluka, izgrađujući povjerenje u sustave umjetne inteligencije. Smanjenje pristranosti u sustavima umjetne inteligencije može osigurati pošten i pravičan zdravstveni sustav i smanjuje pristranost u sustavima koji se temelje na umjetnoj inteligenciji financijskih usluga i tako dalje
2. Poboljšana transparentnost
Odgovorna umjetna inteligencija stvara transparentne AI aplikacije koje grade povjerenje u AI sustave. Transparentni AI sustavi smanjiti rizik od pogreške i zlouporabe. Poboljšana transparentnost olakšava reviziju AI sustava, stječe povjerenje dionika i može dovesti do odgovornih AI sustava.
3. Bolje sigurnosti
Sigurne AI aplikacije osiguravaju privatnost podataka, proizvode pouzdane i bezopasne rezultate i sigurne su od kibernetičkih napada.
Tehnički divovi poput microsoft i Google, koji su na čelu razvoja AI sustava, razvili su načela odgovorne umjetne inteligencije. Odgovorna umjetna inteligencija osigurava da inovacije u umjetnoj inteligenciji nisu štetne za pojedince i društvo.
Lideri mišljenja, istraživači, organizacije i pravna tijela trebali bi kontinuirano revidirati literaturu o odgovornoj umjetnoj inteligenciji kako bi osigurali sigurnu budućnost za inovacije umjetne inteligencije.
Za više sadržaja vezanih uz umjetnu inteligenciju posjetite ujediniti.ai.
Svibanj vam se sviđa
Unutarnji dijalog umjetne inteligencije: Kako samorefleksija poboljšava chatbotove i virtualne pomoćnike
Instant-Style: Očuvanje stila u generiranju teksta u sliku
LoReFT: Fino podešavanje reprezentacije za jezične modele
Izvan tražilica: Uspon agenata za pregledavanje weba koje pokreće LLM
Poboljšanje AI transparentnosti i povjerenja s Composite AI
GPU podatkovni centri opterećuju električne mreže: balansiranje AI inovacija i potrošnje energije