- Terminologija (A do D)
- Nadzor zmogljivosti AI
- AIOps
- Albumentacije
- Učinkovitost sredstev
- Samodejni kodirnik
- Razmnoževanje
- Bayesov izrek
- Big Podatki
- Chatbot: vodnik za začetnike
- Računalniško razmišljanje
- Računalniška vizija
- Matrica zmede
- Konvolucijsko nevronsko omrežje
- Cybersecurity
- Podatkovna tkanina
- Podatkovno pripovedovanje zgodb
- Znanost podatki
- Skladiščenje podatkov
- Drevo odločitve
- Deepfakes
- Globoko učenje
- Učenje poglobljenega okrepitve
- DevOps
- DevSecOps
- Difuzijski modeli
- Digital Twin
- Zmanjšanje dimenzij
- Terminologija (E do K)
- Edge AI
- AI čustva
- Učenje ansambla
- Etično vdiranje
- ETL
- Razložljiv AI
- Zvezno učenje
- FinOps
- Generativna AI
- Generacijska svetovalna mreža
- Generativno proti diskriminaciji
- Gradient krepitev
- Gradient spust
- Nekajkratno učenje
- Razvrstitev slik
- IT operacije (ITOPs)
- Avtomatizacija incidentov
- Inženiring vpliva
- K-pomeni združevanje v gruče
- K-Najbližji sosedje
- Terminologija (L do Q)
- Terminologija (R do Ž)
- Okrepitveno učenje
- Odgovorni AI
- RLHF
- Robotska procesna avtomatizacija
- Strukturirano proti nestrukturiranemu
- Analiza občutka
- Nadzorovani proti nenadzorovanim
- Podporni vektorski stroji
- Sintetični podatki
- Sintetični mediji
- Razvrstitev besedil
- TinyML
- Prenosno učenje
- Transformatorske nevronske mreže
- Turingov test
- Iskanje podobnosti vektorjev
AI 101
Kaj je odgovorna umetna inteligenca? Načela, izzivi in koristi
By
Haziqa SajidKazalo vsebine
Odgovorni AI (RAI) se nanaša na načrtovanje in uvajanje sistemov umetne inteligence, ki so pregledni, nepristranski, odgovorni in upoštevajo etične smernice. Ker postajajo sistemi umetne inteligence vse bolj robustni in razširjeni, je nujno zagotoviti, da so razviti odgovorno ter v skladu z varnostnimi in etičnimi smernicami.
Zdravje, promet, upravljanje omrežja in nadzor so varnostno kritične aplikacije AI kjer ima lahko okvara sistema resne posledice. Velika podjetja se zavedajo, da je RAI bistvenega pomena za zmanjševanje tehnoloških tveganj. Toda glede na poročilo MIT Sloan/BCG, ki je vključevalo 1093 anketirancev, 54% podjetij ni imelo strokovnega znanja in talenta za odgovorno umetno inteligenco.
Čeprav so voditelji in organizacije razvili načela za odgovorno umetno inteligenco, zagotavljanje odgovornega razvoja sistemov umetne inteligence še vedno predstavlja izziv. Raziščimo to idejo podrobno:
5 načel za odgovorno umetno inteligenco
1. Poštenost
Tehnologi bi morali oblikovati postopke tako, da sistemi umetne inteligence obravnavajo vse posameznike in skupine pošteno in brez pristranskosti. Zato je pravičnost primarna zahteva v aplikacijah za sprejemanje odločitev z visokim tveganjem.
Poštenost je opredeljeno kot:
"Preučevanje vpliva na različne demografske skupine in izbira ene od več matematičnih definicij skupinske pravičnosti, ki bo ustrezno zadovoljila želeni niz pravnih, kulturnih in etičnih zahtev."
2. Odgovornost
Odgovornost pomeni, da morajo biti posamezniki in organizacije, ki razvijajo in uvajajo sisteme umetne inteligence, odgovorni za svoje odločitve in dejanja. Ekipa, ki uvaja sisteme umetne inteligence, mora zagotoviti, da je njihov sistem umetne inteligence pregleden, razložljiv, revizijski in ne škoduje družbi.
Odgovornost vključuje sedem sestavni deli:
- Kontekst (namen, za katerega je potrebna odgovornost)
- Razpon (predmet odgovornosti)
- Agent (kdo je odgovoren?)
- Forum (komu mora odgovorna oseba poročati)
- Standardi (merila za odgovornost)
- Postopek (metoda odgovornosti)
- Posledice (posledice odgovornosti)
3. Preglednost
Transparentnost pomeni, da je razlog za odločanje v sistemih AI jasen in razumljiv. Pregledni sistemi AI so razložljivi.
Glede na Ocenjevalni seznam za zaupanja vredno umetno inteligenco (ALTAI)ima preglednost tri ključne elemente:
- Sledljivost (podatki, koraki predprocesiranja in model so dostopni)
- Razložljivost (razlog za odločanje/napoved je jasen)
- Odprta komunikacija (glede omejitev sistema AI)
4. Zasebnost
Zasebnost je eno glavnih načel odgovorne umetne inteligence. Nanaša se na varstvo osebnih podatkov. To načelo zagotavlja, da se osebni podatki ljudi zbirajo in obdelujejo s privolitvijo ter da niso v rokah nezadovoljnikov.
Kot je bilo pred kratkim dokazano, je bil primer podjetja Clearview, ki izdeluje modele za prepoznavanje obrazov za organe pregona in univerze. Britanski nadzorniki podatkov tožil Clearview AI za 7.5 milijona funtov za zbiranje slik prebivalcev Združenega kraljestva iz družbenih medijev brez privolitve za ustvarjanje baze podatkov z 20 milijardami slik.
5. Varnost
Varnost pomeni zagotoviti, da so sistemi AI varni in ne ogrožajo družbe. Primer varnostne grožnje AI je neželeni napadi. Ti zlonamerni napadi zavedejo modele ML, da sprejmejo napačne odločitve. Zaščita sistemov umetne inteligence pred kibernetskimi napadi je nujna za odgovorno umetno inteligenco.
4 glavni izzivi in tveganja odgovorne umetne inteligence
1. Pristranskost
Človeške pristranskosti, povezane s starostjo, spolom, narodnostjo in raso, lahko vplivajo na zbiranje podatkov, kar lahko vodi do pristranskih modelov umetne inteligence. Študija ameriškega ministrstva za trgovino ugotovili, da umetna inteligenca za prepoznavanje obraza napačno prepozna barvne ljudi. Zato lahko uporaba umetne inteligence za prepoznavanje obrazov pri kazenskem pregonu povzroči neupravičene aretacije. Tudi izdelava pravičnih modelov AI je izziv, ker obstajajo 21 različne parametre za njihovo opredelitev. Torej obstaja kompromis; zadovoljitev enega poštenega parametra AI pomeni žrtvovanje drugega.
2. Interpretabilnost
Interpretabilnost je ključni izziv pri razvoju odgovorne umetne inteligence. Nanaša se na razumevanje, kako je model strojnega učenja prišel do določenega zaključka.
Globokim nevronskim mrežam primanjkuje razlage, ker delujejo kot črne skrinjice z več plastmi skritih nevronov, zaradi česar je težko razumeti proces odločanja. To je lahko izziv pri sprejemanju odločitev z velikimi vložki, kot so zdravstvo, finance itd.
Poleg tega je formalizacija interpretabilnosti v modelih ML zahtevna, ker je subjektivno in domensko specifična.
3. Upravljanje
Upravljanje se nanaša na niz pravil, politik in postopkov, ki nadzirajo razvoj in uvajanje sistemov umetne inteligence. V zadnjem času je prišlo do pomembnega napredka v diskurzu o upravljanju umetne inteligence, saj so organizacije predstavile okvire in etične smernice.
Etične smernice za zaupanja vredna umetna inteligenca EU, Avstralski etični okvir AIin Načela OECD AI so primeri okvirov upravljanja umetne inteligence.
Toda hiter napredek umetne inteligence v zadnjih letih lahko prehiti te okvire upravljanja umetne inteligence. V ta namen mora obstajati okvir, ki ocenjuje pravičnost, razlagljivost in etičnost sistemov umetne inteligence.
4. Uredba
Ker postajajo sistemi umetne inteligence vse bolj razširjeni, je potrebna ureditev, ki bo upoštevala etične in družbene vrednote. Razvoj predpisov, ki ne zavira inovacij umetne inteligence, je ključni izziv za odgovorno umetno inteligenco.
Čeprav so Splošna uredba o varstvu podatkov (GDPR), Kalifornijski zakon o zasebnosti potrošnikov (CCPA) in Zakon o varstvu osebnih podatkov (PIPL) kot regulativni organi, so raziskovalci AI ugotovili, da 97% spletnih mest EU ni v skladu z zahtevami pravnega okvira GDPR.
Poleg tega se zakonodajalci soočajo z a pomemben izziv pri doseganju soglasja o definiciji umetne inteligence, ki vključuje tako klasične sisteme umetne inteligence kot najnovejše aplikacije umetne inteligence.
3 glavne prednosti odgovorne umetne inteligence
1. Zmanjšana pristranskost
Odgovorna umetna inteligenca zmanjšuje pristranskost v postopkih odločanja in gradi zaupanje v sisteme umetne inteligence. Zmanjšanje pristranskosti v sistemih umetne inteligence lahko zagotovi pravičen in pravičen sistem zdravstvenega varstva ter zmanjša pristranskost v sistemih, ki temeljijo na umetni inteligenci. finančne storitve in tako naprej
2. Izboljšana preglednost
Odgovorna umetna inteligenca ustvarja pregledne aplikacije umetne inteligence, ki gradijo zaupanje v sisteme umetne inteligence. Pregledni sistemi AI zmanjša tveganje za napake in zlorabo. Izboljšana preglednost poenostavi revizijo sistemov umetne inteligence, pridobi zaupanje deležnikov in lahko vodi do odgovornih sistemov umetne inteligence.
3. Boljša varnost
Varne aplikacije umetne inteligence zagotavljajo zasebnost podatkov, ustvarjajo zanesljive in neškodljive rezultate ter so varne pred kibernetskimi napadi.
Tehnološki velikani kot Microsoft in google, ki so v ospredju razvoja sistemov umetne inteligence, so razvili načela odgovorne umetne inteligence. Odgovorna umetna inteligenca zagotavlja, da inovacije v umetni inteligenci niso škodljive za posameznike in družbo.
Voditelji razmišljanja, raziskovalci, organizacije in pravni organi bi morali nenehno pregledovati literaturo o odgovorni AI, da bi zagotovili varno prihodnost za inovacije AI.
Za več vsebin, povezanih z umetno inteligenco, obiščite združiti.ai.
Morda vam bo všeč
AniPortrait: zvočno vodena sinteza fotorealistične portretne animacije
Notranji dialog AI: Kako samorefleksija izboljša klepetalnice in virtualne pomočnike
Instant-Style: Ohranjanje sloga pri ustvarjanju besedila v sliko
LoReFT: Natančna nastavitev reprezentacije za jezikovne modele
Onkraj iskalnikov: Vzpon spletnih agentov, ki jih poganja LLM
Izboljšanje preglednosti AI in zaupanja s sestavljenim AI