- Terminológia (A až D)
- Kontrola schopností AI
- AIOps
- albumov
- Výkonnosť aktív
- Autokóder
- Spätná propagácia
- Bayesova veta
- Big dát
- Chatbot: Sprievodca pre začiatočníkov
- Výpočtové myslenie
- Počítačové videnie
- Matica zmätku
- Konvolučné neurónové siete
- Kyber ochrana
- Data Fabric
- Rozprávanie dát
- dáta Science
- Skladovanie údajov
- Rozhodovací strom
- Deepfakes
- Deep Learning
- Hlboké posilnenie učenia
- DevOps
- DevSecOps
- Difúzne modely
- Digitálne Twin
- Zníženie rozmerov
- Terminológia (E až K)
- Edge AI
- Emócia AI
- Ensemble Learning
- Etické hackovanie
- ETL
- Vysvetliteľná AI
- Federatívne vzdelávanie
- FinOps
- Generatívna AI
- Generatívna kontradiktórna sieť
- Generatívne vs. diskriminačné
- Zosilnenie gradientu
- Gradientný zostup
- Učenie s niekoľkými výstrelmi
- Klasifikácia obrázkov
- IT operácie (ITOPs)
- Automatizácia incidentov
- Vplyvové inžinierstvo
- Klastrovanie K-Means
- K-Najbližší susedia
- Terminológia (od L po Q)
- Terminológia (od R po Z)
- Posilňovacie učenie
- Zodpovedná AI
- RLHF
- Automatizácia robotických procesov
- Štruktúrované vs neštruktúrované
- Analýza sentimentu
- Pod dohľadom verzus bez dozoru
- Podpora vektorové stroje
- Syntetické údaje
- Syntetické médiá
- Klasifikácia textu
- TinyML
- Transfer Learning
- Transformátorové neurónové siete
- Turingov test
- Vyhľadávanie podobnosti vektorov
AI 101
Čo je to zodpovedná AI? Princípy, výzvy a výhody
By
Haziqa SajidObsah
Zodpovedná AI (RAI) sa vzťahuje na navrhovanie a nasadzovanie systémov AI, ktoré sú transparentné, nezaujaté, zodpovedné a dodržiavajú etické pokyny. Keďže sa systémy AI stávajú robustnejšími a rozšírenejšími, je nevyhnutné zabezpečiť ich zodpovedný vývoj a dodržiavanie bezpečnostných a etických pokynov.
Zdravie, doprava, správa siete a dohľad sú aplikácie AI kritické z hľadiska bezpečnosti kde zlyhanie systému môže mať vážne následky. Veľké firmy si uvedomujú, že RAI je nevyhnutné na zmiernenie technologických rizík. Napriek tomu podľa správy MIT Sloan/BCG, ktorá zahŕňala 1093 respondentov, 54% spoločností, ktorým chýbali odborné znalosti a talent v oblasti zodpovednej AI.
Hoci vedúci predstavitelia a organizácie vyvinuli princípy zodpovednej AI, zabezpečenie zodpovedného vývoja systémov AI stále predstavuje výzvy. Pozrime sa na túto myšlienku podrobne:
5 princípy pre zodpovednú AI
1. Spravodlivosť
Technológovia by mali navrhnúť postupy tak, aby systémy AI zaobchádzali so všetkými jednotlivcami a skupinami spravodlivo bez zaujatosti. Preto je spravodlivosť primárnou požiadavkou v aplikáciách s vysokým rizikom rozhodovania.
Spravodlivosť je definovaný ako:
"Skúmanie vplyvu na rôzne demografické skupiny a výber jednej z niekoľkých matematických definícií skupinovej spravodlivosti, ktoré primerane uspokoja požadovaný súbor právnych, kultúrnych a etických požiadaviek."
2. zodpovednosť
Zodpovednosť znamená, že jednotlivci a organizácie vyvíjajúce a nasadzujúce systémy AI by mali byť zodpovedné za svoje rozhodnutia a činy. Tím nasadzujúci systémy AI by mal zabezpečiť, aby ich systém AI bol transparentný, interpretovateľný, kontrolovateľný a nepoškodzoval spoločnosť.
Zodpovednosť zahŕňa sedem komponenty:
- Kontext (účel, pre ktorý sa vyžaduje zodpovednosť)
- Rozsah (predmet zodpovednosti)
- Agent (kto je zodpovedný?)
- Fórum (komu sa musí zodpovedná strana hlásiť)
- Štandardy (kritériá pre zodpovednosť)
- Proces (metóda zodpovednosti)
- Dôsledky (dôsledky zodpovednosti)
3. Transparentnosť
Transparentnosť znamená, že dôvod rozhodovania v systémoch AI je jasný a zrozumiteľný. Transparentné systémy AI sú vysvetliteľné.
Podľa Hodnotiaci zoznam pre dôveryhodnú umelú inteligenciu (ALTAI)Transparentnosť má tri kľúčové prvky:
- Sledovateľnosť (údaje, kroky predbežného spracovania a model sú dostupné)
- Vysvetliteľnosť (dôvod rozhodnutia/predpovede je jasný)
- Otvorená komunikácia (pokiaľ ide o obmedzenia systému AI)
4. súkromia
Súkromie je jedným z hlavných princípov zodpovednej AI. Týka sa to ochrany osobných údajov. Tento princíp zabezpečuje, že osobné údaje ľudí sa zbierajú a spracúvajú so súhlasom a uchovávajú sa mimo dosahu nespokojencov.
Ako sa nedávno ukázalo, došlo k prípadu spoločnosti Clearview, spoločnosti, ktorá vyrába modely rozpoznávania tváre pre orgány činné v trestnom konaní a univerzity. britskí strážcovia údajov zažaloval Clearview AI o 7.5 milióna libier za zhromažďovanie obrázkov obyvateľov Spojeného kráľovstva zo sociálnych médií bez súhlasu na vytvorenie databázy 20 miliárd obrázkov.
5. Zabezpečenie
Bezpečnosť znamená zabezpečiť, aby systémy AI boli bezpečné a neohrozovali spoločnosť. Príkladom bezpečnostnej hrozby AI je nepriateľské útoky. Tieto škodlivé útoky oklamú modely ML, aby urobili nesprávne rozhodnutia. Ochrana systémov AI pred kybernetickými útokmi je pre zodpovednú AI nevyhnutná.
4 hlavné výzvy a riziká zodpovednej AI
1. Zaujatosť
Ľudské predsudky súvisiace s vekom, pohlavím, národnosťou a rasou môžu ovplyvniť zber údajov, čo môže viesť k zaujatým modelom AI. Štúdia amerického ministerstva obchodu zistili, že AI na rozpoznávanie tváre nesprávne identifikuje ľudí inej farby pleti. Používanie AI na rozpoznávanie tváre pri presadzovaní práva môže preto viesť k neoprávnenému zatknutiu. Vytváranie spravodlivých modelov AI je tiež náročné, pretože existujú 21 rôzne parametre na ich definovanie. Existuje teda kompromis; uspokojiť jeden spravodlivý parameter AI znamená obetovať ďalší.
2. Interpretovateľnosť
Interpretovateľnosť je kritickou výzvou pri vývoji zodpovednej AI. Vzťahuje sa na pochopenie toho, ako model strojového učenia dospel ku konkrétnemu záveru.
Hlbokým neurónovým sieťam chýba interpretovateľnosť, pretože fungujú ako čierne skrinky s viacerými vrstvami skrytých neurónov, čo sťažuje pochopenie rozhodovacieho procesu. To môže byť problém pri vysokom rozhodovaní, ako je zdravotná starostlivosť, financie atď.
Okrem toho je formalizácia interpretovateľnosti v modeloch ML náročná, pretože je subjektívne a špecifické pre doménu.
3. vláda
Riadenie sa vzťahuje na súbor pravidiel, zásad a postupov, ktoré dohliadajú na vývoj a nasadenie systémov AI. Nedávno došlo k výraznému pokroku v diskusii o riadení AI, pričom organizácie predstavili rámce a etické usmernenia.
Etické pokyny pre dôveryhodná AI od EÚ, Austrálsky etický rámec AIa Princípy umelej inteligencie OECD sú príklady rámcov riadenia AI.
Rýchly pokrok v oblasti AI v posledných rokoch však môže predbehnúť tieto rámce riadenia AI. Na tento účel musí existovať rámec, ktorý posúdi spravodlivosť, interpretovateľnosť a etiku systémov AI.
4. Nariadenie
Keďže systémy umelej inteligencie sú čoraz rozšírenejšie, je potrebné, aby existovala regulácia zohľadňujúca etické a spoločenské hodnoty. Rozvoj regulácie, ktorá nepotláča inovácie AI, je kritickou výzvou v zodpovednej AI.
Dokonca aj v prípade všeobecného nariadenia o ochrane údajov (GDPR), kalifornského zákona o ochrane súkromia spotrebiteľov (CCPA) a zákona o ochrane osobných údajov (PIPL) ako regulačných orgánov výskumníci AI zistili, že 97% webových stránok EÚ nespĺňajú požiadavky právneho rámca GDPR.
Okrem toho zákonodarcovia čelia a významnú výzvu pri dosahovaní konsenzu o definícii AI, ktorá zahŕňa klasické systémy AI aj najnovšie aplikácie AI.
3 hlavné výhody zodpovednej AI
1. Znížená odchýlka
Zodpovedná AI znižuje zaujatosť v rozhodovacích procesoch a buduje dôveru v systémy AI. Zníženie zaujatosti v systémoch AI môže poskytnúť spravodlivý a spravodlivý systém zdravotnej starostlivosti a zníži zaujatosť v systémoch AI finančné služby a tak ďalej
2. Vylepšená transparentnosť
Zodpovedná AI vytvára transparentné aplikácie AI, ktoré budujú dôveru v systémy AI. Transparentné systémy AI znížiť riziko chyby a zneužitia. Vylepšená transparentnosť uľahčuje audit systémov AI, získava dôveru zainteresovaných strán a môže viesť k zodpovedným systémom AI.
3. Lepšie zabezpečenie
Bezpečné aplikácie AI zaisťujú súkromie údajov, vytvárajú dôveryhodný a neškodný výstup a sú bezpečné pred kybernetickými útokmi.
Technologickým gigantom sa páči Microsoft a Google, ktoré sú v popredí vývoja systémov AI, vyvinuli princípy zodpovednej AI. Zodpovedná AI zaisťuje, že inovácia v AI nie je škodlivá pre jednotlivcov a spoločnosť.
Vedúci predstavitelia, výskumníci, organizácie a právne orgány by mali neustále revidovať zodpovednú literatúru AI, aby zabezpečili bezpečnú budúcnosť pre inovácie AI.
Pre viac obsahu súvisiaceho s AI navštívte zjednotiť.ai.
Haziqa je Data Scientist s rozsiahlymi skúsenosťami s písaním technického obsahu pre spoločnosti AI a SaaS.
Možno budete chcieť
AniPortrait: Zvukom riadená syntéza fotorealistickej portrétnej animácie
Vnútorný dialóg AI: Ako sebareflexia zlepšuje chatbotov a virtuálnych asistentov
Okamžitý štýl: Zachovanie štýlu pri generovaní textu na obrázok
LoReFT: Dolaďovanie reprezentácie pre jazykové modely
Okrem vyhľadávacích nástrojov: Vzostup agentov na prehliadanie webu poháňaných LLM
Zlepšenie transparentnosti a dôvery AI pomocou zloženej AI