peň Čo je zodpovedná AI? Princípy, výzvy a výhody – Unite.AI
Spojte sa s nami
Masterclass AI:

AI 101

Čo je to zodpovedná AI? Princípy, výzvy a výhody

mm
Aktualizované on
Osoba, ktorá drží v rukách zemeguľu, zatiaľ čo stojí na poliach.

Zodpovedná AI (RAI) sa vzťahuje na navrhovanie a nasadzovanie systémov AI, ktoré sú transparentné, nezaujaté, zodpovedné a dodržiavajú etické pokyny. Keďže sa systémy AI stávajú robustnejšími a rozšírenejšími, je nevyhnutné zabezpečiť ich zodpovedný vývoj a dodržiavanie bezpečnostných a etických pokynov.

Zdravie, doprava, správa siete a dohľad sú aplikácie AI kritické z hľadiska bezpečnosti kde zlyhanie systému môže mať vážne následky. Veľké firmy si uvedomujú, že RAI je nevyhnutné na zmiernenie technologických rizík. Napriek tomu podľa správy MIT Sloan/BCG, ktorá zahŕňala 1093 respondentov, 54% spoločností, ktorým chýbali odborné znalosti a talent v oblasti zodpovednej AI.

Hoci vedúci predstavitelia a organizácie vyvinuli princípy zodpovednej AI, zabezpečenie zodpovedného vývoja systémov AI stále predstavuje výzvy. Pozrime sa na túto myšlienku podrobne:

5 princípy pre zodpovednú AI

1. Spravodlivosť

Technológovia by mali navrhnúť postupy tak, aby systémy AI zaobchádzali so všetkými jednotlivcami a skupinami spravodlivo bez zaujatosti. Preto je spravodlivosť primárnou požiadavkou v aplikáciách s vysokým rizikom rozhodovania.

Spravodlivosť je definovaný ako:

"Skúmanie vplyvu na rôzne demografické skupiny a výber jednej z niekoľkých matematických definícií skupinovej spravodlivosti, ktoré primerane uspokoja požadovaný súbor právnych, kultúrnych a etických požiadaviek."

2. zodpovednosť

Zodpovednosť znamená, že jednotlivci a organizácie vyvíjajúce a nasadzujúce systémy AI by mali byť zodpovedné za svoje rozhodnutia a činy. Tím nasadzujúci systémy AI by mal zabezpečiť, aby ich systém AI bol transparentný, interpretovateľný, kontrolovateľný a nepoškodzoval spoločnosť.

Zodpovednosť zahŕňa sedem komponenty:

  1. Kontext (účel, pre ktorý sa vyžaduje zodpovednosť)
  2. Rozsah (predmet zodpovednosti)
  3. Agent (kto je zodpovedný?)
  4. Fórum (komu sa musí zodpovedná strana hlásiť)
  5. Štandardy (kritériá pre zodpovednosť)
  6. Proces (metóda zodpovednosti)
  7. Dôsledky (dôsledky zodpovednosti)

3. Transparentnosť

Transparentnosť znamená, že dôvod rozhodovania v systémoch AI je jasný a zrozumiteľný. Transparentné systémy AI sú vysvetliteľné.

Podľa Hodnotiaci zoznam pre dôveryhodnú umelú inteligenciu (ALTAI)Transparentnosť má tri kľúčové prvky:

  1. Sledovateľnosť (údaje, kroky predbežného spracovania a model sú dostupné)
  2. Vysvetliteľnosť (dôvod rozhodnutia/predpovede je jasný)
  3. Otvorená komunikácia (pokiaľ ide o obmedzenia systému AI)

4. súkromia

Súkromie je jedným z hlavných princípov zodpovednej AI. Týka sa to ochrany osobných údajov. Tento princíp zabezpečuje, že osobné údaje ľudí sa zbierajú a spracúvajú so súhlasom a uchovávajú sa mimo dosahu nespokojencov.

Ako sa nedávno ukázalo, došlo k prípadu spoločnosti Clearview, spoločnosti, ktorá vyrába modely rozpoznávania tváre pre orgány činné v trestnom konaní a univerzity. britskí strážcovia údajov zažaloval Clearview AI o 7.5 milióna libier za zhromažďovanie obrázkov obyvateľov Spojeného kráľovstva zo sociálnych médií bez súhlasu na vytvorenie databázy 20 miliárd obrázkov.

5. Zabezpečenie

Bezpečnosť znamená zabezpečiť, aby systémy AI boli bezpečné a neohrozovali spoločnosť. Príkladom bezpečnostnej hrozby AI je nepriateľské útoky. Tieto škodlivé útoky oklamú modely ML, aby urobili nesprávne rozhodnutia. Ochrana systémov AI pred kybernetickými útokmi je pre zodpovednú AI nevyhnutná.

4 hlavné výzvy a riziká zodpovednej AI

1. Zaujatosť

Ľudské predsudky súvisiace s vekom, pohlavím, národnosťou a rasou môžu ovplyvniť zber údajov, čo môže viesť k zaujatým modelom AI. Štúdia amerického ministerstva obchodu zistili, že AI na rozpoznávanie tváre nesprávne identifikuje ľudí inej farby pleti. Používanie AI na rozpoznávanie tváre pri presadzovaní práva môže preto viesť k neoprávnenému zatknutiu. Vytváranie spravodlivých modelov AI je tiež náročné, pretože existujú 21 rôzne parametre na ich definovanie. Existuje teda kompromis; uspokojiť jeden spravodlivý parameter AI znamená obetovať ďalší.

2. Interpretovateľnosť

Interpretovateľnosť je kritickou výzvou pri vývoji zodpovednej AI. Vzťahuje sa na pochopenie toho, ako model strojového učenia dospel ku konkrétnemu záveru.

Hlbokým neurónovým sieťam chýba interpretovateľnosť, pretože fungujú ako čierne skrinky s viacerými vrstvami skrytých neurónov, čo sťažuje pochopenie rozhodovacieho procesu. To môže byť problém pri vysokom rozhodovaní, ako je zdravotná starostlivosť, financie atď.

Okrem toho je formalizácia interpretovateľnosti v modeloch ML náročná, pretože je subjektívnešpecifické pre doménu.

3. vláda

Riadenie sa vzťahuje na súbor pravidiel, zásad a postupov, ktoré dohliadajú na vývoj a nasadenie systémov AI. Nedávno došlo k výraznému pokroku v diskusii o riadení AI, pričom organizácie predstavili rámce a etické usmernenia.

Etické pokyny pre dôveryhodná AI od EÚAustrálsky etický rámec AIPrincípy umelej inteligencie OECD sú príklady rámcov riadenia AI.

Rýchly pokrok v oblasti AI v posledných rokoch však môže predbehnúť tieto rámce riadenia AI. Na tento účel musí existovať rámec, ktorý posúdi spravodlivosť, interpretovateľnosť a etiku systémov AI.

4. Nariadenie

Keďže systémy umelej inteligencie sú čoraz rozšírenejšie, je potrebné, aby existovala regulácia zohľadňujúca etické a spoločenské hodnoty. Rozvoj regulácie, ktorá nepotláča inovácie AI, je kritickou výzvou v zodpovednej AI.

Dokonca aj v prípade všeobecného nariadenia o ochrane údajov (GDPR), kalifornského zákona o ochrane súkromia spotrebiteľov (CCPA) a zákona o ochrane osobných údajov (PIPL) ako regulačných orgánov výskumníci AI zistili, že 97% webových stránok EÚ nespĺňajú požiadavky právneho rámca GDPR.

Okrem toho zákonodarcovia čelia a významnú výzvu pri dosahovaní konsenzu o definícii AI, ktorá zahŕňa klasické systémy AI aj najnovšie aplikácie AI.

3 hlavné výhody zodpovednej AI

1. Znížená odchýlka

Zodpovedná AI znižuje zaujatosť v rozhodovacích procesoch a buduje dôveru v systémy AI. Zníženie zaujatosti v systémoch AI môže poskytnúť spravodlivý a spravodlivý systém zdravotnej starostlivosti a zníži zaujatosť v systémoch AI finančné služby a tak ďalej

2. Vylepšená transparentnosť

Zodpovedná AI vytvára transparentné aplikácie AI, ktoré budujú dôveru v systémy AI. Transparentné systémy AI znížiť riziko chyby a zneužitia. Vylepšená transparentnosť uľahčuje audit systémov AI, získava dôveru zainteresovaných strán a môže viesť k zodpovedným systémom AI.

3. Lepšie zabezpečenie

Bezpečné aplikácie AI zaisťujú súkromie údajov, vytvárajú dôveryhodný a neškodný výstup a sú bezpečné pred kybernetickými útokmi.

Technologickým gigantom sa páči MicrosoftGoogle, ktoré sú v popredí vývoja systémov AI, vyvinuli princípy zodpovednej AI. Zodpovedná AI zaisťuje, že inovácia v AI nie je škodlivá pre jednotlivcov a spoločnosť.

Vedúci predstavitelia, výskumníci, organizácie a právne orgány by mali neustále revidovať zodpovednú literatúru AI, aby zabezpečili bezpečnú budúcnosť pre inovácie AI.

Pre viac obsahu súvisiaceho s AI navštívte zjednotiť.ai.