AI 101
Co je odpovědná umělá inteligence? Principy, výzvy a výhody

Zodpovědná AI (RAI) označuje navrhování a zavádění systémů umělé inteligence, které jsou transparentní, nezaujaté, odpovědné a dodržují etické pokyny. Jak se systémy umělé inteligence stávají robustnějšími a rozšířenějšími, je zásadní zajistit, aby byly vyvíjeny zodpovědně a dodržovat bezpečnostní a etické pokyny.
Zdraví, doprava, správa sítě a dohled jsou bezpečnostně kritické aplikace AI kde selhání systému může mít vážné následky. Velké firmy si uvědomují, že RAI je zásadní pro zmírnění technologických rizik. Přesto podle zprávy MIT Sloan/BCG, která zahrnovala 1093 respondentů, 54% společností postrádaly odborné znalosti a talent v oblasti odpovědné umělé inteligence.
Ačkoli myšlenkoví lídři a organizace vyvinuli zásady pro odpovědnou AI, zajištění odpovědného vývoje systémů AI stále představuje výzvy. Podívejme se na tento nápad podrobně:
5 zásad pro zodpovědnou umělou inteligenci
1. Spravedlnost
Technologové by měli navrhnout postupy tak, aby systémy umělé inteligence zacházely se všemi jednotlivci a skupinami spravedlivě a nezaujatě. Spravedlnost je tedy primárním požadavkem u vysoce rizikových rozhodovacích aplikací.
Férovost je definován jako:
"Zkoumání dopadu na různé demografické skupiny a výběr jedné z několika matematických definic skupinové spravedlnosti, které budou adekvátně splňovat požadovaný soubor právních, kulturních a etických požadavků."
2. Odpovědnost
Odpovědnost znamená, že jednotlivci a organizace vyvíjející a zavádějící systémy AI by měli být odpovědní za svá rozhodnutí a činy. Tým nasazující systémy AI by měl zajistit, aby jejich systém AI byl transparentní, interpretovatelný, auditovatelný a nepoškozoval společnost.
Odpovědnost zahrnuje sedm komponenty:
- Kontext (účel, pro který je vyžadována odpovědnost)
- Rozsah (předmět odpovědnosti)
- Agent (kdo je odpovědný?)
- Fórum (komu se musí odpovědná strana hlásit)
- Standardy (kritéria pro odpovědnost)
- Proces (metoda odpovědnosti)
- Důsledky (důsledky odpovědnosti)
3. Průhlednost
Transparentnost znamená, že důvod rozhodování v systémech umělé inteligence je jasný a srozumitelný. Transparentní systémy umělé inteligence jsou vysvětlitelné.
Podle Hodnotící seznam pro důvěryhodnou umělou inteligenci (ALTAI)Transparentnost má tři klíčové prvky:
- Sledovatelnost (data, kroky předběžného zpracování a model jsou dostupné)
- Vysvětlitelnost (důvody pro rozhodování/předpovědi jsou jasné)
- Otevřená komunikace (s ohledem na omezení systému AI)
4. Soukromí
Soukromí je jedním z hlavních principů odpovědné umělé inteligence. Odkazuje na ochranu osobních údajů. Tento princip zajišťuje, že osobní údaje lidí jsou shromažďovány a zpracovávány se souhlasem a drženy mimo dosah nespokojenců.
Jak se nedávno ukázalo, došlo k případu společnosti Clearview, společnosti, která vyrábí modely rozpoznávání obličeje pro orgány činné v trestním řízení a univerzity. Britští hlídači dat zažaloval Clearview AI o 7.5 milionu liber za shromažďování obrázků obyvatel Spojeného království ze sociálních médií bez souhlasu k vytvoření databáze 20 miliard obrázků.
5. Bezpečnostní
Bezpečnost znamená zajistit, aby systémy umělé inteligence byly bezpečné a neohrožovaly společnost. Příkladem bezpečnostní hrozby AI je nepřátelské útoky. Tyto škodlivé útoky přivádějí modely ML k nesprávným rozhodnutím. Ochrana systémů umělé inteligence před kybernetickými útoky je pro zodpovědnou umělou inteligenci naprosto nezbytná.
4 Hlavní výzvy a rizika zodpovědné umělé inteligence
1. Předpojatost
Lidské předsudky související s věkem, pohlavím, národností a rasou mohou ovlivnit sběr dat, což může vést k zaujatým modelům umělé inteligence. Studie amerického ministerstva obchodu zjistili, že umělá inteligence rozpoznávání obličeje nesprávně identifikuje lidi s jinou barvou pleti. Používání umělé inteligence k rozpoznávání obličeje při vymáhání práva tedy může vést k neoprávněnému zatčení. Vytváření spravedlivých modelů umělé inteligence je také náročné, protože existují 21 různé parametry pro jejich definování. Existuje tedy kompromis; uspokojit jeden spravedlivý parametr umělé inteligence znamená obětovat jiný.
2. Interpretovatelnost
Interpretovatelnost je zásadní výzvou při vývoji odpovědné umělé inteligence. Týká se pochopení toho, jak model strojového učení dospěl ke konkrétnímu závěru.
Hluboké neuronové sítě postrádají interpretovatelnost, protože fungují jako černé skříňky s více vrstvami skrytých neuronů, což ztěžuje pochopení rozhodovacího procesu. To může být problém při rozhodování o vysokých sázkách, jako je zdravotnictví, finance atd.
Navíc formalizace interpretovatelnosti v modelech ML je náročná, protože je subjektivní si doménově specifické.
3. Řízení
Governance odkazuje na soubor pravidel, zásad a postupů, které dohlížejí na vývoj a nasazení systémů umělé inteligence. Nedávno došlo k významnému pokroku v diskurzu o správě umělé inteligence, kdy organizace představily rámce a etické pokyny.
Etické pokyny pro důvěryhodná AI ze strany EU, Australský etický rámec AI, a Principy AI OECD jsou příklady rámců řízení AI.
Rychlý pokrok v oblasti umělé inteligence v posledních letech však může překonat tyto rámce správy umělé inteligence. Za tímto účelem musí existovat rámec, který posuzuje spravedlivost, interpretovatelnost a etiku systémů umělé inteligence.
4. Nařízení
S tím, jak se systémy umělé inteligence rozšiřují, musí existovat regulace, která zohlední etické a společenské hodnoty. Rozvoj regulace, která nedusí inovace umělé inteligence, je zásadní výzvou v odpovědné umělé inteligenci.
Dokonce i s obecným nařízením o ochraně osobních údajů (GDPR), kalifornským zákonem o ochraně soukromí spotřebitelů (CCPA) a zákonem o ochraně osobních údajů (PIPL) jako regulačními orgány, výzkumníci AI zjistili, že 97% webových stránek EU nesplňují požadavky právního rámce GDPR.
Zákonodárci navíc čelí a významná výzva při dosahování konsenzu o definici umělé inteligence, která zahrnuje klasické systémy umělé inteligence i nejnovější aplikace umělé inteligence.
3 hlavní výhody zodpovědné umělé inteligence
1. Snížené zkreslení
Odpovědná umělá inteligence snižuje zaujatost v rozhodovacích procesech a buduje důvěru v systémy umělé inteligence. Snížení zaujatosti v systémech umělé inteligence může zajistit spravedlivý a spravedlivý systém zdravotní péče a snížit zaujatost v systémech založených na umělé inteligenci. finanční služby atd.
2. Vylepšená transparentnost
Responsible AI vytváří transparentní AI aplikace, které budují důvěru v AI systémy. Transparentní systémy AI snížit riziko chyb a zneužití. Zvýšená transparentnost usnadňuje audit systémů AI, získává důvěru zúčastněných stran a může vést k odpovědným systémům AI.
3. Lepší zabezpečení
Zabezpečené aplikace umělé inteligence zajišťují soukromí dat, vytvářejí důvěryhodný a neškodný výstup a jsou v bezpečí před kybernetickými útoky.
Technickým gigantům se to líbí Microsoft si Google, které jsou v čele vývoje systémů umělé inteligence, vyvinuly principy odpovědné umělé inteligence. Odpovědná AI zajišťuje, že inovace v AI nejsou škodlivé pro jednotlivce a společnost.
Vedoucí myšlenek, výzkumníci, organizace a právní orgány by měli neustále revidovat odpovědnou literaturu o AI, aby zajistili bezpečnou budoucnost pro inovace AI.
Další obsah týkající se umělé inteligence naleznete na adrese unite.ai.