Connect with us

AI 101

Co je Responsible AI? Zásady, výzvy a přínosy

mm
A person holding on the globe in his hands while standing in fields.

Responsible AI (RAI) se týká navrhování a nasazování systémů umělé inteligence, které jsou transparentní, nezaujaté, odpovědné a dodržují etické směrnice. Jak systémy umělé inteligence rostou na robustnosti a prevalenci, je zajištění jejich odpovědného vývoje a dodržování bezpečnostních a etických směrnic nezbytné.

Zdravotnictví, doprava, správa sítí a dohled jsou bezpečnostně kritické aplikace umělé inteligence, kde selhání systému může mít závažné důsledky. Velké firmy si jsou vědomy, že RAI je nezbytné pro zmírnění technologických rizik. Přesto podle zprávy MIT Sloan/BCG, která zahrnovala 1093 respondentů, 54% společností postrádalo odborné znalosti a talent v oblasti Responsible AI.

Ačkoli thought leaders a organizace vyvinuli zásady pro odpovědnou umělou inteligenci, zajištění odpovědného vývoje systémů umělé inteligence stále představuje výzvy. Podívejme se na tuto myšlenku podrobněji:

5 zásad pro Responsible AI

1. Fairness

Technologové by měli navrhovat postupy tak, aby systémy umělé inteligence jednaly se všemi jednotlivci a skupinami spravedlivě a bez předpojatosti. Fairness je proto primárním požadavkem v aplikacích s vysokým rizikem rozhodování.

Fairness je definována jako:

„Prozkoumání dopadu na různé demografické skupiny a výběr jedné z několika matematických definic skupinové fairness, které budou dostatečně uspokojovat požadovanou sadu právních, kulturních a etických požadavků.“

2. Odpovědnost

Odpovědnost znamená, že jednotlivci a organizace, které vyvíjejí a nasazují systémy umělé inteligence, by měly být odpovědné za svá rozhodnutí a činy. Tým nasazující systémy umělé inteligence by měl zajistit, aby jejich systém umělé inteligence byl transparentní, interpretovatelný, auditable a nezpůsobil škodu společnosti.

Odpovědnost zahrnuje sedm komponent:

  1. Context (účel, pro který je vyžadována odpovědnost)
  2. Range (předmět odpovědnosti)
  3. Agent (kdo je odpovědný?)
  4. Forum (komu je odpovědná strana povinna hlásit)
  5. Standards (kritéria pro odpovědnost)
  6. Process (metoda odpovědnosti)
  7. Implications (důsledky odpovědnosti)

3. Transparentnost

Transparentnost znamená, že důvod rozhodování v systémech umělé inteligence je jasný a srozumitelný. Transparentní systémy umělé inteligence jsou vysvětlovatelné.

Podle Assessment List for Trustworthy Artificial Intelligence (ALTAI) má transparentnost tři klíčové prvky:

  1. Traceability (data, kroky předzpracování a model jsou přístupné)
  2. Explainability (důvod rozhodování/předpovědi je jasný)
  3. Otevřená komunikace (ohledně omezení systému umělé inteligence)

4. Soukromí

Soukromí je jedním z hlavních principů odpovědné umělé inteligence. Týká se ochrany osobních údajů. Tento princip zajišťuje, že osobní údaje jsou shromažďovány a zpracovávány se souhlasem a zůstávají mimo dosah osob, které by je mohly zneužít.

Jak bylo nedávno prokázáno, existoval případ Clearview, společnosti, která vytváří modely rozpoznávání obličejů pro orgány činné v trestním řízení a univerzity. Britští dohlížitelé na ochranu údajů sued Clearview AI za 7,5 milionu liber za shromažďování obrazů britských obyvatel z médií sociálních sítí bez souhlasu za účelem vytvoření databáze 20 miliard obrazů.

5. Bezpečnost

Bezpečnost znamená zajištění, že systémy umělé inteligence jsou bezpečné a neohrožují společnost. Příklad bezpečnostní hrozby umělé inteligence jsou adversarial attacks. Tyto útoky trikují modely strojového učení, aby činily nesprávná rozhodnutí. Ochrana systémů umělé inteligence před kybernetickými útoky je nezbytná pro odpovědnou umělou inteligenci.

4 hlavní výzvy a rizika odpovědné umělé inteligence

1. Předpojatost

Lidská předpojatost související s věkem, pohlavím, národností a rasou může ovlivnit shromažďování dat, což může vést k předpojatým modelům umělé inteligence. Studie ministerstva obchodu USA zjistila, že modely rozpoznávání obličejů umělé inteligence nesprávně identifikují lidi barevné pleti. Proto použití umělé inteligence pro rozpoznávání obličejů v orgánech činných v trestním řízení může vést k nesprávným zatčením. Kromě toho je vytváření spravedlivých modelů umělé inteligence obtížné, protože existuje 21 různých parametrů, které je třeba definovat. Proto existuje kompromis; splnění jednoho parametru spravedlivé umělé inteligence znamená obětování jiného.

2. Interpretovatelnost

Interpretovatelnost je kritickou výzvou při vývoji odpovědné umělé inteligence. Týká se porozumění, jak model strojového učení dospěl k určitému závěru.

Deep neural networks postrádají interpretovatelnost, protože fungují jako černé skříňky s mnoha vrstvami skrytých neuronů, což činí obtížným porozumění procesu rozhodování. To může být výzvou v rozhodování s vysokými zárukami, jako je zdravotnictví, finance atd.

Kromě toho je formalizace interpretovatelnosti v modelech strojového učení obtížná, protože je subjektivní a doménově specifická.

3. Řízení

Řízení se týká sady pravidel, politik a postupů, které dohlížejí na vývoj a nasazení systémů umělé inteligence. Nedávno došlo k významnému pokroku v diskusi o řízení umělé inteligence, kdy organizace představily rámce a etické směrnice.

Etické směrnice pro důvěryhodnou umělou inteligenci EU, Australský etický rámec pro umělou inteligenci a OECD Principy umělé inteligence jsou příklady rámců pro řízení umělé inteligence.

Avšak rychlý pokrok v oblasti umělé inteligence v posledních letech může předehnat tyto rámce pro řízení umělé inteligence. K tomu je zapotřebí rámec, který hodnotí spravedlnost, interpretovatelnost a etiku systémů umělé inteligence.

4. Regulace

Jak systémy umělé inteligence se stávají více rozšířenými, je zapotřebí regulace, která zohledňuje etické a společenské hodnoty. Vývoj regulace, která nebrání inovacím v oblasti umělé inteligence, je kritickou výzvou v odpovědné umělé inteligenci.

I s Obecným nařízením o ochraně osobních údajů (GDPR), Kalifornským zákonem o ochraně spotřebitelů (CCPA) a Zákonem o ochraně osobních údajů (PIPL) jako regulačními orgány, výzkumníci v oblasti umělé inteligence zjistili, že 97% webových stránek v EU nesplňuje požadavky nařízení GDPR.

Kromě toho zákonodárci čelí významné výzvě při dosahování konsensu o definici umělé inteligence, která zahrnuje jak klasické systémy umělé inteligence, tak nejnovější aplikace umělé inteligence.

3 hlavní přínosy odpovědné umělé inteligence

1. Snížená předpojatost

Odpovědná umělá inteligence snižuje předpojatost v rozhodovacích procesech, buduje důvěru v systémy umělé inteligence. Snížení předpojatosti v systémech umělé inteligence může poskytnout spravedlivý a rovný zdravotnický systém a snižuje předpojatost v službách umělé inteligence atd.

2. Zlepšená transparentnost

Odpovědná umělá inteligence vytváří transparentní aplikace umělé inteligence, které budují důvěru v systémy umělé inteligence. Transparentní systémy umělé inteligence snížení rizika chyby a zneužití. Zlepšená transparentnost usnadňuje audit systémů umělé inteligence, získává důvěru stakeholderů a může vést k odpovědným systémům umělé inteligence.

3. Lepší bezpečnost

Bezpečné aplikace umělé inteligence zajišťují ochranu osobních údajů, produkují důvěryhodné a neškodlivé výstupy a jsou bezpečné před kybernetickými útoky.

Technologické giganty, jako Microsoft a Google, které jsou v čele vývoje systémů umělé inteligence, vyvinuly zásady odpovědné umělé inteligence. Odpovědná umělá inteligence zajišťuje, že inovace v oblasti umělé inteligence nejsou škodlivé pro jednotlivce a společnost.

Thought leaders, výzkumníci, organizace a právní autority by měly neustále revidovat literaturu o odpovědné umělé inteligenci, aby zajistily bezpečnou budoucnost pro inovace v oblasti umělé inteligence.

Pro více obsahu souvisejícího s umělou inteligencí navštivte unite.ai.

Haziqa je Data Scientist s rozsáhlými zkušenostmi v psaní technického obsahu pro AI a SaaS společnosti.