výhonek 5 základních pilířů pro zajištění odpovědné umělé inteligence – Unite.AI
Spojte se s námi

Myšlenkové vůdce

5 základních pilířů pro zajištění odpovědné umělé inteligence

mm

Zveřejněno

 on

Jsme svědky ohromného růstu systémů AI/ML, které zpracovávají oceány dat, která jsou generována v nové digitální ekonomice. S tímto růstem je však potřeba vážně zvážit etické a právní důsledky AI.

Protože systémům umělé inteligence svěřujeme stále sofistikovanější a důležitější úkoly, jako je například automatické schvalování úvěrů, musíme si být naprosto jisti, že tyto systémy jsou odpovědné a důvěryhodné. Snížení zaujatosti v AI se stalo masivní oblastí zájmu mnoha výzkumníků a má obrovské etické důsledky, stejně jako množství autonomie, kterou těmto systémům poskytujeme.

Koncept odpovědné umělé inteligence je důležitý rámec, který může pomoci vybudovat důvěru ve vaše nasazení umělé inteligence. Responsible AI má pět základních pilířů. Tento článek je prozkoumá, aby vám pomohl vytvořit lepší systémy.

1. Reprodukovatelnost

Ve světě vývoje softwaru existuje staré přísloví, které říká: „Hej, na mém počítači to funguje“ V ML a AI by se tato fráze dala upravit na: „Hej, funguje to na mém datovém souboru.“ To znamená, že modely strojového učení mohou mít často tendenci být černou skříňkou. Mnoho trénovacích datových sad může mít inherentní zkreslení, jako je vzorkování nebo potvrzení, které snižují přesnost konečného produktu.

Aby se systémy AI/ML staly reprodukovatelnějšími, a tudíž přesnějšími a důvěryhodnějšími, je prvním krokem standardizace kanálu MLOps. I ti nejchytřejší datoví vědci mají své oblíbené technologie a knihovny, což znamená, že inženýrství funkcí a výsledné modely nejsou jednotné od člověka k člověku. Pomocí nástrojů, jako je MLflow, můžete standardizovat kanál MLOps a snížit tyto rozdíly.

Dalším způsobem, jak pomoci zlepšit reprodukovatelnost systémů AI/ML, je použití takzvaných „zlatých datových sad“. Jedná se o reprezentativní datové sady, které v podstatě fungují jako testy a validace nových modelů před jejich uvolněním do výroby.

2. Průhlednost

Jak bylo uvedeno dříve, mnoho modelů ML, zejména neuronových sítí, jsou černé skříňky. Aby byly zodpovědnější, musíme je učinit lépe interpretovatelnými. U jednoduchých systémů, jako jsou rozhodovací stromy, je docela snadné pochopit, jak a proč systém učinil určité rozhodnutí, ale jak přesnost a složitost systému AI stoupá, jeho interpretovatelnost často klesá.

Existuje nová oblast výzkumu zvaná „vysvětlitelnost“, která se snaží přinést transparentnost i do složitých systémů umělé inteligence, jako jsou neuronové sítě a hluboké učení. Tyto modely využívají proxy modely ke kopírování výkonu neuronové sítě, ale také se snaží poskytnout platná vysvětlení toho, jaké funkce jsou důležité.

To vše vede ke spravedlnosti; chcete vědět, proč bylo učiněno určité rozhodnutí, a ujistit se, že toto rozhodnutí je spravedlivé. Chcete také zajistit, aby nebyly brány v úvahu nevhodné funkce, aby se do vašeho modelu nevkradlo zkreslení.

3. Odpovědnost

Snad nejdůležitějším aspektem Responsible AI je odpovědnost. O tomto tématu se hodně mluví, dokonce i ve vládním sektoru, protože se zabývá tím, jaké politiky budou řídit výsledky AI. Tento přístup řízený politikou určuje, v jaké fázi by lidé měli být ve smyčce.

Odpovědnost vyžaduje robustní monitory a metriky, které pomohou vést tvůrce politik a řídit systémy AI/ML. Odpovědnost skutečně spojuje reprodukovatelnost a transparentnost, ale potřebuje účinný dohled v podobě etických komisí AI. Tyto výbory mohou zpracovávat politická rozhodnutí, rozhodovat o tom, co je důležité měřit, a provádět kontroly spravedlnosti.

4. Bezpečnostní

Bezpečnost AI se zaměřuje na důvěrnost a integritu dat. Když systémy zpracovávají data, chcete, aby byly v bezpečném prostředí. Chcete, aby byla data zašifrována jak v klidu ve vaší databázi, tak i při jejich volání prostřednictvím kanálu, ale zranitelnosti stále existují, zatímco jsou vkládány do modelu strojového učení jako prostý text. Technologie jako homomorfní šifrování řeší tento problém tím, že umožňují trénování strojového učení v šifrovaném prostředí.

Dalším aspektem je bezpečnost samotného modelu. Například útoky inverze modelu umožňují hackerům naučit se trénovací data, která byla použita k vytvoření modelu. Existují také modelové otravné útoky, které při tréninku vkládají do modelu špatná data a totálně poškozují jeho výkon. Testování vašeho modelu na nepříznivé útoky, jako jsou tyto, jej může udržet v bezpečí.

5. Soukromí

Google a OpenMined jsou dvě organizace, které v poslední době upřednostňují soukromí AI a OpenMined pořádal nedávnou konferenci právě na toto téma. S novými nařízeními, jako je GDPR a CCPA, a možná i dalšími, bude soukromí hrát ústřední roli v tom, jak trénujeme modely strojového učení.

Jedním ze způsobů, jak zajistit, že nakládáte s daty svých zákazníků způsobem s ohledem na soukromí, je použití federovaného učení. Tato decentralizovaná metoda strojového učení lokálně trénuje různé modely a poté agreguje každý model v centrálním centru, přičemž data uchovává v bezpečí, bezpečí a soukromí. Další metodou je zavedení statistického šumu, aby nedocházelo k úniku jednotlivých hodnot zákazníků. To vám umožní pracovat s agregací, takže data jednotlivce jsou nedotčená a nejsou k dispozici pro algoritmus.

Zachování odpovědnosti AI

 V konečném důsledku je odpovědnost AI na každé organizaci, která navrhuje systémy AI/ML. Záměrným prosazováním technologií v rámci každého z těchto pěti aspektů Responsible AI můžete nejen těžit ze síly umělé inteligence, ale můžete tak činit důvěryhodným a přímočarým způsobem, který uklidní vaši organizaci, zákazníky a regulační orgány.

Dattaraj Rao, hlavní datový vědec ve společnosti Perzistentní systémy, je autorem knihy „Keras to Kubernetes: Cesta modelu strojového učení do výroby“. Ve společnosti Persistent Systems vede Dattaraj výzkumnou laboratoř AI, která zkoumá nejmodernější algoritmy v oblasti počítačového vidění, porozumění přirozenému jazyku, pravděpodobnostního programování, posilování učení, vysvětlitelné umělé inteligence atd. a demonstruje použitelnost v oblastech zdravotnictví, bankovnictví a průmyslu. Dattaraj má 11 patentů v oblasti strojového učení a počítačového vidění.