výhonek Jak mohou společnosti vytvářet zodpovědnou a transparentní umělou inteligenci – myšlenkoví lídři – Unite.AI
Spojte se s námi

Myšlenkové vůdce

Jak mohou společnosti vytvářet zodpovědnou a transparentní umělou inteligenci – myšlenkové lídry

mm

Zveřejněno

 on

By Eric Paternoster, generální ředitel společnosti Infosys Public Services

Sundar Pichai, generální ředitel mateřské společnosti Google Alphabet, popsal vývoj v oblasti umělé inteligence jako „hlubší než oheň nebo elektřina“ a COVID-19 přinesl novou naléhavost při uvolnění příslibu této technologie. Aplikace umělé inteligence jsou nyní pevně v centru pozornosti, zlepšují léčbu COVID, sledují potenciální přenašeče COVID a nasazují chatboty v reálném čase pro uživatele maloobchodních webů s problémy s nabídkou. Tyto aplikace ukázaly, že umělá inteligence zlepšuje odolnost podniku a je přínosem pro širší společnost.

Takže spolu s „cloud-native“ může být módním slovem posledního čtvrtletí jen „AI-first Transformation“, což je termín, o kterém odborníci v oboru věří, že bude platit i poté, co COVID zmizí. Pro mnoho firem je příslib nižších nákladů (tj. algoritmy dodavatelského řetězce, které spojují nabídku s poptávkou) a obdivuhodného zvýšení produktivity (tj. když banky používají ověřování dokladů a identity v reálném čase) příliš dobrý na to, aby se ignorovaly.

Proč AI-First Transformation?

V transformaci AI-first podnik používá AI jako polární hvězdu a snaží se ji používat nejen inteligentně, ale také způsobem, který ovlivňuje rozhodnutí lidí, procesů a systémů ve velkém měřítku. Nalaďuje organizace na měnící se dynamiku mezi zaměstnanci, partnery a zákazníky. To jim umožňuje rychle se otáčet a plnit měnící se požadavky a zároveň vytvářet dlouhodobou konkurenční výhodu.

Ale ne všechny firmy jsou na stejné úrovni vyspělosti AI. Existují některé, které lze nazvat „konvenční skupinou AI“ nebo H1. Tyto firmy, které mají méně zkušeností a investic, obecně používají klasické algoritmy, jako je naivní Bayes, který existuje již 250 let, nebo náhodný les (vyvinutý Tin Kam Ho v roce 1995) k rozšíření fragmentované inteligence v rámci stávajících systémů. Taková použití umělé inteligence jsou striktně založená na pravidlech a jsou poměrně rigidní, postrádají schopnost zobecnit z pravidel, která objeví. Pak je tu „skupina hlubokého učení“ neboli H2. Tyto firmy využívají složitější AI, včetně neuronových strojových překladů a systémů založených na přepisu, aby těžily konverzační poznatky. Takové systémy mají větší sílu, ale není snadné vysvětlit, proč dělají věci, které dělají. Chybí jim také transparentnost. U těchto dvou skupin není používaná umělá inteligence často důvěryhodná nebo spolehlivá a může činit neobjektivní rozhodnutí, která firmě přinášejí negativní pozornost ze strany vládních orgánů, regulátorů a široké veřejnosti.

Tyto firmy musí nyní učinit kroky, aby své implementace AI posunuly o krok dále – do třetího tábora (H3), kde se AI samoučí a generuje. V tomto okamžiku jsou systémy AI částečně pod dohledem nebo dokonce bez dozoru. Jsou transparentní a dosahují „zdravého rozumu“ prostřednictvím multitaskingového učení. Tyto systémy přinášejí bohatší inteligenci a poskytují užitečné informace v reálném čase. To se děje prostřednictvím dobře spravované a řízené umělé inteligence, která je interpretovatelná a vysvětlitelná ve všech fázích.

Jak se dopracovat k zodpovědnější a transparentnější umělé inteligenci

Umělá inteligence se stále více používá ke správě škol, pracovních prostorů a dalších veřejných subjektů. V těchto nastaveních je důležitější než kdy jindy, aby umělá inteligence byla spravedlivá a transparentní. Jak však společnost pracuje na této explozi zavádění AI, regulační orgány poskytují omezené rady ohledně vhodného vývoje a nasazení technologií AI. Je tedy na společnostech, aby převzaly vedení. Širší technický průmysl musí zapojit finanční svaly a lidský kapitál do práce a transformovat počáteční implementace fragmentované umělé inteligence do účinných, kreativních, odpovědných a transparentních ekosystémů založených na inteligenci. Aby se firmy přesunuly do tohoto prostoru, měly by udělat následující čtyři věci:

  • Udržujte lidi ve smyčce: Modely umělé inteligence jsou často navrženy tak, aby fungovaly nezávisle na lidech. Lidský prvek je však v mnoha případech zásadní. Lidé musí přezkoumat rozhodnutí a vyvarovat se předsudků a chyb, které projekty AI často odsouvají. Dva případy použití zahrnují odhalování podvodů a případy, kdy je zapojeno vymáhání práva. Firmám doporučujeme najímat odborníky na umělou inteligenci pomalu, ale důsledně v průběhu času, aby se dostali na první cestu umělé inteligence.
  • Odstraňte zkreslené datové sady: Nezaujatý soubor dat je zásadním předpokladem pro vytvoření spolehlivých, spravedlivých a nediskriminačních modelů umělé inteligence. Abychom si uvědomili její důležitost, AI se používá pro výběr životopisů a kreditní hodnocení bankami a dokonce se dostala do některých soudních systémů. V tomto prostředí měly nekontrolované předsudky velmi reálné důsledky.
  • Ujistěte se, že rozhodnutí jsou vysvětlitelná: Tato funkce byla pokryta mnoha velkými zpravodajskými kanály a je to tak správně. XAI pomáhá vysvětlit, proč systém AI učinil určité rozhodnutí. Odhaluje, které vlastnosti modelu hlubokého učení byly použity více než jiné k vytvoření jeho predikce nebo hypotézy. Pochopení důležitosti funkce a schopnost zdůvodnit, jak jsou rozhodnutí přijímána, je zásadní pro použití případů, jako jsou autonomní vozidla a počítačové vidění používané v lékařských biopsiích.
  • Spolehlivě reprodukovat nálezy: Běžnou nutností ve výzkumných projektech, modely umělé inteligence by měly být konzistentní při poskytování předpovědí v průběhu času. Takové modely by neměly být při předložení nových údajů rozfázovány.

Tyto čtyři věci vytvoří transparentní ekosystémy založené na inteligenci a posunou se směrem k tomu, co nazýváme „živým podnikem“. Zde jsou přijímána nezaujatá, vysvětlitelná rozhodnutí v téměř reálném čase, přičemž celý podnik funguje jako vnímající organismus, který řídí lidé. Číst Bílá kniha Infosys Knowledge Institute se dozvědět více.

Eric Paternoster je generálním ředitelem společnosti Veřejné služby Infosys, Infosys dceřiná společnost zaměřená na veřejný sektor v USA a Kanadě. V této roli dohlíží na firemní strategii a realizaci pro ziskový růst a radí organizacím veřejného sektoru ohledně strategie, technologie a provozu. Působí také v představenstvech Infosys Public Services a McCamish dceřiné společnosti Infosys BPM.

Eric má více než 30 let zkušeností ve veřejném sektoru, zdravotnictví, poradenství a obchodních technologiích s mnoha firmami. Před svou současnou funkcí byl senior viceprezidentem a vedoucím obchodní jednotky pojišťovnictví, zdravotní péče a biologických věd, kde rozrostl obchod z 90 milionů USD na více než 700 milionů USD s více než 60 klienty v Americe, Evropě a Asii. Eric nastoupil do Infosysu v roce 2002 jako vedoucí obchodního poradenství pro východní USA a Kanadu.