Spojte se s námi

Myšlenkové vůdce

Pohybujte se rychle, ale nic nekazte: Jak vyvážit zodpovědné zavádění umělé inteligence a inovace

mm

Podle nedávného globálního průzkumu z McKinseyPřestože 78 % organizací nyní používá umělou inteligenci alespoň v jedné obchodní funkci, pouze 13 % najalo specialisty na dodržování předpisů v oblasti umělé inteligence a pouhých 6 % má ve svém týmu specialisty na etiku v oblasti umělé inteligence. 

To je upřímně řečeno bezohledné chování.

Ačkoli jsem v nedávné minulosti byl velkým zastáncem hesla „rychle se pohybuj a nič“ ze Silicon Valley, nemůžeme si dovolit být tak bezstarostní s umělou inteligencí – technologií, která je silnější než cokoli, co jsme kdy viděli, a roste rychlostí světla.

Přijetí umělé inteligence bez smysluplného zábradlí je přesně ten druh rychlého ořezávání zatáček, který se zaručeně nakonec obrátí proti vám a riskuje zlomení. všeStačí jen jeden incident zkreslení nebo zneužití umělé inteligence, aby se zničily roky budování reputace značky. 

Ačkoli si je mnoho CIO a CTO těchto rizik vědomo, zdá se, že fungují s předpokladem, že regulátoři nakonec zasáhnou a ušetří jim nutnost zavádět si vlastní rámce, což vede k velkému množství diskusí o riziku s velmi malým skutečným dohledem. 

I když nepochybuji o tom, že se předpisy nakonec objeví, nejsem si tak jistý, že budou zavedeny v dohledné době. ChatGPT byl zaveden zhruba před třemi lety a teprve teď začínáme vidět věci, jako je zasedání Senátu pro soudnictví. chatboti a bezpečnostní rizika Realita je taková, že může trvat roky, než se dočkáme nějaké smysluplné regulace. 

Spíše než aby se to bralo jako výmluva k otálení s interním řízením, mělo by to firmy vést k proaktivnějšímu přístupu. Zejména s ohledem na to, že až konečně dojde k přijetí předpisů, budou se společnosti bez vlastních rámců snažit dodatečně zavést soulad s předpisy. Přesně to se stalo, když byly přijaty GDPR a CCPA. 

Stejně jako se na nedbalé startupy z počátku 20. století nyní kladou vyšší nároky, protože se z nich stali technologickí giganti, musíme i my kolektivně dozrát v našem přístupu k zodpovědnému zavádění umělé inteligence. 

U zodpovědného nasazení umělé inteligence neexistuje pravidlo „kup teď, plať později“ – začněte hned.

Prvním krokem k zodpovědnějšímu přístupu k umělé inteligenci je přestat čekat na regulační orgány a stanovit si vlastní pravidla. Ať už si myslíte, že dnes získáte jakýkoli náskok, který získáte obcházením ochranných opatření, v budoucnu se vám to jen vymstí, až budete čelit extrémně nákladnému a rušivému procesu modernizace. 

Pro mnohé je samozřejmě problém nevědět, kde začít. Moje společnost nedávno dotazovaných 500 CIO a CTO ve velkých podnicích a téměř polovina (48 %) uvedla jako výzvu pro zajištění etického používání umělé inteligence „určení toho, co představuje odpovědné používání nebo nasazení umělé inteligence“. 

Jedním z jednoduchých míst, kde začít, je rozšířit své zaměření nad rámec pouhých funkcí, které umělá inteligence umožňuje, a zvážit možná rizika. Například ačkoli použití umělé inteligence může zaměstnancům ušetřit čas, otevírá také možnost sdílení obrovského množství osobních údajů (PII) nebo obchodních tajemství s nelicencovanými a neschválenými LLM.

Každá digitální společnost je dnes obeznámena s životním cyklem vývoje softwaru (SDLC), který poskytuje rámec pro tvorbu kvalitních produktů. Osvědčené postupy v oblasti správy umělé inteligence by měly být součástí tohoto každodenního pracovního postupu, aby se zodpovědné rozhodování stalo součástí rutiny, a nikoli jen dodatečnou záležitostí. 

Měl by být zřízen řídící orgán, jako je etická komise nebo správní rada, který definuje standardy pro to, jak aplikace umělé inteligence v organizaci skutečně vypadají, a podobně definuje metriky pro sledování a udržování těchto standardů. Funkčně se jedná o správu nástrojů a modelů umělé inteligence, schvalování řešení, řízení rizik, sladění předpisů a standardů a transparentní komunikaci. Ačkoli se technicky může jednat o „nový“ proces, příliš se neliší od osvědčených postupů v oblasti dat a udržování kybernetické bezpečnosti a lze jej automatizovat, aby se zajistila včasná detekce jakýchkoli problémů. 

Samozřejmě ne všechna rizika vyžadují stejnou úroveň pozornosti, proto je také důležité vytvořit stupňovitý proces řízení rizik, aby se váš tým mohl zaměřit na to, co bylo definováno jako vysoce prioritní. 

A konečně, a to je nejdůležitější, je naprosto zásadní jasná a transparentní komunikace o postupech správy a řízení, a to jak interně, tak externě. To zahrnuje udržování aktivních dokumentů o standardech správy a řízení a poskytování průběžného školení, aby týmy byly informované. 

Přestaňte vnímat správu věcí veřejných jako hrozbu pro inovace

Je velmi možné, že skutečnou hrozbou pro zodpovědná AI je přesvědčení, že řízení a inovace jsou ve vzájemném rozporu. Data z našeho průzkumu ukázala, že ohromujících 87 % CIO a CTO se domnívalo, že přílišná regulace by omezila inovace.

Správa věcí veřejných by se však měla chápat jako strategický partner, ne jako nějaká inovační překážka. 

Jedním z důvodů, proč je řízení vnímáno jako třecí síla, která zpomaluje dynamiku, je to, že se často nechává na konec vývoje produktu, ale součástí procesu by měla být i ochranná opatření. Jak již bylo zmíněno výše, řízení lze zabudovat do sprintových cyklů, aby produktový tým mohl postupovat rychle, zatímco paralelně probíhají automatizované kontroly spravedlnosti, zaujatosti a souladu s předpisy. Z dlouhodobého hlediska se to vyplácí, protože zákazníci, zaměstnanci a regulační orgány se cítí sebevědoměji, když vidí odpovědnost zabudovanou od samého začátku.

A to prokazatelně přináší finanční odměny. Články vyžadující průzkum ukázala, že organizace s dobře implementovanými rámci pro správu dat a umělé inteligence zaznamenávají zlepšení finanční výkonnosti o 21–49 %. Neschopnost zavést tyto rámce však s sebou nese i své důsledky. Podle téže studie většina organizací (60 %) do roku 2027 „nedokáže realizovat očekávanou hodnotu svých případů užití umělé inteligence kvůli nekonzistentním rámcům etické správy“. 

Výhradou k argumentu, že řízení nemusí být na úkor inovací, je, že zapojení právních týmů do těchto diskusí má tendenci věci zpomalovat. Z mých zkušeností však vytvoření týmu pro řízení, rizika a dodržování předpisů (GRC) výrazně přispívá k udržení plynulého a rychlého chodu věcí tím, že slouží jako most mezi právním a produktovým týmem. 

Pokud je tým GRC dobře řízen, buduje pozitivní vztahy s právním týmem, slouží jako jejich oko v terénu a poskytuje jim potřebné zprávy. Zároveň spolupracuje s vývojovým týmem na zmírnění budoucích rizik soudních sporů a pokut. To v konečném důsledku dále posiluje fakt, že investice do správy a řízení v rané fázi je nejlepším způsobem, jak zajistit, aby nenarušovala inovace. 

Vytvořit systémy dohledu a správy, které lze škálovat 

Přestože mnoho dotázaných CIO a CTO mělo pocit, že regulace by mohly omezit inovace, podobně vysoké procento (84 %) očekávalo, že jejich společnost v příštích 12 měsících zvýší dohled nad umělou inteligencí. Vzhledem k pravděpodobnosti, že se integrace umělé inteligence budou v průběhu času dále rozšiřovat a škálovat, je stejně důležité, aby se s nimi mohly škálovat i systémy správy a řízení. 

V raných fázích implementace umělé inteligence v podnicích často vidím, že různé jednotky v rámci firmy pracují izolovaně, takže souběžně provozují různá nasazení a mají různé vize toho, co „zodpovědná umělá inteligence“ obnáší. Aby se těmto nesrovnalostem předešlo, bylo by moudré, kdyby společnosti zřídily specializované centrum excelence v oblasti umělé inteligence, které by spojovalo technické, compliance a obchodní odborné znalosti. 

Centrum excelence pro umělou inteligenci by zavedlo jak celofiremní standardy, tak i stupňovité schvalovací procesy, kde existuje postupná cesta pro případy použití s ​​nízkým rizikem. To by zase udrželo rychlost a zároveň zajistilo, aby vysoce riziková nasazení prošla formálnějšími bezpečnostními kontrolami. Podobně by Centrum excelence mělo také stanovit klíčové ukazatele výkonnosti (KPI) bezpečnosti umělé inteligence pro vrcholové manažery, aby se odpovědnost neztratila v každodenních obchodních funkcích. 

Aby se to ale stalo realitou, manažeři potřebují lepší přehled o sledování ukazatelů řízení. Dashboardy, které by zobrazovaly data o těchto ukazatelích v reálném čase, by byly mnohem efektivnější než současná norma statických zpráv o shodě s předpisy, které jsou okamžitě zastaralé a často nepřečtené. V ideálním případě by společnosti také vytvářely registry rizik umělé inteligence, stejným způsobem, jakým již sledují rizika kybernetické bezpečnosti, a zároveň by si uchovávaly auditní záznamy, které by odrážely, kdo implementaci ML/AI vytvořil, jak byla testována a jak si v průběhu času vede. 

Nejdůležitějším poznatkem je, že zodpovědná umělá inteligence vyžaduje, aby správa byla průběžným procesem. Nejde jen o schvalování při spuštění, ale o průběžné sledování po celou dobu životního cyklu modelu. Proto je klíčové školení. Vývojáři, technologové a vedoucí pracovníci by měli být proškoleni v odpovědných postupech v oblasti umělé inteligence, aby mohli včas odhalit problémy a udržovat vysoké standardy správy i v průběhu vývoje systémů. Díky tomu bude nasazení umělé inteligence jistě důvěryhodnější, efektivnější a ziskovější – aniž by se v tomto procesu muselo cokoli narušit.

Skylar Roebuck má více než 15 let zkušeností jako produktový lídr a expert na digitální transformaci v nejdůvěryhodnějších světových korporacích. V současné době působí jako technický ředitel (CTO) ve společnosti... Vyřešeno, poradenská a digitální inženýrská firma zaměřená na umělou inteligenci.