Myslitelé
Proč by společnosti měly následovat hodnotami založený přístup k řízení AI

V září 2025 se poprvé sešli všichni členové Spojených národů, aby diskutovali o mezinárodním řízení AI; mnozí z nich byli opět zastoupeni v únoru na summitu AI Impact Summit v Dillí. Akce vedla k zahájení dvou nových orgánů zaměřených na řízení AI; ale bylo to, v nejlepším případě, symbolický úspěch.
Nové mechanismy OSN byly navrženy tak, aby zajistily konsenzus: vyhýbají se sporným oblastem, jako je vojenské využití AI, a postrádají jasné zdroje financování a pravomoci vynucování. To by nemělo být žádným překvapením pro zkušené pozorovatele. Dnešní OSN postrádá schopnost rychle se pohybovat nebo zajistit univerzální dodržování svých rozhodnutí, což z ní činí obtížné fórum pro skutečnou změnu.
To se hodí do dobře zavedeného vzorce. Navzdory mnoha rozptýleným pokusům o budování konsenzu o regulacích AI, nebyly uzavřeny žádné významné mezinárodní dohody, což vytvořilo prázdnotu, ve které jednotlivé země a bloky byly nuceny vyvinout své vlastní pravidla. Přesto je efektivní řízení AI zásadní, pokud chceme vidět jeho široké přijetí, důvěru veřejnosti a využití způsobem, který přináší trvalé sociální a ekonomické výhody
Vynálezejte a opravte
Pro globální společnosti, které staví a provozují systémy AI, je absence společných, dohodnutých mechanismů řízení problematická. Přejí si nasadit systémy AI po celém světě, ale žádná dvě jurisdikce se neřídí stejným sadou pravidel. Proto jsou místo toho nuceni vytvořit obecný rámec řízení kolem svého systému a poté jej přestavět od základu v každé zemi, ve které operují, aby zajistili soulad s místními zákony a předpisy. Tento přístup vytváří enormní množství extra práce, činí iniciativy AI nákladnější a náchylnější k prodlevám a oslabuje schopnost globálních firem realizovat ekonomické výhody a sdílet efektivní nástroje s uživateli všude.
Existuje však alternativa. Pro firmy, které chtějí zjednodušit svůj přístup, může být nejlepší možnost postavit rámec řízení AI, který zohledňuje společné etické principy napříč různými regiony, aby zajistily, že splňují vysoké standardy všude, pokud jde o ochranu individuální svobody, soukromí a bezpečnosti. Tato technika představuje mocný způsob, jak mohou podniky AI zvýšit důvěru veřejnosti ve svou technologii, posílit svou zákaznickou základnu a využít potenciální výhody AI pro společnost.
Šest klíčových hodnot pro řízení AI
Pro jakoukoli organizaci, která má zájem o přijetí hodnotami založeného přístupu k řízení AI, bych doporučil použít šest klíčových hodnot, které následujeme: odpovědnost, vysvětlitelnost, transparentnost, spravedlnost, bezpečnost a zpochybnitelnost.
Vybrali jsme tyto hodnoty, protože pokrývají všechny hlavní oblasti životního cyklu systému AI a protože již byly kodifikovány v různých mezinárodních a národních standardech souvisejících s AI, jako je ISO/IEC 42001 a Artificial Intelligence Playbook for the UK Government.
Abychom začali na začátku, odpovědnost znamená vědět, kdo je zodpovědný za co na každé fázi životního cyklu AI. Bez jasných vlastníků mohou být zanedbány důležité kontroly, protože žádná osoba nebo tým nemá konečnou zodpovědnost. Organizace by měly přiřadit seniorní, jmenované vlastníky – jako je jejich Chief AI Officer – k systémům AI a klíčovým fázím a použít model řízení založený na riziku, aplikující stejnou kontrolu na třetí strany jako na ty, které byly vyvinuty interně. To znamená pochopit podmínky dodavatelů, omezení a závazky stejně dobře jako své vlastní systémy.
Organizace pro ekonomickou spolupráci a rozvoj (OECD) to dobře zachytila ve svém pokynu pro pokročilou odpovědnost v AI, který doporučuje, aby organizace vytvořily „mechanismy pro začlenění procesu řízení rizik AI do širšího řízení organizace, což podporuje kulturu řízení rizik jak uvnitř organizací, tak po celém řetězci AI“.
Další je vysvětlitelnost. Organizace by měly být schopny ukázat jak systém AI dospěje k rozhodnutí. To vyžaduje mechanismy pro dokumentaci a stopování rozhodování, spolu s jasnými záznamy o návrhu systému, tréninkových datech a rozhodovacích procesech. Všechny tyto faktory dohromady umožňují týmům pochopit původ informací od vzniku systému až po jeho nasazení.
Spravedlnost se zaměřuje na zajištění toho, aby systémy AI produkovaly rovné výsledky a neopakovaly nebo nezvyšovaly existující předpojatosti. Bez úmyslných kontrol mohou systémy způsobit újmu tím, že poskytují zkreslené výsledky – zvláště problematické v oblastech s vysokým dopadem, jako je nábor, zdravotní péče a trestní spravedlnost. Aby se tomu zabránilo, organizace by měly implementovat opatření pro detekci předpojatosti, pravidelně přezkoumávat výstupy napříč relevantními skupinami a navrhnout rámce řízení, které mohou akomodovat místní požadavky na nediskriminaci. V praxi to znamená stavět systémy, které splňují nejvyšší právní standard, se kterým se pravděpodobně setkají, včetně závazků podle zákonů, jako je Zákon o rovnosti 2010 ve Spojeném království a Charta základních práv EU.
Transparentnost spočívá v tom, aby uživatelé a regulátoři měli jasnou představu. Lidé by měli rozumět, kdy se používá AI, jakou roli hraje v rozhodování a jaká data ji podporují. Praktickým výchozím bodem je standardizace dokumentace napříč systémy AI, podporovaná interními nástroji, jako jsou karty modelů: krátké dokumenty poskytované s modely strojového učení, které vysvětlují kontext, ve kterém jsou modely určeny k použití, podrobnosti o postupech hodnocení výkonu a další relevantní informace. Bez transparentnosti nemohou uživatelé napadnout nespravedlivé výsledky, regulátoři nemohou zasáhnout účinně a škodlivé dopady mohou být utajeny.
Bezpečnost spočívá v ochraně systémů AI před neoprávněným přístupem, manipulací nebo neúmyslným chováním. Pokud je bezpečnost slabá, AI systémy mohou ohrozit organizace, uživatele a jejich data, vystavují je finančním a reputačním škodám. Organizace by měly definovat prahové hodnoty výkonu a přesnosti, testovat systémy za realistických podmínek a zahrnovat testování červených týmů, aby identifikovaly zranitelnosti.
Nakonec zpochybnitelnost zajišťuje, aby lidé měli jasný a přístupný způsob, jak napadnout nebo odvolat se proti AI řízeným rozhodnutím. Bez ní nemají postižení uživatelé žádné opravné prostředky a problémy se možná nikdy neobjeví nebo nevyřeší. Organizace by měly poskytovat kanály pro hlášení na místě použití, přiřadit seniorní vlastníky k řízení stížností a zajistit, aby systémy mohly být pozastaveny, přezkoumány nebo aktualizovány podle potřeby.
Jaké jsou výhody hodnotami založeného rámce?
Existují dva mocné důvody pro přijetí hodnotami založeného přístupu k řízení AI. První je, že ti, kteří staví a nasazují systémy AI, mají etickou odpovědnost vůči lidem a organizacím, kterých se to týká; a druhá je, že je to účinnější způsob, jak realizovat slibované výhody AI v praxi.
Uživatelé systémů AI, ať už firemní nebo individuální, předpokládají, že jejich tvůrci nebudou zneužívat osobní data nebo je vystavovat zbytečným rizikům. Když organizace poruší tuto důvěru, stává se pro ně velmi obtížné tyto uživatele udržet. Nakonec, pokud lidé nevěří systémům AI a nevidí jasně jejich přínosy, nebudou souhlasit s jejich zavedením. To povede k větší sociální a ekonomické rozdělení a zmeškáme mnoho příležitostí, které tato technologie nabízí.
Na druhé straně společnosti, které aplikují hodnotami založený rámec všude – včetně regionů s méně přísnými požadavky na řízení – mohou prokázat zákazníkům, investorům a regulátorům, že drží sami sebe na vyšší standard než základní dodržování předpisů. To buduje důvěru, angažovanost a nakonec obchodní úspěch.
Silné řízení AI je tvůrcem hodnoty, ne břemenem dodržování předpisů. Umožňuje firmám uvádět nové produkty na trh rychleji, snižovat jejich expozici riziku a škálovat svá řešení napříč několika trhy s jistotou.
Zpráva McKinsey Stav AI zjistila, že „dozor CEO nad řízením AI… je jedním z prvků, které jsou nejvíce spojeny s vyšším self-reported bottom-line dopadem z používání generické AI organizací,” což podtrhuje obchodní výhody takového přístupu. V tomto ohledu stavění silných etických rámců do systémů AI představuje osvícené sebezájem.
Mimo všechno tohle je to prostě správné věc udělat. Postavili jsme naši globální etickou politiku AI kolem stejného principu: že pokročilé technologie musí sloužit lidem a společnosti, ne naopak. To odráží širší vizi Společnosti 5.0: lidsky orientovaný model inovace, který se snaží kombinovat ekonomický pokrok s řešením sociálních výzev.
Pokud mají technologie, jako je AI, podporovat šťastnější a harmoničtější společnost, musí být postaveny na silných etických základech. To začíná zaměřením se nejen na standardy, které organizace musí splňovat, ale také na standardy, které chtějí dosáhnout.












