Connect with us

Už Neděláme AIs Soulad. Děleme Civilizace

Umělá inteligence

Už Neděláme AIs Soulad. Děleme Civilizace

mm

Po mnoho let byla hlavní otázkou v oblasti umělé inteligence (AI), jak sladit modely AI s lidskými hodnotami. Výzkumníci se snažili definovat bezpečnostní pravidla, etické zásady a kontrolní mechanismy, které řídí rozhodnutí AI. Tato práce dosáhla významného pokroku. Ale nyní, když tyto systémy AI rostou stále více schopné a rozšířené, se zaměřuje se na sladění začíná měnit. Co začalo jako výzva sladit jeden model s jednou sadou instrukcí, se nyní stalo mnohem větší výzvou sladit celé civilizace, které tyto systémy používají na globální úrovni. AI již není jen nástroj. Evoluuje do prostředí, kde společnosti pracují, komunikují, vyjednávají a soutěží. V důsledku toho sladění již není technickým problémem. Stalo se civilizačním problémem. V tomto článku vysvětluji, proč sladění již není jen o modelech a proč musíme začít myslet v termínech civilizací místo strojů. Také diskutuji, jak tento posun ovlivňuje naše odpovědnosti a co to znamená pro globální spolupráci.

Čí Hodnoty Skutečně Reprezentuje AI?

Pokud se zeptáte AI na citlivou historickou událost, jeho odpověď závisí na datech, které studoval. Pokud tato data pocházejí většinou z westerních internetu, odpověď bude mít westerní předpojatost. Bude upřednostňovat individualismus, otevřenou řeč a demokratické ideály. Tyto jsou dobré hodnoty pro mnoho lidí. Ale nejsou jediné hodnoty na světě.

Uživatel v Singapuru, uživatel v Rijádu a uživatel v San Francisku mají různé definice toho, co je “užitečné” a co je “škodlivé.” V některých kulturách je sociální harmonie důležitější než absolutní svoboda projevu. V jiných je respekt k hierarchii důležitější než narušení.

Když společnost ze Silicon Valley používá “Reinforcement Learning from Human Feedback” (RLHF), najímají lidi, aby ohodnotili odpovědi AI. Ale kdo jsou tito lidé? Jaké jsou jejich přesvědčení? Pokud sladíte model s americkými standardy, náhodou budujete americký kulturní export. Budujete digitálního diplomata, který vynucuje pravidla jedné konkrétní civilizace na zbytek světa.

Vzestup Smyček Odpětné Vazby

Výzva není jen to, že AI odráží přesvědčení jedné kultury. Je to, jak tato přesvědčení mohou změnit nás. Moderní systémy AI mají potenciál tvarovat chování jednotlivců, organizací a dokonce i národů. Mohou ovlivnit, jak přemýšlíme, pracujeme, důvěřujeme a soutěžíme. To vytváří smyčky zpětné vazby mezi systémy AI a lidskou společností; trénujeme AI a AI tvaruje, jak přemýšlíme a jednáme. Tyto smyčky se stávají silnějšími, jak se AI stává více všudypřítomnou. Abychom viděli, jak tato smyčka funguje, jsou zde dva příklady:

  • Velká nasazení AI mění sociální chování, a sociální chování mění data, která trénují nové systémy. Například algoritmus doporučení může tvarovat, co lidé sledují, čtou a věří. Nástroje produktivity mění, jak týmy spolupracují a jak studenti učí. Tyto posuny v chování mění datové vzorce ve formě různých zvyklostí sledování, vzorců komunikace na pracovišti nebo stylů psaní. Když tato data proudí do budoucích trénovacích dat, modely upravují svá předpoklad a výstupy odpovídajícím způsobem. Chování lidí tvaruje modely, a modely, naopak, tvarují chování lidí.
  • Automatizované rozhodovací nástroje ovlivňují veřejnou politiku, a veřejná politika ovlivňuje budoucí trénování modelů. Například mnoho vlád nyní používá AI, aby navrhly, kam alokovat zdroje, jako je identifikace, které čtvrtě potřebují více zdravotní podpory nebo které oblasti mohou vidět vyšší riziko zločinu. Když se politici rozhodnou podle těchto doporučení, výsledky těchto rozhodnutí se později stávají součástí nových dat. V průběhu času se politická rozhodnutí tvarovaná AI stávají tvůrci další generace modelů AI.

Jakmile uznáte tuto smyčku zpětné vazby, stává se zřejmým, že AI postupně tvaruje a sladění civilizací. V důsledku toho se národy začínají ptát: Jak mohou zajistit své hodnoty, zatímco integrují AI do svých společností a institucí?

Vznik Suverénního AI

Tato výzva sladění vyvolala významnou reakci ze strany vlád po celém světě. Národy si uvědomily, že spoléhání se na dovezené AI je rizikem pro jejich suverenitu. Nemohou si dovolit, aby jejich občané byli vzděláváni, informováni a poradováni černou skříňkou, která myslí jako cizinec.

Toto uvědomění vedlo ke vzniku “Suverénního AI.” Francie investuje silně do budování modelů, které mluví francouzsky a rozumí francouzskému zákonu a kultuře. Indie buduje domácí modely AI, aby zajistily své kulturní hodnoty. Spojené arabské emiráty a Čína budují modely AI sladěné se svými vlastními národními vize.
Toto je nová zbrojní závod. Je to závod o kontrolu narativu. Civilizace, která nemá své vlastní AI, nakonec ztratí svou vlastní paměť. Pokud vaše děti položí stroji otázku a stroj odpoví logikou jiné kultury, vaše kultura začíná erodovat. Toto uvědomění však může vést ke vzniku různých digitálních bloků. Můžeme skončit s westerním AI, čínským AI, indickým AI a tak dále. Tyto systémy budou fungovat s jinými fakty a jinými morálními kompasami. Tyto vývojové trendy ukazují, že pokud chceme vytvořit jeden, skutečně sladěný model AI, musíme nejdříve najít způsob, jak sladit civilizace.

Potřebujeme Diplomatické AI

Tradiční sladění předpokládá, že model může být sladěn pečlivým trénováním, vyvoláním a zábranami. Tento způsob myšlení pochází z technického myšlení raného výzkumu AI bezpečnosti. Ale i perfektní modelové sladění nemůže vyřešit výzvy sladění civilizací. Sladění nemůže zůstat stabilní, když společnosti táhnou v opačných směrech. Pokud mají země, společnosti a komunity rozporuplné cíle, budou tlačit systémy AI, aby odrážely tyto konflikty. Tyto limity ukazují, že sladění není pouze technickým problémem. Je to problém governance, kultury a koordinace. A tyto problémy vyžadují nejen odborníky nebo vývojáře. Zahrnují celé civilizace.

Jak tedy postupujeme? Pokud přijmeme, že univerzální sladění je nemožné, musíme změnit svou strategii. Musíme přestat hledat technické řešení filozofického problému. Musíme začít myslet jako diplomaté. Budeme muset vybudovat protokoly pro “Civilizační Sladění.” Musíme zjistit, jak AI může respektovat přesvědčení a hodnoty společnosti, aniž by jí vnucoval přesvědčení jiných kultur. Jinými slovy, potřebujeme digitální Organizaci spojených národů pro naše algoritmy.

To vyžaduje transparentnost. V současné době vlastně nevíme, jaké hodnoty jsou skryty v hlubokých vrstvách neuronové sítě. Vidíme pouze výstup. Abychom sladili civilizace, musíme být jasně o “Ústavě” každého modelu. Model by měl být schopen prohlásit svou předpojatost. Měl by být schopen říci: “Jsem trénován na těchto datech, s těmito bezpečnostními pravidly, upřednostňujících tyto hodnoty.” Teprve když je předpojatost viditelná, můžeme důvěřovat systému. Uživatel by měl být schopen přepínat mezi perspektivami. Měli byste být schopni položit otázku a vidět, jak “westerní” model odpoví ve srovnání s “východním” modelem. To by proměnilo AI na nástroj pro pochopení, spíše než na nástroj pro indoktrinaci.

Podstatné Závěr

Strávili jsme příliš mnoho času starostí o Terminátora. Skutečné riziko není to, že robot nás zničí. Skutečné riziko je to, že robot nás způsobí zapomenout, kdo jsme. Sladění není kód, který můžeme napsat jednou a zapomenout. Je to neustálý proces vyjednávání s modely AI, aby zůstaly sladěny s našimi přesvědčeními a hodnotami. Je to politický akt. Když vstupujeme do této další fáze inteligentní éry, musíme se dívat za obrazovku. Musíme zvažovat, jak AI interpretuje naší historii, naše hranice a naše přesvědčení. Budujeme mysl, která nám pomůže řídit svět. Musíme zajistit, aby tyto mysli respektovaly rozdíly mezi civilizacemi.

Dr. Tehseen Zia je docent s trvalým úvazkem na COMSATS University Islamabad, držitel titulu PhD v oblasti AI z Vienna University of Technology, Rakousko. Specializuje se na umělou inteligenci, strojové učení, datové vědy a počítačové vidění, a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní výzkumník a působil jako konzultant pro umělou inteligenci.