Spojte se s námi

Umělá inteligence

Když agenti umělé inteligence začnou vytvářet umělou inteligenci: Exploze rekurzivní inteligence, na kterou nikdo není připraven

mm

Po celá desetiletí se umělá inteligence vyvíjela opatrnými, převážně lineárními kroky. Výzkumníci vytvářeli modely. Inženýři zlepšovali výkon. Organizace nasazovaly systémy pro automatizaci specifických úkolů. Každé vylepšení silně záviselo na lidském návrhu a dohledu. Tento vzorec se nyní láme. Systémy umělé inteligence tiše, ale rozhodně překračují hranici, kdy už nejsou jen nástroji postavenými lidmi. Stávají se samy staviteli.

Agenti umělé inteligence začínají navrhovat, vyhodnocovat a nasazovat další systémy umělé inteligence. Vytvářejí tak zpětnovazební smyčky, kde každá generace vylepšuje tu další. Tento posun se neoznamuje dramatickými titulky. Odehrává se prostřednictvím výzkumných prací, vývojářských nástrojů a podnikových platforem. Jeho důsledky jsou však hluboké. Když se inteligence může rekurzivně zlepšovat, pokrok se již neřídí lidskými časovými harmonogramy ani intuicemi. Zrychluje se.

Tento článek zkoumá, jak jsme se dostali do tohoto okamžiku, proč je rekurzivní inteligence důležitá a proč je na ni společnost připravena mnohem méně, než by měla být. Exploze inteligence, kdysi filozofická myšlenka, se nyní stala konkrétní inženýrskou výzvou.

Vývoj inteligenční exploze

Myšlenka, že stroj by mohl vylepšovat svou vlastní inteligenci, předchází moderní informatiku. Na začátku 60. let 20. století britský matematik I. J. Good Představený koncept „exploze inteligence„Jeho argumentace byla následující: Pokud by se stroj stal dostatečně inteligentním, aby vylepšil svůj vlastní design, byť jen nepatrně, vylepšená verze by byla lepší ve vylepšování té další. Tento cyklus by se mohl rychle opakovat, což by vedlo k růstu daleko za hranicemi lidského chápání nebo kontroly. V té době se jednalo o filozofický myšlenkový experiment, o kterém se diskutovalo spíše v teorii než v praxi.

O několik desetiletí později získala tato myšlenka technické opodstatnění díky práci počítačového vědce Jürgena Schmidhubera. Jeho návrh Gödelův stroj popsal systém, který by mohl přepsat jakoukoli část svého vlastního kódu za předpokladu, že by mohl formálně prokázat, že tato změna zlepší jeho budoucí výkon. Na rozdíl od tradičních učebních systémů, které upravují parametry v rámci pevných architektur, mohl Gödelův stroj měnit svá vlastní pravidla učení. Ačkoli je tato práce stále teoretická, přeformulovala explozi inteligence jako něco, co by bylo možné studovat, formalizovat a nakonec vytvořit.

Konečný posun od teorie k praxi nastal s nástupem moderních agentů s umělou inteligencí. Tyto systémy negenerují pouze výstupy v reakci na pokyny. Plánují, uvažují, jednají, pozorují výsledky a v průběhu času upravují chování. S nástupem agentních architektur se exploze inteligence přesunula z filozofie do inženýrství. Rané experimenty, jako například Darwin Gödelův stroj koncepty naznačují systémy, které se vyvíjejí prostřednictvím iterativního sebezdokonalování. To, co tento okamžik odlišuje, je rekurze. Když agent umělé inteligence může vytvářet a zdokonalovat další agenty, učí se z každé iterace a zlepšování se spojuje.

Když agenti umělé inteligence začnou vytvářet umělou inteligenci

Tuto transformaci pohánějí dva hlavní trendy. Prvním je vzestup agentních systémů umělé inteligence. Tyto systémy sledují cíle po delší dobu, rozdělují úkoly na kroky, koordinují nástroje a přizpůsobují se na základě zpětné vazby. Nejsou to statické modely. Jsou to procesy.

Druhým trendem je automatizované strojové učení. Nyní existují systémy, které dokáží navrhovat architektury, ladit hyperparametry, generovat trénovací kanály a dokonce navrhovat nové algoritmy s minimálním lidským zásahem. Když se agentní uvažování spojí s automatizovaným vytvářením modelů, umělá inteligence získá schopnost vytvářet umělou inteligenci.

Toto již není hypotetický scénář. Autonomní agenti, jako například AutoGPT demonstrují, jak může jediný cíl spustit cykly plánování, realizace, hodnocení a revize. Ve výzkumném prostředí systémy jako Sakana AI's Scientist-v2 si AlphaEvolve od DeepMind ukažte agentům, jak navrhují experimenty, algoritmy a zdokonalují řešení pomocí iterativní zpětné vazby. hledání neuronové architekturySystémy umělé inteligence již objevují modelové struktury, které konkurují nebo překonávají sítě navržené člověkem. Tyto systémy nejen řeší problémy. Zlepšují mechanismy používané k řešení problémů. Každý cyklus vytváří lepší nástroje, které umožňují lepší cykly.

Pro rozšíření tohoto procesu se výzkumníci a firmy stále více spoléhají na orchestrátor architektury. Centrální metaagent obdrží cíl na vysoké úrovni. Rozloží úkol na dílčí problémy, generuje specializované agenty pro jejich řešení, vyhodnotí výsledky pomocí reálných dat a integruje nejlepší výsledky. Špatné návrhy jsou zahozeny a ty úspěšné jsou posíleny. Postupem času se orchestrátor zlepšuje v navrhování samotných agentů.

Přestože přesný časový harmonogram, kdy agenti umělé inteligence plně vybudují a vylepší další systémy umělé inteligence, zůstává nejistý, současné výzkumné trajektorie a hodnocení od předních Výzkumníci AI si praktici naznačují, že přechod se blíží rychleji, než mnozí očekávají. První, omezené verze této funkce se již objevují ve výzkumných laboratořích a podnikových nasazeních, kde agenti začínají navrhovat, vyhodnocovat a zdokonalovat jiné systémy s omezeným zapojením člověka.

Vznik nepředvídatelnosti

Rekurzivní inteligence s sebou přináší výzvy, kterým tradiční automatizace nikdy nečelila. Jednou z těchto výzev je nepředvídatelnost na úrovni systému. Když interaguje mnoho agentů, jejich kolektivní chování se může odchylovat od záměrů, které stojí za jejich individuálními návrhy. Tento jev je známý jako emergentní chování.

Vznik nevzniká z jediné chybné složky, ale z interakcí mezi mnoha kompetentními komponentami. Uvažujme automatizované obchodní systémy. Každý obchodní agent se může řídit racionálními pravidly navrženými tak, aby maximalizoval zisk v rámci omezení. Pokud však tisíce takových agentů interagují vysokou rychlostí, mohou se vytvořit zpětnovazební smyčky. Reakce jednoho agenta může spustit reakci jiného, ​​která může spustit další, dokud se systém nedestabilizuje. K krachům trhu může dojít, aniž by kterýkoli z agentů selhal. Toto selhání není způsobeno zlým úmyslem. Je důsledkem nesouladu mezi lokální optimalizací a cíli celého systému. Stejná dynamika se může vztahovat i na jiné oblasti.

Krize multiagentního sladění

Tradiční výzkum sladění umělé inteligence se zaměřoval na sladění jednoho modelu s lidskými hodnotami. Otázka byla jednoduchá: jak zajistíme, aby se tento jeden systém choval tak, jak zamýšlíme? Tato otázka se stává... výrazně těžší když systém obsahuje desítky, stovky nebo tisíce interagujících agentů. Sladění jednotlivých agentů nezaručuje sladěné chování systému. I když každá komponenta dodržuje svá pravidla, kolektivní výsledek může být škodlivý. Stávající bezpečnostní metody nejsou dobře vhodné k detekci nebo prevenci těchto selhání.

Bezpečnostní rizika se také množí. Napadený agent v multiagentové síti může otrávit informace, na které se ostatní agenti spoléhají. Jediné poškozené datové úložiště může šířit nesprávné chování v celém systému. Zranitelnosti infrastruktury, které ohrožují jednoho agenta, se mohou kaskádovitě šířit a ohrozit základní modely. Oblast útoku se rozšiřuje s každým nově přidaným agentem.

Mezitím se propast ve správě věcí veřejných neustále prohlubuje. Výzkum z Microsoft a další organizace zjistily, že pouze zhruba jedna z deseti společností má jasnou strategii pro řízení Identity agentů umělé inteligence a oprávnění. Očekává se, že do konce letošního roku bude existovat přes čtyřicet miliard autonomních identit. Většina z nich funguje s širokým přístupem k datům a systémům, ale bez bezpečnostních protokolů používaných pro lidské uživatele. Systémy se rychle vyvíjejí. Dohledové mechanismy nikoli.

Ztráta dohledu

Nejzávažnějším rizikem, které přináší rekurzivní sebezdokonalování, není samotná schopnost, ale postupná ztráta smysluplného lidského dohledu. Přední výzkumné organizace aktivně vyvíjejí systémy, které dokáží upravovat a optimalizovat své vlastní architektury s minimálním nebo žádným lidským zapojením. Každé vylepšení umožňuje systému produkovat schopnější nástupce, čímž vzniká zpětnovazební smyčka bez bodu, kdy by lidé nadále spolehlivě drželi vše pod kontrolou.

S tím, jak se snižuje dohled ze strany člověka v cyklu, se důsledky stávají závažnými. Když cykly zlepšování běží rychlostí stroje, lidé již nemohou kontrolovat každou změnu, rozumět každému návrhovému rozhodnutí ani zasahovat dříve, než se malé odchylky promění v systémová rizika. Dohled se přesouvá z přímé kontroly na retrospektivní pozorování. Za takových podmínek je shoda obtížnější ověřovat a snáze narušovat, protože systémy jsou nuceny prosazovat své cíle a omezení prostřednictvím postupných samomodifikací. Bez spolehlivých mechanismů pro zachování záměru napříč těmito iteracemi může systém nadále efektivně fungovat, zatímco se tiše odchyluje od lidských hodnot, priorit a řízení.

Bottom Line

Umělá inteligence vstoupila do fáze, kdy se může zlepšovat vytvářením lepších verzí sebe sama. Rekurzivní, agenty řízená inteligence slibuje mimořádné zisky, ale zároveň s sebou přináší rizika, která se škálují rychleji než lidský dohled, řízení a intuice. Výzvou do budoucna není, zda lze tento posun zastavit, ale zda se bezpečnost, sladění a odpovědnost mohou rozvíjet stejným tempem jako schopnosti. Pokud se tak nestane, exploze inteligence přesáhne naši schopnost ji řídit.

Dr. Tehseen Zia je docentem na univerzitě COMSATS v Islámábádu a má doktorát v oboru AI na Vídeňské technologické univerzitě v Rakousku. Specializuje se na umělou inteligenci, strojové učení, datovou vědu a počítačové vidění a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní řešitel a sloužil jako konzultant AI.