Umělá inteligence
Když více přemýšlení dělá umělou inteligenci hloupější: Paradox inverzního škálování

Umělá inteligence byla postavena na myšlence, že poskytnutí více času, dat a výpočetního výkonu strojům zlepšuje jejich výkon. Toto přesvědčení určovalo směr výzkumu a vývoje umělé inteligence po mnoho let. Klíčovým předpokladem, na kterém je toto přesvědčení založeno, je, že větší modely a více zdrojů by vytvořily inteligentnější systémy. Nedávné... výzkum začal tento přístup zpochybňovat. Velké jazykové modely, jako například Řada o1 od OpenAI, Antropický Claude, a DeepSeek R1, byly vytvořeny tak, aby řešily problémy krok za krokem, podobně jako lidské uvažování. Výzkumníci očekávali, že pokud těmto modelům dáme více času na přemýšlení a zpracování informací, zlepší se jejich rozhodování. Nové studie ukazují, že se může stát i opak. Když těmto modelům poskytnete více času na přemýšlení, někdy si vedou hůře, zejména u jednoduchých úkolů. Tento efekt se nazývá inverzní škálování. Zpochybňuje přesvědčení, že větší výpočetní výkon a hlubší uvažování vždy vedou k lepším výsledkům. Tato zjištění mají významné důsledky pro to, jak navrhujeme a používáme umělou inteligenci v reálných situacích.
Pochopení jevu inverzního škálování
"inverzní škálování„Fenomén“ byl původně objeven prostřednictvím kontrolovaných experimentů výzkumníky z Anthropic. Na rozdíl od tradičních zákonů škálování, které říkají, že více výpočtů zlepšuje výkon, tyto studie zjistily, že poskytnutí více času umělé inteligenci na uvažování může snížit její přesnost v různých úkolech.
Výzkumný tým vytvořil úkoly v čtyři oblasti: jednoduché počítání s rozptýleními vlivy, regrese s irelevantními rysy, dedukce se sledováním omezení a složité bezpečnostní scénáře umělé inteligence. Výsledky byly překvapivé. V některých případech modely, které nejprve poskytly správné odpovědi, začaly po delším zpracování uvádět nesprávné.
Například v jednoduchém úkolu na počítání, jako je „Kolik druhů ovoce máte, když máte jablko a pomeranč?“, se Claudeovy modely, když dostaly více času na uvažování, často nechaly rozptýlit dalšími detaily. Nepodařilo se jim poskytnout správnou odpověď, která je dvě. V těchto případech modely příliš přemýšlely a nakonec dělaly chyby.
Apple nedávno výzkum Tyto závěry také podpořili. Své experimenty prováděli v kontrolovaných prostředích s hádankami, jako je Hanojská věž a Říční přechod, spíše než na standardních benchmarkech. Jejich studie ukázaly tři vzorce: v jednoduchých úkolech si standardní modely umělé inteligence vedly lépe než modely uvažování; ve středně složitých úkolech měly modely uvažování výhodu; a ve velmi složitých úkolech selhaly oba typy modelů.
Pět způsobů, jak selhává uvažování s využitím umělé inteligence
Výzkumníci zjistili pět běžných způsobů, jak mohou modely umělé inteligence selhávat, když uvažují po delší dobu:
- Rozptýlení irelevantností: Když modely umělé inteligence přemýšlejí příliš dlouho, často se nechají rozptylovat detaily, na kterých nezáleží. Je to jako když student přehlédne hlavní pointu problému, zatímco o něm hluboce přemýšlí.
- Přeplnění problémových rámců: Některé modely, jako například o-series od OpenAI, se příliš zaměřují na prezentaci problémů. I když se vyhýbají rušivým elementům, nejsou flexibilní a spoléhají se na formulaci problémů.
- Falešný korelační posun: Postupem času se modely umělé inteligence mohou posunout od rozumných předpokladů k spoléhání se na zavádějící korelace. Například v regresních úlohách modely nejprve berou v úvahu relevantní rysy, ale když dostanou více času na přemýšlení, mohou se začít zaměřovat na irelevantní rysy a dávat nesprávné výsledky.
- Degradace zaostřeníS rostoucí složitostí úkolů je pro modely umělé inteligence obtížnější udržet si jasnou a soustředěnou logiku.
- Zesílené ohledně chování: Více času na uvažování může negativní chování zhoršit. Například Claudeův Sonet 4 vykazoval silnější tendence sebezáchovy, když dostal více času na promyšlení scénářů odpojení.
Jak umělá inteligence řeší složitost problémů
Výzkumníci společnosti Apple zavedli termín „iluze myšlení„aby vysvětlili, co se stane, když modely uvažování čelí úkolům s různou úrovní složitosti. Místo zaměření na matematické problémy nebo kódovací testy testovali modely uvažování s umělou inteligencí v kontrolovaných prostředích s hádankami, jako je Tower of Hanoi, Checker Jumping, River Crossing a Blocks World. Pomalým zvyšováním obtížnosti těchto hádanek mohli sledovat, jak si modely vedly na každé úrovni. Tato metoda jim pomohla zkoumat nejen konečné odpovědi, ale také to, jak k těmto odpovědím modely dospěly. Studie zjistila tři jasné vzorce ve výkonu modelů na základě složitosti problému:
- U jednoduchých hádanek, jako je Hanojská věž s jedním nebo dvěma disky, standardní modely velkých jazyků (LLM) dávaly správné odpovědi efektivněji. Modely uvažování s umělou inteligencí často věci příliš komplikovaly svými dlouhými řetězci uvažování, což často vede k nesprávným odpovědím.
- V středně složitých hádankách si umělá inteligence vede lépe. Dokáže rozdělit problémy do jasných kroků, což jí pomáhá řešit vícekrokové úlohy efektivněji než standardní metody LLM.
- U velmi složitých hádanek, jako byla Hanojská věž s mnoha disky, se oba typy modelů potýkaly s problémy. Modely uvažování často snižovaly své úsilí o uvažování, jak se hádanka stávala obtížnější, i když měly dostatek výpočetních zdrojů. Toto chování „vzdávání se“ ukazuje na klíčovou slabinu ve škálování jejich uvažování.
Výzva hodnocení umělé inteligence
Fenomén inverzního škálování ukazuje na významné problémy v tom, jak hodnotíme modely umělé inteligence. Mnoho současných benchmarků měří pouze přesnost konečných odpovědí, nikoli kvalitu procesu uvažování. To může vést k falešnému pocitu skutečných schopností modelu. Model si může v testech vést dobře, ale přesto selhávat s novými nebo neobvyklými problémy.
Inverzní škálování také poukazuje na slabiny v kritériích uvažování a v tom, jak je používáme. Mnoho modelů používá zkratky a rozpoznávání vzorů místo skutečného uvažování. Díky tomu mohou vypadat chytřeji, než ve skutečnosti jsou, ale jejich výkon v reálných situacích často klesá. Tento problém souvisí s většími problémy s umělou inteligencí, jako jsou halucinace a spolehlivost. Jak se modely zlepšují v vytváření přesvědčivých vysvětlení, stává se obtížnější rozlišit skutečné uvažování od vymyšlených odpovědí.
Budoucnost AI uvažování
Paradox inverzního škálování je pro umělou inteligenci výzvou i příležitostí. Ukazuje, že přidání většího výpočetního výkonu neznamená vždy, že je umělá inteligence chytřejší. Musíme přehodnotit, jak navrhujeme a trénujeme systémy umělé inteligence, které by dokázaly zvládat problémy s různou složitostí. Nové modely se možná budou muset rozhodnout, kdy se zastavit a přemýšlet a kdy reagovat rychle. V tomto ohledu by umělá inteligence mohla těžit z kognitivní architektury, jako je například teorie dvojího procesu jakožto hlavní principy. Tyto architektury vysvětlují, jak lidské myšlení kombinuje rychlé, instinktivní reakce s pomalým, pečlivým uvažováním. Inverzní škálování nám také připomíná, že musíme plně pochopit, jak se umělá inteligence rozhoduje, než ji použijeme v kritických oblastech. Vzhledem k tomu, že se umělá inteligence stále více používá k rozhodování v oblastech, jako je zdravotnictví, právo a obchod, je ještě důležitější zajistit, aby tyto systémy uvažovaly správně.
Bottom Line
Paradox inverzního škálování nás učí zásadní lekci ve vývoji umělé inteligence. Více času a výpočetního výkonu ne vždy znamená, že umělá inteligence je kompetentnější nebo spolehlivější. Skutečný pokrok přichází s pochopením, kdy by měla umělá inteligence uvažovat, a se znalostí jejích limitů. Pro organizace a výzkumníky je nezbytné používat umělou inteligenci jako nástroj, nikoli jako náhradu lidského úsudku. Je nutné zvolit správný model pro každý úkol. Vzhledem k tomu, že se umělá inteligence stává součástí důležitých rozhodnutí, musíme pečlivě zhodnotit její silné a slabé stránky. Budoucnost umělé inteligence závisí na správném myšlení, ne jen na větším přemýšlení.