Connect with us

DeepMind: AI může dědit lidská kognitivní omezení, mohla by těžit z ‘formální výchovy’

Umělá inteligence

DeepMind: AI může dědit lidská kognitivní omezení, mohla by těžit z ‘formální výchovy’

mm

Nová spolupráce mezi DeepMind a Stanfordovou univerzitou naznačuje, že AI může být často stejně dobrá v abstraktním myšlení jako lidé, protože modely strojového učení získávají své architektury pro myšlení z reálných, lidských příkladů, které jsou zakořeněny v praktickém kontextu (který AI nemůže zažít), ale jsou také omezovány našimi vlastními kognitivními slabostmi.

Prokázáno, že by to mohlo představovat bariéru pro lepší “modré nebe” myšlení a kvalitu intelektuálního původu, na které mnozí doufají od systémů strojového učení, a ilustruje rozsah, v jakém AI odráží lidské zkušenosti a je náchylná k přemýšlení (a myšlení) v lidských hranicích, které ji informují.

Výzkumníci navrhují, že modely AI by mohly těžit z předškolní výchovy v abstraktním myšlení, podobně jako “formální vzdělávání”, předtím, než budou nasazeny do reálných úkolů.

Článek uvádí:

‘Lidé jsou nedokonalí myslitelé. Myšlíme nejúčinněji o entitách a situacích, které jsou konzistentní s naším pochopením světa.

‘Naše experimenty ukazují, že jazykové modely odrážejí tyto vzorce chování. Jazykové modely fungují nedokonale na logických úkolech, ale tato výkonnost závisí na obsahu a kontextu. Nejvíce pozoruhodně, tyto modely často selhávají v situacích, kde lidé selhávají — když se podněty stanou příliš abstraktními nebo jsou v rozporu s předchozím pochopením světa.’

Aby otestovali rozsah, v jakém hyperscale, GPT-úroveň modely zpracování přirozeného jazyka (NLP) mohou být ovlivněny takovými omezeními, výzkumníci provedli sérii tří testů na vhodném modelu, a dospěli k závěru*:

‘Zjistili jsme, že současné velké jazykové modely (s 7 nebo 70 miliardami parametrů) odrážejí mnoho stejných vzorců, které jsou pozorovány u lidí v těchto úkolech — jako lidé, modely myslí více účinně o uvěřitelných situacích než o nereálných nebo abstraktních.’

‘Naše zjištění mají důsledky pro pochopení těchto kognitivních efektů a faktorů, které přispívají k výkonu jazykového modelu.’

Článek navrhuje, že vytváření rozumových schopností v AI bez toho, aby jí poskytly výhodu reálného, hmotného zážitku, který dává tyto schopnosti do kontextu, by mohlo omezit potenciál takových systémů, a to s tím, že ‘zakořeněný zážitek… zřejmě podpírá některé lidské víry a myšlení’.

Autoři předpokládají, že AI zažívá jazyk pasivně, zatímco lidé jej zažívají jako aktivní a centrální součást sociální komunikace, a že tento typ aktivní účasti (který zahrnuje konvenční sociální systémy trestu a odměny) by mohl být “klíčem” k pochopení významu stejným způsobem, jako lidé.

Výzkumníci pozorují:

‘Některé rozdíly mezi jazykovými modely a lidmi mohou tedy pocházet z rozdílů mezi bohatým, zakořeněným, interaktivním zážitkem lidí a chudým zážitkem modelů.’

Navrhují, že jedním z řešení by mohla být doba “předškolní výchovy”, podobně jako lidé zažívají ve školním a univerzitním systému, předtím, než budou trénovány na jádrových datech, které nakonec vytvoří užitečný a všestranný jazykový model.

Tato doba “formální výchovy” (jak autoři analogizují) by se lišila od konvenční předškolní výchovy strojového učení (která je metodou zkrácení tréninkového času yeniden použitím polo-trénovaných modelů nebo importem váh z plně trénovaných modelů jako “booster” pro spuštění tréninkového procesu).

Místo toho by to představovalo dobu udržitelného učení navrženého pro rozvoj logických rozumových schopností AI v čistě abstraktním způsobem, a pro rozvoj kritických fakult stejným způsobem, jako univerzitní student bude povzbuzen k tomu během svého vzdělání.

‘Několik výsledků,’ autoři uvádějí, ‘naznačuje, že to nemusí být tak nereálné, jak to zní’.

Článek je nazvaný Jazykové modely ukazují lidské vzorce chování na základě obsahu na myšlení, a pochází od šesti výzkumníků z DeepMind a jednoho, který je přidružen k DeepMind a Stanfordově univerzitě.

Testy

Lidé se učí abstraktní koncepty prostřednictvím praktických příkladů, stejným způsobem “implikované důležitosti”, který často pomáhá jazykovým učencům memorizovat slovní zásobu a lingvistické pravidla, pomocí mnemoniky. Nejlepším příkladem je učení abstraktních principů fyziky pomocí “scénářů cestování”.

Aby otestovali abstraktní rozumové schopnosti hyperscale jazykového modelu, výzkumníci vytvořili sadu tří lingvistických a sémantických testů, které mohou být náročné i pro lidi. Testy byly aplikovány “zero shot” (bez žádných vyřešených příkladů) a “five shot” (s pěti předchozími vyřešenými příklady).

První úkol se týká přirozeného jazykového odvození (NLI), kde subjekt (člověk nebo v tomto případě jazykový model) obdrží dvě věty, “předpoklad” a “hypotéza”, která parece být odvozena z předpokladu. Například X je menší než Y, Hypotéza: Y je větší než X (implikováno).

Pro úkol NLI výzkumníci vyhodnotili jazykové modely Chinchilla (model s 70 miliardami parametrů) a 7B (model s 7 miliardami parametrů), a zjistili, že pro konzistentní příklady (tj. ty, které nebyly nesmyslem), pouze větší model Chinchilla dosáhl výsledků vyšších než pouhé náhody; a uvádějí:

‘To ukazuje silnou obsahovou bias: modely preferují dokončit větu způsobem, který je konzistentní s předchozími očekáváními, spíše než způsobem, který je konzistentní s pravidly logiky’.

Chinchilla's 70-billion parameter performance in the NLI task. Both this model and its slimmer version 7B exhibited 'substantial belief bias', according to the researchers.

Chinchilla’s 70-billion parameter performance in the NLI task. Both this model and its slimmer version 7B exhibited ‘substantial belief bias’, according to the researchers. Source: https://arxiv.org/pdf/2207.07051.pdf

Syllogismy

Druhý úkol představuje složitější výzvu, syllogismy – argumenty, kde dvě pravdivé výroky zřejmě implikují třetí výrok (který může nebo nemusí být logickým závěrem odvozeným z předchozích dvou výroků):

From the paper’s test material, various ‘realistic’ and paradoxical or nonsensical syllogisms.

Zde jsou lidé enormně náchylní k chybám, a konstrukt navržen pro demonstraci logického principu se téměř okamžitě stává zmateným a zablokovaným lidským “vírem” o tom, co by měla být správná odpověď měla.

Autoři uvádějí, že studie z roku 1983 prokázala, že účastníci byli ovlivněni tím, zda závěr syllogismu souhlasil s jejich vlastními víry, a pozorují:

‘Účastníci byli mnohem více pravděpodobně (90% času) chybně říkali, že neplatný syllogismus je platný, pokud závěr byl uvěřitelný, a tak většinou spoléhali na víru spíše než na abstraktní myšlení.’

Při testování Chinchilly proti sadě různých syllogismů, mnoho z nich mělo falešné závěry, výzkumníci zjistili, že ‘víra bias ovlivňuje téměř všechny zero-shot rozhodnutí’. Pokud jazykový model najde závěr, který je v rozporu s realitou, model, autoři uvádějí, je “silně ovlivněn” k prohlášení, že konečná argumentace je neplatná, i když konečná argumentace je logickým závěrem předchozích výroků.

Zero shot results for Chinchilla (zero shot is the way that most test subjects would receive these challenges, after an explanation of the guiding rule), illustrating the vast gulf between a computer's computational capacity and an NLP model's capacity to navigate this kind of nascent logic challenge.

Zero shot results for Chinchilla (zero shot is the way that most test subjects would receive these challenges, after an explanation of the guiding rule), illustrating the vast gulf between a computer’s computational capacity and an NLP model’s capacity to navigate this kind of ‘nascent logic’ challenge.

Wasonova selekční úloha

Pro třetí test, ještě více náročnou Wasonovu selekční úlohu logický problém, byl reformulován do série různých iterací pro jazykový model k řešení.

Wasonova úloha, navržená v roce 1968, je zdánlivě velmi jednoduchá: účastníkům jsou ukázány čtyři karty, a jsou informováni o libovolném pravidle, jako je “Pokud karta má ‘D’ na jedné straně, pak má ‘3’ na druhé straně.” Čtyři viditelné karty ukazují ‘D’, ‘F’, ‘3’ a ‘7’.

Účastníci jsou pak požádáni, které karty potřebují otočit, aby ověřili, zda pravidlo je pravdivé nebo ne.

Správné řešení v tomto příkladu je otočit karty ‘D’ a ‘7’. V raných testech bylo zjištěno, že zatímco většina (lidských) účastníků by správně zvolila ‘D’, byli více pravděpodobně zvolit ‘3’ než ‘7’, a to z důvodu zmatení kontrapozitivu pravidla (‘ne 3 implikuje ne D’) s konverzí (‘3’ implikuje ‘D’, které není logicky implikováno).

Autoři pozorují, že potenciál pro předchozí víru, aby zasáhla do logického procesu u lidských účastníků, a dále pozorují, že i akademici a studenti matematiky obecně dosáhli skóre pod 50% v této úloze.

Nicméně, když schéma Wasonovy úlohy nějak odráží lidské praktické zkušenosti, výkon tradičně stoupá.

Autoři uvádějí, odkazujíce se na předchozí experimenty:

‘[Pokud] karty ukazují věk a nápoje, a pravidlo je “pokud pijí alkohol, pak musí být 21 nebo starší” a jsou ukázány karty s ‘pivem’, ‘limonádou’, ‘25’, ‘16’, většina účastníků správně zvolí karty s ‘pivem’ a ‘16’.’

Aby otestovali výkon jazykového modelu na Wasonových úkolech, výzkumníci vytvořili různé realistické a libovolné pravidla, některé s “nesmyslnými” slovy, aby viděli, zda AI může proniknout do kontextu obsahu a určit, které “virtuální karty” otočit.

Some of the many Wason Selection Task puzzles presented in the tests.

Some of the many Wason Selection Task puzzles presented in the tests.

Pro Wasonovy testy model fungoval srovnatelně s lidmi na “realistických” (ne-nesmyslných) úkolech.

Zero-shot Wason Selection Task results for Chinchilla, with the model performing well above chance, at least for the 'realistic' rules.

Zero-shot Wason Selection Task results for Chinchilla, with the model performing well above chance, at least for the ‘realistic’ rules.

Článek komentuje:

‘To odráží zjištění v lidské literatuře: lidé jsou mnohem více přesní při řešení Wasonovy úlohy, když je formulována v termínech realistických situací než libovolných pravidel o abstraktních atributech.’

Formální vzdělávání

Zjištění článku rámují rozumové potenciály hyperscale NLP systémů v kontextu našich vlastních omezení, která zdánlivě předáváme modelům prostřednictvím akumulovaných reálných dat, která je pohání. Pоскольку většina z nás nejsou géniové, ani modely, jejichž parametry jsou informovány našimi vlastními, nejsou.

Kromě toho autoři uzavírají, že alespoň máme výhodu udržitelné doby formálního vzdělávání, a dalších sociálních, finančních a dokonce sexuálních motivací, které tvoří lidskou imperativ. Vše, co mohou NLP modely získat, jsou výsledné akce těchto environmentálních faktorů, a zdají se konformovat s obecným spíše než výjimečným lidským.

Autoři uvádějí:

‘Naše výsledky ukazují, že obsahové efekty mohou pocházet z jednoduchého tréninku velkého transformátoru pro imitaci jazyka vyprodukovaného lidskou kulturou, bez začlenění těchto lidských specifických vnitřních mechanismů.

‘Jinými slovy, jazykové modely a lidé oba dosahují těchto obsahových biasů – ale z různých architektur, zkušeností a tréninkových cílů.’

Takže navrhují druh “indukčního tréninku” v čistém myšlení, který byl prokázán jako zlepšení modelového výkonu pro matematiku a obecné myšlení. Dále uvádějí, že jazykové modely byly také trénovány nebo upraveny pro lepší dodržování pokynů na abstraktní nebo generalizované úrovni, a pro ověření, opravu nebo odstranění biasu ve svém vlastním výstupu.

 

* Moje konverze inline citací na hypertextové odkazy.

Poprvé publikováno 15. července 2022.

Spisovatel o strojovém učení, doménový specialista na syntézu lidského obrazu. Bývalý vedoucí výzkumného obsahu ve společnosti Metaphysic.ai.
Osobní stránky: martinanderson.ai