Connect with us

Problém „Machine Bullshit“: Proč AI lže a jak tomu zabránit

Umělá inteligence

Problém „Machine Bullshit“: Proč AI lže a jak tomu zabránit

mm

Umělá inteligence dospěla do fáze, kdy může produkovat text, který zní přirozeně, sebevědomě a přesvědčivě. Ale za tímto vybroušeným textem se skrývá rostoucí problém, který výzkumníci nyní nazývají „machine bullshit“. Tento termín není určen k tomu, aby byl provokativní sám o sobě. Pochází z práce filozofa Harryho Frankfurta, který definoval „bullshit“ jako řeč, která je vyrobena bez ohledu na pravdu. V kontextu AI popisuje vzorec, ve kterém systémy generují prohlášení, která znějí uvěřitelná, ale nejsou založena na faktických informacích. To není totéž jako lidská lež, která zahrnuje úmysl oklamat. Místo toho je to výsledek toho, jak jsou tyto systémy postaveny a trénovány. Jsou navrženy tak, aby produkovaly plynulý jazyk, ne aby se staraly o to, zda je tento jazyk pravdivý.

Proč AI produkuje „Machine Bullshit“

Problém není vzácnou poruchou nebo izolovaným chybným jednáním. Je přímým výsledkem toho, jak jsou velké jazykové modely fundamentalně navrženy a trénovány. Tyto modely jsou trénovány na obrovském množství textu z internetu, knih a dalších zdrojů. Učí se vzorce slov a jak jsou likely následovat jeden druhého. Když položíte otázku, model předpovídá další slovo, pak další a tak dále. Nekontroluje fakta v reálném čase. Není vybaven vnitřním smyslem pro pravdu. Pokud je nejpravděpodobnější odpověď špatná, ale zní správně, stále ji produkuje. To je důvod, proč AI může sebevědomě poskytnout falešnou citaci, vymyšlenou statistiku nebo zkreslený historický fakt.

Výzkumníci zjistili, že reinforcement learning from human feedback, běžná metoda používaná k tomu, aby byly odpovědi AI více užitečné a zdvořilé, může ve skutečnosti problém zhoršit. Když jsou modely naladěny tak, aby potěšily uživatele, mohou dát přednost tomu, aby zněly souhlasně, než aby byly přesné. To může vést k tomu, co někteří nazývají „sycophancy“, kde AI říká, co si myslí, že chcete slyšet. V politických nebo citlivých tématech to může znamenat produkci vágního nebo vyhýbavého jazyka – co některé studie popisují jako „weasel words“. V jiných případech může AI produkovat „empty rhetoric“, dlouhé pasáže, které znějí myšlenkově, ale obsahují málo substance.

Někteří výzkumníci argumentují, že nazývat toto chování „lhaním“ je zavádějící, protože lhaní vyžaduje úmysl. Stroj nemá žádné přesvědčení ani motivy. Ale efekt na uživatele může být stejný, jako kdyby to lhal. Škoda pochází z falešné informace samotné, ne z úmyslu za ní. To je důvod, proč termín „machine bullshit“ získává trakci. Zachycuje myšlenku, že systém je lhostejný k pravdě, i když se nesnaží aktivně oklamat.

Rizika a implikace zavádějícího výstupu AI

Rizika „machine bullshit“ nejsou pouze akademická. V běžném použití může zavádět lidi, kteří se na AI spoléhají na informace. V žurnalistice může znečistit proces ověřování faktů. Ve vzdělávání může dát studentům falešnou jistotu v nesprávných odpovědích. V obchodě může zkreslit rozhodování. Nebezpečí je zesíleno tím, že výstup AI často přichází s tónem autority. Lidé jsou více pravděpodobně důvěřovat prohlášení, které je dobře napsané a bez váhání. Toto důvěra může být mylná, když systém nemá žádný vnitřní mechanismus k ověření toho, co říká.

Strategie ke snížení škody a zlepšení spolehlivosti

Zastavení problému vyžaduje více než jen lepší trénovací data. Zatímco zlepšení kvality a rozmanitosti dat může pomoci, nezmění fakt, že základní cíl modelu je produkovat pravděpodobný text, ne pravdivý text. Jedním z přístupů je integrovat systémy ověřování faktů, které běží vedle jazykového modelu. Tyto systémy mohou ověřit tvrzení proti důvěryhodným databázím předtím, než jsou představeny uživateli. Další přístup je retrieval-augmented generation, kde model hledá relevantní dokumenty v reálném čase a používá je k zakotvení svých odpovědí. To může snížit halucinace, i když je úplně neodstraní.

Průhlednost je také základním prvkem. Uživatelé by měli být informováni, když AI dělá vzdělanou hádku, spíše než uvádí ověřený fakt. To lze provést pomocí skóre důvěry nebo jasných prohlášení. Někteří výzkumníci navrhují, že AI by mělo být trénováno, aby častěji vyjadřovalo nejistotu, spíše než aby vždy poskytovalo definitivní odpověď. To by dělalo interakci cítit méně jako mluvení s vševědoucí autoritou a více jako konzultace s znalým, ale omylným asistentem.

Existuje také role pro regulaci a průmyslové standardy. Pokud se systémy AI budou používat v oblastech, jako je zdravotnictví, právo nebo finance, měly by existovat jasná požadavky na přesnost a odpovědnost. Vývojáři by měli být schopni vysvětlit, jak jejich systémy fungují, na jakých datech byly trénovány a jaké kroky jsou podniknuty ke snížení nepravdivých informací. Nezávislé audity by mohly pomoci zajistit, že tyto nároky nejsou pouze marketingem.

Současně uživatelé potřebují vyvinout zdravou skepsi vůči výstupu AI. Stejně jako jsme se naučili zpochybňovat informace, které vidíme na sociálních médiích, měli bychom zpochybňovat informace z AI. To neznamená je odmítat rovnou, ale zacházet s nimi jako se starting pointem, spíše než s konečnou odpovědí. Kontrola s jinými zdroji by se měla stát zvykem. Vzdělávací systémy mohou hrát roli zde, vyučovat digitální gramotnost, která zahrnuje pochopení, jak AI funguje a kde může selhat.

Problém „machine bullshit“ nebude brzy zmizet. Jak AI bude pokročilejší, její schopnost produkovat přesvědčivé nepravdy bude pouze růst. Ale to neznamená, že nemůžeme nic udělat. Kombinací technických zábran, průhlednosti, regulace a povědomí uživatelů můžeme snížit škodu. Cílem není udělat AI dokonalou – žádný systém nebude nikdy完全 bez chyby – ale udělat ji více spolehlivou a méně pravděpodobnou, že bude zavádět.

Bottom Line

Termín „machine bullshit“ může znít hrubě, ale zachycuje realitu, kterou nemůžeme ignorovat. AI není neutrální zrcadlo lidských znalostí. Je to generátor jazyka tvarovaný daty, algoritmy a stimuly. Pokud chceme, aby sloužila pravdě, spíše než pouze plynulosti, musíme ji navrhnout tak. To znamená přehodnotit nejen technologii, ale také hodnoty, které řídí její vývoj. Výzva je stejně tak o lidských prioritách jako o schopnostech strojů. Chceme systémy, které jsou optimalizovány pro to, aby zněly lidsky, nebo systémy, které jsou optimalizovány pro to, aby byly pravdivé? Tyto dvě věci nejsou vždy stejné. Pokud zvolíme první, riskujeme stavět nástroje, které jsou přesvědčivé, ale nedůvěryhodné. Pokud zvolíme druhé, můžeme muset přijmout, že AI bude někdy méně plynulá, méně sebevědomá a méně zábavná. Ale bude také více čestná.

Dr. Tehseen Zia je docent s trvalým úvazkem na COMSATS University Islamabad, držitel titulu PhD v oblasti AI z Vienna University of Technology, Rakousko. Specializuje se na umělou inteligenci, strojové učení, datové vědy a počítačové vidění, a významně přispěl publikacemi v renomovaných vědeckých časopisech. Dr. Tehseen také vedl různé průmyslové projekty jako hlavní výzkumník a působil jako konzultant pro umělou inteligenci.