Andersonin kulma
AI-keskustelumallit voivat aiheuttaa kustannuksia päättömän sauvan vuoksi

Suositut AI-keskustelumallit kuluttavat salaa suuria määriä maksettuja symboleja merkityksettömään sanarähjään. Vaikuttuneet mallit tietävät tosiasiassa, mitä he tekevät, mutta eivät voi estää itseään.
Suuret päättelymallit (LRMs) kuten ChatGPT-5 ja Google Gemini veloittavat enemmän päättelystä – kävely ongelman läpi askel askeleelta, mikä vaatii merkittävästi enemmän laskentatehoa kuin vain nopea ennustaminen seuraavaa sanaa. Simuloitu päättelyprosessi kestää kauemmin ja maksaa enemmän suorittaa; seurauksena, käyttäjät päätyvät maksamaan siitä “ylimääräisestä ajatteluaikaa”.
Kuitenkin, jos olet käyttänyt viimeaikaisia valmiita LLM-malleja, sinun saatat huomata, että symbolien jakosi on usein kulutettu sanarähjään ja turhaan, sen sijaan että se keskittyisi ratkaisemaan ongelmia, joita esität mallille. Tämä voi ilmetä liiallisen sycophancy, pitkän ja/tai turhan vastauksen muodossa – tai jopa tietynlainen ‘sauvaus’, ikään kuin AI olisi jäänyt kiinni ja yrittää puhua itsensä ulos epämukavasta tilanteesta.
Luonnollisesti, meidän pitäisi toivoa, että LLM-mme myöntävät tappion, seuraavat vaihtoehtoisia polkuja tai pyytävät selvennystä. Mutta jopa saada AI tällaisen tunnustamaan, ettei se tiedä vastausta, on merkittävä haaste itsessään.
Sillä aikaa, käyttäjät alhaisemmilla tai ilmaisilla tasoilla voivat löytää itsensä polttaneen symbolit nopeasti, riippumatta siitä, kuinka kohdennetut tai taloudelliset heidän kysymyksensä ja vuorovaikutuksensa olivat, koska AI itse rakastaa puhua; ja tässä tapauksessa, puhuminen ei ole halpaa.
Sana-salaatti
Sanottuun ‘sauvaamiseen’ liittyen, uusi akateeminen yhteistyö tarjoaa rationaalisoinnin ja ratkaisun ehdottamalla, että LLM-mallit, joilla on päättelykyky, ovat alttiita polttamaan symbolit, kun ne jäävät ‘sana-salaatti’-silmukkaan – hämmennyksen tilaan, jossa päättelyprosessi menee eksyksiin toistuvasti sokeisiin kuiluihin – käyttäjän maksuun*.
Tutkijat, jotka ovat tehneet uuden tutkimuksen, ovat havainneet, että merkittävä osa symboleista, jotka käsitellään tyypillisessä LLM-mallissa, koostuu toistumisista ja turhista sanotuksista – ja että malli itsessään vaikuttaa ymmärtävän, että se on vaikeuksissa, vaikka se ei pysty lopettamaan kalliita silmukkaa.
Tutkimus toteaa:
‘Osoitamme, että merkittävä osa näistä symboleista on turhia itseensä viittaavia toistumisia – mitä me kutsumme ”sana-salaatiksi” – jotka kuluttavat dekoodausbudjettia ilman lisäarvoa. Mielenkiintoista on, että havaitsemme, että LRMs ovat itsetietoisia, kun ne jäävät näihin silmukoihin: piilotilat <\n\n> -symboleja, jotka seuraavat jokaista päättelylohkoa, näyttävät kalvoja, jotka mahdollistavat sana-salaatti-käyttäytymisen havaitsemisen lennossa yksikerroksisen lineaarisen luokittelijan avulla.
‘Kun sana-salaatti on havaittu, yksinkertainen leikkaus, johon on liitetty suora uudelleenluontipyyntö, tuottaa merkittäviä pituussäästöjä vähäisen laadun menetyksen kera.’
Uuden tutkimuksen tarjoama ratkaisu on intervention, joka voi leikata pois kierteisen prosessin virheellisestä LRM-mallista lennossa, ilman koulutusdataa tai vahinkoa, joka voi aiheutua hienosäätöä tai hienosäätöä aiheuttavasta. Runko, joka on nimeltään SanaSalaattiLeikkaaja, on julkaistu GitHubissa.
Vaikka alkuperäinen työ keskittyy DeepSeek -versioihin, kuten Qwen- ja Llama-sarjan merkinnöihin, tutkimus väittää, että ei-toivottu käyttäytyminen on todennäköisesti sovellettavissa laajemmin samanlaisiin arkkitehtuureihin (mukaan lukien suositut API-vain tarjontaa, kuten ChatGPT ja Google Gemini).
Kuten tutkimus toteaa, aiemmat tarjontaa, kuten Demystifying Long Chain-of-Thought Reasoning in LLMs ja Small Models Struggle to Learn from Strong Reasoners käyttävät myös vähäistä määrää julkisesti saatavilla olevia Chain-of-Thought (CoT) -päättelymalleja, jotka osoittavat laajemman ongelman tämän malliluokan keskuudessa†:
‘[LRMs] taipuvat kuluttamaan valtavan määrän dekoodausbudjettia, yksinkertaisesti toistamalla itsensä sanasta sanaan, pienin muutoksin, tai osallistumalla loputtomaan tapausten lueteloimiseen, kunnes koko budjetti on kulutettu – me kutsumme tällaista käyttäytymistä SanaSalaatiksi, termi, jota usein käytetään pilkkaamaan julkisia puhujia antamasta pitkistä, täynnä jargonia olevista vastauksista, jotka lopulta vailla merkitystä tai selkeää tarkoitusta.
‘”Alkuperäinen” -sarakkeessa [taulukossa alla] näkyy, että kun vastataan GPQA-Diamondiin, havaitsemme, että yli 55% symboleista, jotka on luotu DeepSeek-R1-Distill-malleilla, on merkitty ”sana-salaatti-symboleiksi”, joilla ei ole lisäarvoa semanttisesta näkökulmasta.’
… (rest of the translation remains the same, following the exact same structure and formatting as the original text)










