Connect with us

Mening

ChatGPTs minnehensgrense er frustrerende — Hjernen viser en bedre måte

mm

Hvis du er en ChatGPT-ekspertbruker, kan du ha møtt den fryktede «Minne er full»-skjermen nylig. Denne meldingen vises når du når grensen for ChatGPTs lagrede minner, og det kan være et betydelig hinder under lange prosjekter. Minne er ment å være en nøkelfunksjon for komplekse, pågående oppgaver – du ønsker at din AI skal bære kunnskap fra tidligere sesjoner inn i fremtidige utdata. Å se en minne full-advarsel midt i et tidskritisk prosjekt (for eksempel, mens jeg feilsovler vedvarende HTTP 502-serverfeil på en av våre søsterwebsites) kan være ekstremt frustrerende og forstyrrende.

Frustrasjonen med ChatGPTs minnehensgrense

Kjerneproblemet er ikke at det finnes en minnehensgrense – selv betalende ChatGPT Plus-brukere kan forstå at det kan finnes praktiske grenser for hvor mye som kan lagres. Det virkelige problemet er hvordan du må håndtere gamle minner når grensen er nådd. Grensesnittet for minnehåndtering er noweedes og tidskrevende. Når ChatGPT varsler deg at minnet ditt er 100% fullt, har du to alternativer: å slette minner en og en, eller å slette alle på en gang. Det finnes ingen midt imellom eller bulkvalgverktøy for å effektivt beskjære lagret informasjon.

Å slette ett minne om gangen, spesielt hvis du må gjøre dette hver få dager, føles som en sysslor som ikke er egnet for langvarig bruk. Etter alt, de fleste lagrede minner ble lagret av en grunn – de inneholder verdifull kontekst du har gitt til ChatGPT om dine behov eller din bedrift. Naturligvis ønsker du å slette minimum antall elementer nødvendig for å frigjøre plass, så du ikke hindrer AIens forståelse av din historie. Likevel tvinger minnehåndteringens design en alt-eller-ingen-tilnærming eller en langsom manuell kurasjon. Jeg har personlig observert at hver slettet minne bare frigjør omtrent 1% av minneplassen, noe som tyder på at systemet bare tillater omtrent 100 minner totalt før det er fullt (100% bruk). Denne harde grensen føles arbitrær gitt skalaen på moderne AI-systemer, og det undergraver løftet om at ChatGPT blir en kunnskapsrik assistent som vokser med deg over tid.

Hva som bør skje

Med tanke på at ChatGPT og infrastrukturen bak det har tilgang til nesten ubegrensede beregningsressurser, er det overraskende at løsningen for langvarig minne er så rudimentær. Ideelt sett bør langvarige AI-minner bedre replikere hvordan det menneskelige hjernen opererer og håndterer informasjon over tid. Menneskelige hjerner har utviklet effektive strategier for å håndtere minner – vi recorderer ikke hver enkelt hendelse ord-for-ord og lagrer den uendelig. I stedet er hjernen designet for effektivitet: vi holder detaljert informasjon i kort tid, og så gradvis konsoliderer og kompprimerer disse detaljene til langvarig minne.

I nevrovitenskap, minnekonsolidering refererer til prosessen hvor ustabile korttidssminner omformes til stabile, langvarige. Ifølge standardmodellen for konsolidering, blir nye erfaringer først kodet av hippocampus, en region i hjernen som er avgjørende for å danne episodiske minner, og over tid blir kunnskapen “trent” inn i cortex for permanent lagring. Denne prosessen skjer ikke umiddelbart – den krever tidsforløp og ofte skjer under perioder med hvile eller søvn. Hippocampus fungerer i praksis som en rasklærende buffer, mens cortex gradvis integrerer informasjonen i en mer varig form over vidstrakte neurale nettverk. I andre ord, hjernens «korttidshukommelse» (arbeidshukommelse og nylige erfaringer) overføres systematisk og reorganiseres til en distribuert langtidshukommelseslagring. Denne flertrinns-overføringen gjør minnet mer motstandsdyktig mot forstyrrelse eller glemming, liknende stabilisering av en innspilling så den ikke lett kan overskrives.

Kritisk, gjør ikke hjernen noen ressursversønding ved å lagre hver enkelt detalj ord-for-ord. I stedet, tenderer den til å filtere ut ubetydelige detaljer og beholde hva som er mest meningsfullt fra våre erfaringer. Psykologer har lenge observert at når vi husker en tidligere hendelse eller lært informasjon, husker vi vanligvis hovedpoengene i stedet for en perfekt, ord-for-ord-beretning. For eksempel, etter å ha lest en bok eller sett en film, husker du vanligvis hovedhandlingen og temaene, men ikke hver enkelt replikk. Over tid, forsvinner den nøyaktige formuleringen og minutedetaljene fra erfaringen, og etterlater en mer abstrakt sammenfatting av hva som skjedde. Faktisk viser forskning at vår ord-for-ord-hukommelse (presise detaljer) forsvinner raskere enn vår hovedpoeng-hukommelse (generell mening) over tid. Dette er en effektiv måte å lagre kunnskap: ved å forkaste unødvendige spesifikasjoner, «kompprimerer» hjernen informasjonen, og beholder de essensielle delene som sannsynligvis vil være nyttige i fremtiden.

Denne neurale komprimeringen kan sammenlignes med hvordan datamaskiner komprimerer filer, og faktisk har forskere observert tilsvarende prosesser i hjernen. Når vi mentalt gjenspiller en minne eller forestiller oss en fremtidig scenario, er den neurale representasjonen effektivt akselerert og fratatt noen detaljer – det er en komprimert versjon av den virkelige erfaringen. Nevroforskere ved UT Austin oppdaget en hjernebølge-mekanisme som tillater oss å huske en hel sekvens av hendelser (for eksempel en ettermiddag tilbragt i butikken) på bare noen sekunder ved å bruke en raskere hjerne-rhythme som koder mindre detaljert, høynivå-informasjon. I essensen, kan våre hjerner spole raskt gjennom minner, beholde konturene og kritiske punktene, mens de utelater den rike detaljen, som ville være unødvendig eller for bulkete å spille av i fullt omfang. Konsekvensen er at forestilte planer og huskede erfaringer lagres i en kondensert form – fortsatt nyttig og forståelig, men mye mer plass- og tidseffektiv enn den opprinnelige erfaringen.

En annen viktig aspekt av menneskelig minnehåndtering er prioritering. Ikke alt som kommer inn i korttidshukommelse blir udødeliggjort i langtidslagring. Våre hjerner underbevisst avgjør hva som er verdt å huske og hva som ikke er, basert på betydning eller emosjonell relevans. En ny studie ved Rockefeller University demonstrerte dette prinsippet ved å bruke mus: musene ble utsatt for flere resultater i en labyrint (noen høyt belønnet, noen mildt belønnet, noen negative). Først lærte musene alle assosiasjonene, men når de ble testet en måned senere, ble bare de mest fremtredende høyt belønnete minner beholdt, mens de mindre viktige detaljene hadde forsvunnet.

I andre ord, filterte hjernen ut støyen og beholdt minnet som betydde mest for dyrets mål. Forskerne identifiserte også en hjerne-region, anterior thalamus, som fungerer som en slags moderator mellom hippocampus og cortex under konsolidering, og signaliserer hvilke minner som er viktige nok til å «lagre» for lang tid. Thalamus ser ut til å sende kontinuerlig forsterkning for verdifulle minner – essensielt si til cortex «behold denne» til minnet er fullstendig kodet – mens mindre viktige minner får forsvinne. Dette funn understreker at glemme ikke bare er en feil i hukommelsen, men en aktiv funksjon i systemet: ved å slippe unna ubetydelig eller redundant informasjon, forhindrer hjernen at minnehåndteringens lagring blir kløtete og sikrer at den mest nyttige kunnskapen er lett tilgjengelig.

Omtenkning av AI-minne med menneskelige prinsipper

Måten hjernen håndterer minne på, tilbyr en tydelig plan for hvordan ChatGPT og lignende AI-systemer bør håndtere langvarig informasjon. I stedet for å behandle hver lagret minne som en isolert datapunkt som må enten beholdes for alltid eller manuelt slettes, kunne en AI konsolidere og sammenfatte eldre minner i bakgrunnen. For eksempel, hvis du har ti relaterte samtaler eller fakta lagret om ditt pågående prosjekt, kunne AI-en automatisk slå dem sammen til en konsis sammentrekning eller en sett med nøkkelkonklusjoner – effektivt komprimere minnet mens essensen beholdes, liknende hjernen kondenserer detaljer til hovedpoeng. Dette ville frigjøre plass for ny informasjon uten å «glemme» hva som var viktig om de gamle interaksjonene. Faktisk, OpenAIs dokumentasjon hint at ChatGPTs modeller allerede kan gjøre noen automatisk oppdatering og kombinasjon av lagrede detaljer, men den nåværende brukeropplevelsen tyder på at det ikke er ennå sømløst eller tilstrekkelig.

En annen menneske-inspirert forbedring ville være priorisert minnebeholdning. I stedet for en rigid 100-elementsgrense, kunne AI-en vektlegge hvilke minner som har vært mest hyppig relevante eller mest kritiske for brukerens behov, og bare kaste (eller nedprøve) de som ser ut til å være minst viktige. I praksis kunne dette bety at ChatGPT identifiserer at visse fakta (for eksempel ditt selskaps kjernemål, pågående prosjektspekifikasjoner, personlige preferanser) er høyt relevante og alltid bør beholdes, mens en-gangs-stykker av trivia fra måneder tilbake kunne arkiveres eller droppes først. Denne dynamiske tilnærmingen paralleller hvordan hjernen kontinuerlig beskjærer ubrukte forbindelser og forsterker ofte brukte til å optimere kognitiv effektivitet.

Bunnpunktet er at et langvarig minnesystem for AI bør utvikle seg, ikke bare fylle seg opp og stoppe. Menneskelig minne er usedvanlig tilpasningsdyktig – det transformerer og reorganiserer seg over tid, og det forventer ikke en ekstern bruker å mikro-håndtere hver minne-plass. Hvis ChatGPTs minne fungerte mer som vår egen, ville brukerne ikke møte en bratt vegg på 100 innganger, og heller ikke det smertefulle valget mellom å slette alt eller klikke gjennom hundre elementer en og en. I stedet ville eldre chat-minner gradvis forvandle seg til en destillert kunnskapsbase som AI-en kan trekke på, og bare de virkelig foreldede eller irrelevante delene ville forsvinne. AI-samfunnet, som er målgruppen her, kan appreciere at implementering av et slikt system måtte involvere teknikker som kontekst-sammenfatting, vektordatabaser for kunnskaps-tilgang, eller hierarkiske minnelag i neurale nettverk – alle aktive forskningsområder. Faktisk, å gi AI en form for «episodisk minne» som komprimerer over tid, er en kjent utfordring, og å løse det ville være et sprang mot AI som lærer kontinuerlig og skalerer sin kunnskapsbase bærekraftig.

Konklusjon

ChatGPTs nåværende minnehensgrense føles som en midlertidig løsning som ikke utnytter den fulle kraften til AI. Ved å se på menneskelig kognition, ser vi at effektiv langvarig minne ikke handler om å lagre ubegrensede rådata – det handler om intelligent komprimering, konsolidering og glemming av riktige ting. Hjernens evne til å holde fast på hva som betyr noe, samtidig som den økonomiserer med lagring, er nettopp det som gjør vår langvarige minne så vid og nyttig. For at AI skal bli en virkelig langvarig partner, bør det adoptere en lignende strategi: automatisk destillere tidligere interaksjoner til varige innsikter, i stedet for å overføre denne byrden til brukeren. Frustrasjonen over å møte en «minne full»-vegg kunne erstattes av et system som vokser harmonisk med bruk, lærer og husker på en fleksibel, menneske-lignende måte. Å adoptere disse prinsippene ville ikke bare løse UX-utfordringen, men også låse opp en mer kraftfull og personlig AI-erfaring for hele samfunnet av brukere og utviklere som avhenger av disse verktøyene.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.