Kunstig intelligens
AI-modeller gir innsikt i hvordan hjernen prosesserer språk

Ny forskning fra Massachusetts Institute of Technology antyder at den underliggende funksjonen til ‘neste-ord-prediksjons’ beregningsmodeller ligner funksjonen til språkbehandlings-sentrene i menneskehjernen.
Meningen med språk
De nyeste prediktive språkmodellene kan lære noe om den underliggende meningen med språk, noe som ville være et enormt skritt fremover i feltet. Modellene forutsier ordet som kommer neste, men de utfører også oppgaver som krever en viss grad av ekte forståelse. Disse oppgavene inkluderer å svare på spørsmål, sammenfatte dokumenter og fullføre historier.
Modellene ble designet for å optimalisere ytelse for å forutsi tekst uten å forsøke å etterligne noe om hvordan menneskehjernen forstår språk. Men MIT-teamet av nevroforskere foreslår at noe skjer i denne sammenhengen.
En av de mer interessante innsiktene fra denne forskningen er at datamodeller som utfører godt på andre typer språkoppgaver, ikke viser denne likheten med menneskehjernen. Dette sees på som bevis for at menneskehjernen kan bruke neste-ord-prediksjon til å utføre språkbehandling.
Nancy Kanwisher er Walter A. Rosenblith Professor of Cognitive Neuroscience. Hun er også medlem av MITs McGovern Institute for Brain Research og Center for Brains, Minds, and Machines (CBMM), og en av forfatterne av studien.
“Jo bedre modellen er til å forutsi neste ord, jo nærmere passer den menneskehjernen,” sier Kanwisher. “Det er fantastisk at modellene passer så godt, og det antyder indirekte at kanskje det menneskelige språksystemet gjør, er å forutsi hva som kommer neste.”
Studien ble publisert i Proceedings of the National Academy of Sciences.
Den inkluderte også seniorforfattere Joshue Tenenbaum, professor i kognitiv vitenskap ved MIT og medlem av CBMM og MITs Artificial Intelligence (CSAIL); og Eveline Fedorenko, Frederick A. og Carole J. Middleton Career Development Associate Professor of Neuroscience og medlem av McGovern Institute. Første forfatter av papiret var Martin Schrimpf, en MIT-gradstudent.
Studien
MIT-teamet sammenlignet språkbehandlings-sentrene i menneskehjernen med språkbehandlingsmodeller. De analyserte 43 forskjellige språkmodeller, inkludert de som er optimalisert for neste-ord-prediksjon, som GPT-3. Andre modeller var designet for å utføre andre språkoppgaver, som å fylle inn et blankt felt.
Hver modell ble presentert med en rekke ord, og forskerne målte aktiviteten til nodene som utgjør nettverket. Mønsterne ble så sammenlignet med aktivitet i hjernen, som ble målt hos personer som utførte tre språkoppgaver: å lytte til historier, å lese setninger en om gangen og å lese setninger hvor ett ord ble avdekket om gangen.
De menneskelige datasettene inkluderte funksjonell magnetresonans (fMRI)-data og intrakranielle elektrokortikografiske målinger som ble tatt fra personer som gjennomgikk hjernekirurgi for epilepsi.
Forskerne fant at de beste neste-ord-prediksjonsmodellene hadde aktivitetsmønster som lignet de som ble sett i menneskehjernen. Disse modellene viste også aktiviteter som var høyt korrelert med målinger av menneskelig atferd, som hvor raskt mennesker kan lese teksten.
“Vi fant at modellene som forutsier de nevrale responsene godt, også tenderer til å forutsi menneskelig atferd best, i form av lesetider. Og så er begge disse forklart av modellens ytelse på neste-ord-prediksjon. Denne trekanten forbinder alt sammen,” sier Schrimpf.
Forskerne vil nå bygge variasjoner av språkbehandlingsmodellene, som kan gjøre det mulig for dem å se hvordan små endringer i deres arkitektur påvirker ytelse og evnen til å passe menneskelig nevralt data.










