Connect with us

Hur LLMs tvingar oss att omdefiniera intelligens

Artificiell intelligens

Hur LLMs tvingar oss att omdefiniera intelligens

mm

Det finns ett gammalt uttryck: Om det ser ut som en anka, simmar som en anka och kvackar som en anka, då är det förmodligen en anka. Detta enkla sätt att resonera, ofta kopplat till den indianske poeten James Whitcomb Riley, har format hur vi tänker om artificiell intelligens i decennier. Idén att beteende är tillräckligt för att identifiera intelligens inspirerade Alan Turings berömda “Imitation Game”, nu kallad Turing Test.

Turing föreslog att om en människa inte kan avgöra om de samtalar med en maskin eller en annan människa, då kan maskinen sägas vara intelligent. Både anka-testet och Turing-testet antyder att det som är viktigt inte är vad som ligger innanför ett system, utan hur det beter sig. Under decennier har detta test styrt framsteg inom AI. Men med ankomsten av stora språkmodeller (LLM), har situationen förändrats. Dessa system kan skriva flytande text, hålla samtal och lösa uppgifter på sätt som känns förvånansvärt mänskliga. Frågan är inte längre om maskiner kan imitera mänskligt samtal, utan om denna imitation är sann intelligens. Om ett system kan skriva som oss, resonera som oss och till och med skapa som oss, bör vi kalla det intelligent? Eller är beteende ensam inte längre tillräckligt för att mäta intelligens?

Utvecklingen av maskinell intelligens

Stora språkmodeller har förändrat hur vi tänker om AI. Dessa system, som tidigare var begränsade till att generera grundläggande textsvar, kan nu lösa logiska problem, skriva datorprogram, utarbeta berättelser och till och med assistera med kreativa uppgifter som manusförfattning. En viktig utveckling i denna process är deras förmåga att lösa komplexa problem genom steg-för-steg-resonemang, en metod som kallas Chain-of-thought-resonemang. Genom att bryta ner ett problem i mindre delar kan en LLM lösa komplexa matematiska problem eller logiska pussel på sätt som liknar mänskligt problemlösande. Denna förmåga har möjliggjort för dem att matcha eller till och med överträffa mänsklig prestation på avancerade benchmark-tester som MATH eller GSM8K. Idag besitter LLM också multimodala förmågor. De kan arbeta med bilder, tolka medicinska undersökningar, förklara visuella pussel och beskriva komplexa diagram. Med dessa framsteg är frågan inte längre om LLM kan imitera mänskligt beteende, utan om detta beteende reflekterar äkta förståelse.

Spår av mänskligt tänkande

Denna framgång för LLM är i färd med att omdefiniera hur vi förstår intelligens. Fokus skiftar från att anpassa AI-beteende till mänskligt beteende, som föreslogs av Turing-testet, till att utforska hur nära LLM speglar mänskligt tänkande i den mening att de bearbetar information (dvs. äkta mänskligt tänkande). Till exempel i en nylig studie, jämförde forskare de inre mekanismerna i AI-modeller med mänsklig hjärnaktivitet. Studien fann att LLM med över 70 miljarder parametrar, inte bara uppnådde mänsklig nivå av precision, utan också organiserade information internt på sätt som matchade mänskliga hjärnmönster.

När både människor och AI-modeller arbetade med mönsterigenkänning, visade hjärnskanningar liknande aktivitetsmönster hos de mänskliga deltagarna och motsvarande beräkningsmönster i AI-modellerna. Modellerna klustrade abstrakta koncept i sina inre lager på sätt som direkt matchade mänsklig hjärnvågsaktivitet. Detta tyder på att framgångsrikt resonemang kan kräva liknande organisationsstrukturer, antingen i biologiska eller artificiella system.

Forskare är dock försiktiga med att notera begränsningarna i detta arbete. Studien omfattade ett relativt litet antal mänskliga deltagare, och människor och maskiner angrep uppgifterna på olika sätt. Människor arbetade med visuella mönster medan AI-modellerna bearbetade textbeskrivningar. Korrelationen mellan mänsklig och maskinell bearbetning är inträngande, men den bevisar inte att maskiner förstår koncept på samma sätt som människor.

Det finns också tydliga skillnader i prestation. Medan de bästa AI-modellerna nådde mänsklig nivå av precision på enkla mönster, visade de mer dramatiska prestandafall på de mest komplexa uppgifterna jämfört med mänskliga deltagare. Detta tyder på att trots likheter i organisation, kan det fortfarande finnas grundläggande skillnader i hur människor och maskiner bearbetar svåra abstrakta koncept.

Den skeptiska perspektiven

Trots dessa imponerande fynd, finns ett starkt argument som förespråkar att LLM är inte mer än en mycket skicklig imitator. Denna syn kommer från filosofen John Searles “Chinese Room” tankeexperiment som illustrerar varför beteende inte nödvändigtvis är detsamma som förståelse.

I detta tankeexperiment ber Searle oss att föreställa oss en person låst i ett rum som bara talar engelska. Personen får kinesiska symboler och använder en engelsk regelbok för att manipulera dessa symboler och producera svar. Utifrån rummet ser deras svar ut att vara desamma som en infödd kinesisk talare. Men Searle hävdar att personen förstår ingenting om kinesiska. Han följer bara regler utan någon riktig förståelse.

Kritiker tillämpar samma logik på LLM. De hävdar att dessa system är “stochastic parrots” som genererar svar baserat på statistiska mönster i deras träningsdata, inte äkta förståelse. Termen “stokastisk” hänvisar till deras probabilistiska natur, medan “papegoja” betonar deras imiterande beteende utan riktig förståelse.

Flera tekniska begränsningar av LLM stöder också detta argument. LLM genererar ofta “hallucinationer“; svar som ser trovärdiga ut men är helt felaktiga, vilseledande och meningslösa. Detta sker eftersom de väljer statistiskt trovärdiga ord snarare än att konsultera en intern kunskapsbas eller förstå sanning och falskhet. Dessa modeller reproducerar också mänskliga fel och fördomar. De blir förvirrade av irrelevanta uppgifter som människor lätt skulle ignorera. De uppvisar ras- och könsstereotyper eftersom de lärde sig från data som innehåller dessa fördomar. En annan avslöjande begränsning är “positionsfördom”, där modellerna överbetonar information i början eller slutet av långa dokument medan de försummar mitteninnehållet. Detta “förlorad-i-mitten” fenomen tyder på att dessa system bearbetar information mycket annorlunda än människor, som kan upprätthålla uppmärksamhet över hela dokument.

Dessa begränsningar belyser en central utmaning: medan LLM excellerar i att känna igen och reproducera språkmönster, betyder detta inte att de verkligen förstår mening eller verklig kontext. De presterar bra på att hantera syntax men förblir begränsade när det gäller semantik.

Vad räknas som intelligens?

Debatten handlar slutligen om hur vi definierar intelligens. Om intelligens är förmågan att generera sammanhängande språk, lösa problem och anpassa sig till nya situationer, då uppfyller LLM redan denna standard. Men om intelligens kräver självmedvetande, äkta förståelse eller subjektiv upplevelse, så är dessa system fortfarande bristfälliga.

Svårigheten är att vi saknar en tydlig eller objektiv metod för att mäta kvaliteter som förståelse eller medvetande. Både hos människor och maskiner, antar vi dem från beteende. Anka-testet och Turing-testet gav en gång eleganta svar, men i LLM-erans tidevarv, kan de inte längre vara tillräckliga. Deras förmågor tvingar oss att omvärdera vad som verkligen räknas som intelligens och om våra traditionella definitioner håller jämna steg med teknisk verklighet.

Sammanfattning

Stora språkmodeller utmanar hur vi definierar AI-intelligens. De kan imitera resonemang, generera idéer och utföra uppgifter som tidigare ansågs unikt mänskliga. Men de saknar medvetande och förankring som formar äkta mänskligt tänkande. Deras uppkomst tvingar oss att fråga inte bara om maskiner beter sig intelligent, utan vad intelligens själv verkligen betyder.

Dr. Tehseen Zia är en fast anställd biträdande professor vid COMSATS University Islamabad, med en doktorsexamen i AI från Vienna University of Technology, Österrike. Specialiserad på artificiell intelligens, maskinlärning, datavetenskap och datorseende, har han gjort betydande bidrag med publikationer i ansedda vetenskapliga tidskrifter. Dr. Tehseen har också lett olika industriprojekt som huvudutredare och tjänstgjort som AI-konsult.