Anslut dig till vÄrt nÀtverk!

Artificiell intelligens

Det neurosymboliska skiftet: Varför rena juridikexamina gÄr emot

mm

AI-industrin upplever ett betydande skifte som Ànnu inte Àr allmÀnt erkÀnt. Medan stora sprÄkmodeller (LLM) fortsÀtter att dominera omrÄdet, dyker ett nytt tillvÀgagÄngssÀtt upp i tysthet. Detta tillvÀgagÄngssÀtt, hÀr kallat neurosymboliska LLM, gör det möjligt för neurala nÀtverksbaserade LLM att anvÀnda symboliskt resonemang för att utföra uppgiften. Till skillnad frÄn rena LLM, som enbart förlitar sig pÄ neurala nÀtverks mönsterigenkÀnningsförmÄga, konverterar neurosymboliska LLM först instruktioner i naturligt sprÄk till symboliska program och anvÀnder sedan externa symboliska tolkar, sÄsom programmeringssprÄkstolkar, för att utföra dem. Denna integration förbÀttrar modellens förmÄga att hantera komplexa uppgifter, vilket erbjuder bÀttre noggrannhet, transparens och tolkningsbarhet. I den hÀr artikeln kommer vi att utforska orsakerna bakom det vÀxande skiftet mot neurosymboliska LLM.

Myten om skalning faller isÀr

Det viktigaste löftet med den rena LLM-eran var enkelt: större modeller skulle ge bÀttre resultat. Tanken var att med mer data och datorkraft kunde AI producera bÀttre resultat. Denna teori fungerade ett tag, men den senaste utvecklingen har visat sina begrÀnsningar. En nyligen genomförd exempel Àr Grok 4, som anvÀnde 100 gÄnger mer datorkraft Àn sin föregÄngare men inte visade nÄgra signifikanta förbÀttringar pÄ utmanande riktmÀrken som MÀnsklighetens sista examenMedan Grok 4 presterade bÀttre inom vissa omrÄden, var vinsterna betydligt mindre Àn vÀntat. Men nÀr symboliska verktyg integrerades i dessa modeller förbÀttrades prestandan dramatiskt. Detta tyder pÄ att skalning ensamt inte Àr nyckeln till att förbÀttra AI:s prestanda och att neurosymbolisk metod har potential att övertrÀffa rena LLM:er.

BegrÀnsningarna hos rena neurala nÀtverk

Rena juridikexamina har inneboende svagheter som skalning inte kan övervinna. Dessa begrĂ€nsningar hĂ€rrör frĂ„n hur LLM:er konstrueras med hjĂ€lp av neurala nĂ€tverk, vilka frĂ€mst förlitar sig pĂ„ mönsterigenkĂ€nning. Även om de Ă€r effektiva i mĂ„nga sammanhang, begrĂ€nsar deras beroende av mönsterigenkĂ€nning och avsaknad av resonemangsförmĂ„ga deras förmĂ„ga att utföra komplexa uppgifter som krĂ€ver djupare förstĂ„else eller logisk slutledning. Till exempel, nĂ€r Apple forskare lade till irrelevanta klausuler i matematiska problem, sĂ„g toppmoderna LLM-metoder noggrannhetsminskningar pĂ„ upp till 65 %. I GSM-symboliska studera, LLM:er presterade dĂ„ligt nĂ€r siffror blandades eller extra klausuler lades till, Ă€ven med perfekta visuella indata.

Ett annat exempel pĂ„ denna brist ses i korsordskonstruktionChatGPT, som inte kan förstĂ„ kod, kĂ€mpar med uppgifter som att bygga rutnĂ€t. Detta ledde till att den gjorde enkla misstag som att kĂ€nna igen “RCRCT” som ett giltigt ord. DĂ€remot kan OpenAI:s o3, som anvĂ€nder symbolisk kod, skapa korsordsrutnĂ€t korrekt. Detta visar att rena LLM:er inte kan utföra algoritmiska processer pĂ„ ett tillförlitligt sĂ€tt, skilja korrelation frĂ„n kausalitet eller upprĂ€tthĂ„lla logisk konsistens i flerstegsresonemangsuppgifter.

Symbolisk AI:s uppgÄng: Logisk precision framför mönstermatchning

Symbolisk AI anvÀnder ett transparent, regelbaserat system som Àr lÀttare att förstÄ och verifiera. Till skillnad frÄn neurala nÀtverk, som ofta Àr ogenomskinliga, tillhandahÄller symboliska system tydliga resonemangsvÀgar frÄn input till slutsats. Detta gör symbolisk AI idealisk för applikationer som krÀver transparens och ansvarsskyldighet.

Symboliska system Ă€r ocksĂ„ mer effektiva. Till exempel den neurosymboliska KonceptlĂ€rare uppnĂ„r hög noggrannhet med bara 10 % av den data som krĂ€vs av traditionella neurala nĂ€tverk. Ännu viktigare Ă€r att symboliska system kan ge lĂ€sbara förklaringar för varje beslut, vilket Ă€r avgörande för omrĂ„den som hĂ€lso- och sjukvĂ„rd, finans och juridik.

Nyligen genomförda studier visar effektiviteten av symboliska metoder i uppgifter som Problemet med Hanoi-tornet, dÀr modeller som o3 presterade bÀttre nÀr symbolisk kod anvÀndes. PÄ liknande sÀtt Abduktiv regelinlÀrare med kontextmedvetenhet (ARLC) visade nÀstan perfekt noggrannhet i aritmetiska problem, medan rena juridiska lÀromedel kÀmpade för att nÄ ens 10 % noggrannhet i takt med att problemen blev mer komplexa.

Den vÀxande efterfrÄgan pÄ förklarbar AI

I takt med att regleringar kring AI-system ökar kommer efterfrÄgan pÄ förklarbar och transparent AI att öka. Sektorer som sjukvÄrd, finans och juridik krÀver AI-system som kan förklara sina resonemang. Neurosymbolisk AI Àr sÀrskilt vÀl lÀmpad för att möta dessa behov. Europeiska unionens AI-lag och liknande regleringar driver företag att anta AI-system som visar ansvarsskyldighet och transparens.

Dessutom skiftar investeringstrender mot AI-system som kan balansera prestanda med förklarbarhet. Företag som vÀrdesÀtter bÄde innovation och förtroende finner neurosymboliska system, med sin överlÀgsna förmÄga att förklara beslut, alltmer attraktiva.

FörbÀttra AI-tillförlitligheten med neurosymbolisk integration

Medan rena juridikstudier har utvecklats avsevÀrt, har deras tillförlitlighet Àr fortfarande en oro, sÀrskilt inom omrÄden med höga insatser som hÀlso- och sjukvÄrd, juridik och finans. Denna otillförlitlighet hÀrrör frÄn juridikexperternas beroende av mönster och sannolikheter, vilket kan leda till oförutsÀgbara resultat och fel. Neurosymboliska juridikexperter, som kombinerar neurala nÀtverk med symboliskt resonemang, erbjuder en lösning. Genom att anvÀnda logik för att verifiera och organisera information kan juridikexperter sÀkerstÀlla att de genererade svaren Àr bÄde korrekta och tillförlitliga. Det kan minska fel, öka transparensen och upprÀtthÄlla konsekvens i resultat. Denna metod kan vara sÀrskilt vÀrdefull inom kritiska sektorer och förbÀttra förtroendet för AI-system. Ett exempel pÄ denna metod, GraphRAG modellen visar hur en kombination av dessa tekniker kan förbÀttra bÄde kreativitet och noggrannhet.

Neurosymboliska juridikstudier i praktiken

Neurosymboliska LLM:er har visat anmÀrkningsvÀrda resultat nÀr det gÀller att hantera komplexa utmaningar. Google DeepMinds system, som till exempel AlphaFold, AlphaProofoch Alfageometri, kombinerar juridikstudier med symboliskt resonemang för att uppnÄ enastÄende resultat inom proteinveckning, matematisk satsbevisning och geometrisk problemlösning. De anvÀnder symboliska resonemangstekniker som sökning och villkorlig iteration, vilka traditionella neurala nÀtverk hade övergett. Dessutom anvÀnder moderna modeller i allt högre grad symboliska regler för dataförstÀrkning, vilket visar att symboliskt resonemang hÄller pÄ att bli en viktig del av ledande AI-system.

Utmaningar och möjligheter

Även om neurosymboliska LLM:er har gjort betydande framsteg, finns det fortfarande mycket arbete att göra. Nuvarande implementeringar, som att lĂ€gga till kodtolkar till LLM:er, erbjuder funktionella funktioner, men de Ă€r fortfarande inte en komplett lösning för att uppfylla kraven för artificiell allmĂ€n intelligens (AGI)Den verkliga utmaningen Ă€r att utveckla system dĂ€r neurala och symboliska komponenter fungerar sömlöst tillsammans genom att lĂ„ta maskiner resonera och förstĂ„ vĂ€rlden likt mĂ€nniskor. Ett av de framtida mĂ„len för neurosymboliska LLM:er Ă€r att göra det möjligt för dem att dynamiskt integrera med olika resonemangssĂ€tt utan att förlora konsekvens. Detta kommer att ge dem möjlighet att resonera olika i olika situationer. Det krĂ€ver dock en ny arkitektur som kan anvĂ€nda symboliskt resonemang tillsammans med neurala nĂ€tverk.

The Bottom Line

FramvÀxten av neurosymbolisk AI Àr ett paradigmskifte i utvecklingen av artificiell intelligens. Medan traditionella LLM-program har visat sig effektiva inom mÄnga omrÄden, begrÀnsas de av sitt beroende av mönsterigenkÀnning och brist pÄ resonemangsförmÄga. Det framvÀxande neurosymboliska tillvÀgagÄngssÀttet, som kombinerar LLM-program med symboliskt resonemang, erbjuder betydande fördelar nÀr det gÀller noggrannhet, transparens och tolkningsbarhet. Neurosymboliska system utmÀrker sig i uppgifter som krÀver komplext resonemang, logisk precision och förklarbarhet. Dessa egenskaper blir allt viktigare inom reglerade branscher som hÀlso- och sjukvÄrd, finans och juridik. Med den vÀxande efterfrÄgan pÄ transparens och ansvarsskyldighet inom AI blir neurosymbolisk AI en kritisk lösning för att utveckla mer tillförlitliga och begripliga system. Det kvarstÄr dock utmaningar med att helt integrera neurala och symboliska komponenter, och fortsatt innovation kommer att behövas för att skapa system som kan resonera dynamiskt över flera lÀgen.

Dr. Tehseen Zia Ă€r fast docent vid COMSATS University Islamabad och har en doktorsexamen i AI frĂ„n Wiens tekniska universitet, Österrike. Han Ă€r specialiserad pĂ„ artificiell intelligens, maskininlĂ€rning, datavetenskap och datorseende och har gjort betydande bidrag med publikationer i vĂ€lrenommerade vetenskapliga tidskrifter. Dr. Tehseen har ocksĂ„ lett olika industriella projekt som huvudutredare och fungerat som AI-konsult.