Connect with us

Kunstig intelligens

Hvordan Neurosymbolic AI Kan Fikse Generative AI’s Pålidelighetsproblemer

mm

Generative AI har gjort imponerende fremskritt de siste årene. Den kan skrive essayer, lage kunst og til og med komponere musikk. Men når det kommer til å få faktene rett, svikter den ofte. Den kan fortelle deg med stor sikkerhet at sebraer bor under vann eller at Eiffeltårnet er i Roma. Disse feilene kan synes harmløse, men de peker på et større problem: tillit. I områder som helse, lov eller finansiell virksomhet, kan vi ikke ha at AI gjør slike feil.

Dette er der neurosymbolic AI kan hjelpe. Ved å kombinere kraften fra neurale nettverk med logikken fra symbolisk AI, kan den løse noen av pålidelighetsproblemer som generative AI møter. Med neurosymbolic AI kan vi bygge systemer som ikke bare genererer svar, men genererer svar vi kan stole på.

Hvorfor Generative AI er Upålidelig

Generative AI fungerer ved å analysere mønster i massive mengder data. Det er hvordan den forutsier hva ord eller bilde som kommer neste. Det er som et avansert autocomplete-verktøy som er usedvanlig fleksibelt, men det “vet” ikke noe. Det spiller bare odds. Denne avhengigheten av sannsynlighet kan gjøre den uforutsigbar. Generative AI velger ikke alltid det mest sannsynlige alternativet. I stedet velger den fra et utvalg av muligheter basert på mønster den har lært. Denne tilfeldigheten kan gjøre den kreativ, men det betyr også at samme innputt kan føre til forskjellige utputt. Denne inkonsistensen blir et problem i alvorlige situasjoner hvor vi trenger pålitelige svar.

Generative AI forstår ikke fakta. Den mimrer mønster, som er hvorfor den noen ganger finner på ting og presenterer dem som virkelige. Denne tendensen til AI er ofte kjent som hallusinering. For eksempel kan AI finne på et sitat fra en berømt person eller lage en kilde som ikke eksisterer. Dette er nyttig når vi må lage nytt innhold, men kan være et alvorlig problem, spesielt når AI brukes til å gi råd om medisinske, juridiske eller finansielle spørsmål. Det kan misle folk til å stole på informasjon som bare ikke er sann.

For å gjøre saken verre, når AI gjør feil, forklarer den ikke seg. Det er ingen måte å sjekke hvorfor den gav et bestemt svar eller hvordan å fikse det. Det er i realiteten en svart boks, som skjuler sin begrunnelse i en mengde matematiske vekter og sannsynligheter. Dette kan være greit når du ber om en enkel anbefaling eller uformell hjelp, men det er mye mer bekymringsfullt når AI-beslutninger begynner å påvirke ting som helse, jobb eller finansiell situasjon. Hvis en AI foreslår en behandling eller tar en ansettelsesbeslutning, er det vanskelig å stole på det hvis du ikke vet hvorfor det valgte det svaret.

Hvordan Neurosymbolic AI Forbedrer Pålideligheten

Neurosymbolic AI kunne løse noen av disse pålidelighetsutfordringene for generative AI. Den kombinerer to styrker: neurale nettverk som gjenkjenner mønster og symbolisk AI som bruker logikk til å begrunne. Neurale nettverk er gode til å prosessere komplekse data, som tekst eller bilder. Symbolisk AI sjekker og organiserer denne informasjonen ved hjelp av regler. Denne kombinasjonen kan skape systemer som ikke bare er smartere, men også mer pålitelige.

Ved å bruke symbolisk AI, kan vi legge til en lag med begrunnelse til generative AI, og verifisere generert informasjon mot pålitelige kilder eller regler. Dette reduserer risikoen for AI-hallusineringer. For eksempel når en AI gir historiske fakta. Neurale nettverk analyserer data for å finne mønster, mens symbolisk AI sikrer at utgangen er nøyaktig og logisk konsistent. Samme prinsipp kan også brukes i helsevesenet. Et AI-verktøy kan bruke neurale nettverk til å prosessere pasientdata, men symbolisk AI sikrer at anbefalingene stemmer overens med etablerte medisinske retningslinjer. Denne ekstra skrittet holder resultater nøyaktige og grunnede.

Neurosymbolic AI kan også bringe gjennomsiktighet til generative AI. Når systemet begrunner seg gjennom data, viser det nøyaktig hvordan det kom frem til et svar. For eksempel i juridiske eller finansielle sektorer, kunne en AI peke på bestemte lover eller prinsipper den brukte for å generere sine forslag. Denne gjennomsiktigheten bygger tillit fordi brukerne kan se logikken bak beslutningen og føle seg mer trygge på AIens pålidelighet.

Det bringer også konsistens. Ved å bruke regler til å veilede beslutninger, sikrer neurosymbolic AI at svarene forblir stabile, selv når innputt er lignende. Dette er viktig i områder som finansiell planlegging, hvor konsistens er avgjørende. Den logiske begrunningslaget holder AIens utgang stabil og basert på solide prinsipper, og reduserer uforutsigbarheten.

Kombinasjonen av kreativitet og logisk tenkning gjør neurosymbolic generative AI smartere og tryggere. Det handler ikke bare om å generere svar – det handler om å generere svar du kan stole på. Ettersom AI blir mer involvert i helse, lov og andre kritiske områder, tilbyr verktøy som neurosymbolic AI en fremtidig retning. De bringer pålidelighet og tillit som virkelig teller når beslutninger har reelle konsekvenser.

Case Study: GraphRAG

GraphRAG (Graph Retrieval Augmented Generation) viser hvordan vi kan kombinere styrkene til generative AI og neurosymbolic AI. Generative AI, som store språkmodeller (LLM), kan lage imponerende innhold, men den sliter ofte med nøyaktighet eller logisk konsistens.

GraphRAG adresse dette ved å kombinere kunnskapsgrafer (en symbolisk AI-tilnærming) med LLM. Kunnskapsgrafer organiserer informasjon i noder, noe som gjør det lettere å spore forbindelser mellom forskjellige fakta. Denne strukturerte tilnærmingen hjelper AI å forbli grunnede i pålitelige data, samtidig som den genererer kreative svar.

Når du spør GraphRAG et spørsmål, baserer den ikke bare på mønster. Den kryssrefererer svarene med pålitelig informasjon i grafen. Denne ekstra skrittet sikrer logiske og nøyaktige svar, og reduserer feil eller “hallusineringer” som er vanlige i tradisjonell generative AI.

Ufordringen med å Integriere Neurosymbolic og Generative AI

Likevel er det ikke enkelt å kombinere neurosymbolic AI med generative AI. Disse to tilnærmingene fungerer på forskjellige måter. Neurale nettverk er gode til å prosessere komplekse, ustrukturerte data, som bilder eller tekst. Symbolisk AI fokuserer på å bruke regler og logikk. Å kombinere disse to krever en balanse mellom kreativitet og nøyaktighet, noe som ikke alltid er enkelt å oppnå. Generative AI handler om å produsere nye, diverse resultater, men symbolisk AI holder ting grunnede i logikk. Å finne en måte å få begge til å fungere sammen uten å kompromittere ytelsen, er en vanskelig oppgave.

Fremtidige Retninger å Følge

Ser vi fremover, er det mye potensial for å forbedre hvordan neurosymbolic AI fungerer med generative modeller. En spennende mulighet er å lage hybrid-systemer som kan skifte mellom de to metodene avhengig av hva som trengs. For oppgaver som krever nøyaktighet og pålidelighet, som i helse eller lov, kan systemet lære mer på symbolisk begrunnelse. Når kreativitet er nødvendig, kan det skifte til generative AI. Det pågår også arbeid med å gjøre disse systemene mer forståelige. Å forbedre hvordan vi kan spore deres begrunnelse, vil hjelpe til å bygge tillit og trygghet. Ettersom AI fortsetter å utvikle seg, kunne neurosymbolic AI gjøre systemer smartere og mer pålitelige, og sikre at de er både kreative og pålitelige.

Bunnlinjen

Generative AI er kraftfull, men dens uforutsigbarhet og mangel på forståelse gjør den upålidelig for høyrisk-områder som helse, lov og finansiell virksomhet. Neurosymbolic AI kunne være løsningen. Ved å kombinere neurale nettverk med symbolisk logikk, legger den til begrunnelse, konsistens og gjennomsiktighet, og reduserer feil og øker tillit. Denne tilnærmingen gjør ikke bare AI smartere, men sikrer også at dens beslutninger er pålitelige. Ettersom AI spiller en større rolle i kritiske områder, tilbyr verktøy som neurosymbolic AI en fremtidig retning – en hvor vi kan stole på svarene AI gir, spesielt når liv og levebrød er på spill.

Dr. Tehseen Zia er en fast ansatt associate professor ved COMSATS University Islamabad, med en PhD i AI fra Vienna University of Technology, Østerrike. Som spesialist i kunstig intelligens, maskinlæring, datavitenskap og datavisjon, har han gjort betydelige bidrag med publikasjoner i anerkjente vitenskapelige tidsskrifter. Dr. Tehseen har også ledet flere industriprosjekter som hovedundersøker og tjenestegjort som AI-konsulent.