Connect with us

Kunstig intelligens

Hvordan Causal AI endelig bygger AI-modeller, der kan resonere, ikke bare reagere

mm

I årtier har kunstig intelligens excelleret i at spotte mønstre i data. Maskinelæringmodeller kan forudsige kundeadfærd, forudsige markedstrends eller identificere medicinske risici med høj nøjagtighed. Men disse systemer fejler ofte i at forklare, hvorfor begivenheder sker. De afhænger af korrelationer, der ikke kan skelne mellem sande årsager og blot tilfældigheder. Denne begrænsning holder AI reaktiv, ude af stand til at tilpasse sig, når betingelserne ændrer sig, eller til at resonere om interventioner. Causal AI løser denne åbning. Det giver maskiner mulighed for at forstå årsag og virkning, hvilket er afgørende for, at maskiner kan besidde ægte resonansfærdigheder. Denne evne giver systemer mulighed for at simulere “hvad hvis”-scenarier, evaluere modfaktiske og give forklarelige beslutninger. Da organisationer kræver mere pålidelig AI, vinder kausale metoder indpas på tværs af brancher.

Korrelationsfælden

Traditionel maskinelæring opererer ved at finde statistiske sammenhænge i data. Hvis patienter, der tager et bestemt lægemiddel, kommer sig hurtigere, lærer algoritmen denne sammenhæng. Selvom denne tilgang har opnået bemærkelsesværdige fremskridt i billedgenkendelse, sprogoversættelse og anbefalingssystemer, har den en dødelig fejl. Den kan ikke skelne mellem årsag og tilfældighed. Denne udeevne skaber en farlig blind plet om, hvordan den underliggende mekanisme faktisk fungerer. For eksempel lærte en bredt anvendt algoritme, der var designet til at identificere patienter, der havde brug for ekstra omsorg, at sundhedsudgifter forudsagde medicinsk behov. Men da data fra 200 millioner amerikanere blev analyseret, blev det fundet, at denne korrelation overså systemiske fordomme. Sundhedsudgifter til sorte amerikanere løber lavere end for hvide amerikanere med lignende tilstande på grund af systemiske faktorer. Algoritmen, blind for denne faktor, undervurderede omsorgsbehovene for sorte patienter. Lignende fejl sker i andre felter. I strafforsagen korrelerer COMPAS-algoritmen race med genoptagelsesrisiko, hvilket fører til fordømte domme. I landbrug kan en AI korreliere jordfugtighed med varme dage og anbefale imod vanding under en varmebølge, hvilket kunne være en katastrofal anbefaling. I sundhedssektoren kan AI-systemer lære, at patienter med astma kommer sig hurtigere, hvis de også har lungebetændelse. Men dette mønster overser årsagen til, at disse patienter modtager mere intensiv behandling, fordi de anses for at være i høj risiko, ikke fordi astma hjælper dem i restitution.

Pearls stige af kausalitet

Judea Pearl, den Turing Award-vindende pioner inden for kausal inferens, rammer kausal AI gennem sin stige af kausalitet. Denne stige omfatter tre distinkte niveauer af resonans. Den første trin er association. Dette er, hvor traditionel AI opererer ved at observere mønstre eller korrelationer fra data. Det besvarer spørgsmål som “Hvilke symptomer er forbundet med en sygdom?” Den anden trin er intervention. Det spørger, “Hvad sker, hvis jeg gør X?” Dette kræver en forståelse af, hvordan en aktiv ændring af en variabel påvirker andre. Det er forskellen på at observere, at kunder, der modtager e-mails, køber mere, og at vide, om e-mailen forårsagede købene. Den højeste trin er modfaktisk resonans. Det indebærer at spørge, “Hvad ville have sket, hvis jeg havde gjort noget andet?” Dette kræver at forestille sig alternative scenarier og er afgørende for ansvar og læring, såsom at bestemme, om en anden behandling ville have reddet en patient. Kausal AI opererer på tværs af alle tre trin. Det bygger modeller, der repræsenterer ikke kun mønstre i data, men de underliggende kausale mekanismer, der genererer disse mønstre.

Hvordan Causal AI bygger modeller, der resonere

Den praktiske implementering af kausal AI indebærer tre nøglekomponenter:

Strukturelle kausale modeller (SCM): Disse modeller afhænger af ligninger til at beskrive de kausale mekanismer, der genererer data. Denne tilgang giver AI mulighed for at modelere den underliggende datagenereringsproces i stedet for at lære overfladiske mønstre.

Rettede acykliske grafer (DAG): Disse visuelle repræsentationer bruger noder og pile til at udtrykkeligt definere kausale antagelser. De hjælper eksperter med at identificere forvirrende variabler og validere modellens logik.

Den “Do”-regning: Denne matematiske operator, der er grundlagt af Pearl, skelner formelt mellem at observere P (Y|X) og at intervenere P (Y| do(X)). Det giver maskinerne mulighed for at simulere interventioner, før de sker, og resonere om hypotetiske scenarier. Det omdefinerer AI fra et værktøj, der observerer verden, til et, der hjælper os med at forstå den.

Værktøjerne modnes

Udviklingen af tilgængelige softwareværktøjer spiller også en vital rol i accelerationen af Kausal AI. Microsofts DoWhy-ramme er en open-source Python-bibliotek, der implementerer en principiel firetrins arbejdsproces, herunder værktøjer til at modelere kausale relationer, identificere den kausale effekt, estimere effekten og afvise antagelserne for at teste robustheden. Denne strukturerede tilgang løser en nøgleudfordring: Forskellige forskere kan have forskellige kausale antagelser. DoWhy hjælper med at definere disse antagelser via kausale grafer og giver værktøjer til at teste følsomheden af konklusioner.

Modningen af Casual AI kan observeres fra dens accelererede markedsvækst. Analytikere projicerer, at det globale kausale AI-marked vil vokse fra ca. 63 millioner dollars i 2025 til over 1,6 milliarder dollars i 2035, en samlet årlig vækstrate på over 38%. Denne vækst er drevet af erkendelsen af, at forståelse af årsag og virkning giver en konkurrencemæssig fordel. Den stigende efterspørgsel efter forklarelig AI (XAI) er også en stor drivkraft. Regler som EU’s AI-akt kræver gennemsigtige forklaringer for beslutninger. Kausale modeller giver naturligt denne gennem tydelige kausale stier.

De nøgleforsdelene: Robusthed og tillid

En nøglefordel ved Kausal AI er dens robusthed over for ændrede betingelser. Når miljøet ændrer sig fra træning til implementering, fejler traditionelle modeller ofte katastrofalt, fordi deres lærte korrelationer bryder sammen. En korrelationsbaseret model for afgrødeudbytte kan lære, at høj jordfugtighed forudsager høje udbytte. Men hvis denne korrelation var forvirret af vandingspraksis i træningsdata, vil modellen fejle, når den implementeres i en ny region.

Kausale modeller er anderledes. Ved at lære underliggende mekanismer identificerer de stabile relationer, der består på tværs af miljøer. De forstår, hvorfor fugtighed er vigtig, ikke kun, at den korrelerer med udbytte. Forskning viser, at på datasæt med distributionsforskydninger opretholder kausale modeller præstationen, mens traditionelle modeller kan opleve en nedgang i nøjagtighed på over 20 procentpoint.

Derudover løser Kausal AI den sorte kasse-problem. I modsætning til uigennemsigtige neurale netværk giver kausale grafer og stier klare forklaringer: “Ændring af X forårsager Y via Z.” Denne kapacitet er kritisk for at implementere AI i højrisikofelter, et krav, der nu er kodificeret i regler som EU’s AI-akt. Kausal AI hjælper også med at mildne fordomme ved at adskille spurious korrelationer (f.eks. race og resultater) fra diskriminerende årsager.

Reel virkning på tværs af brancher

Skiftet til kausal resonans leverer allerede værdi på tværs af brancher. I sundhedssektoren anvender Kaiser Permanente kausal AI til at identificere de underliggende årsager til patientgenindlæggelser, hvilket muliggør målrettede interventioner som personlige prescriptionsmindere, der har forbedret overholdelsesraten betydeligt. I lægemiddelindustrien bruger virksomheder kausal AI til at identificere, hvilke molekylære mål faktisk forårsager sygdomsprogression, ikke kun hvilke korrelerer med det. Dette accelererer lægemiddelforskning ved at simulere interventioner, før dyre kliniske forsøg. I fremstillingsindustrien udfører kausale modeller rodårsagsanalyse på produktionslinjer. Når kvaliteten falder, sporer systemet, om årsagen ligger i maskinindstillinger, materialefejl eller opstrømsprocesser, hvilket giver ingeniører håndgribelige indsigt. I finanssektoren anvender banker kausal inferens til at forstå de sande drivkræfter bag kreditafvigelse, ikke kun korrelationer. Dette giver mulighed for at designe interventioner som justerede betalingsplaner, der adresserer de underliggende årsager til økonomisk vanskelighed.

Autonome køretøjer er en af de mest krævende anvendelser af kausal AI. Mens korrelationsbaserede systemer kan genkende en fodgænger, kan kausale modeller slutte, hvorfor de måske krydser vejen, skyder efter en bold eller undgår et hindring. Denne forståelse af hensigt og kausalitet er afgørende for sikker navigation i dynamiske miljøer.

Bottomline

Æraen for AI, der afhænger af korrelation, er ved at ende. Ved at bygge modeller, der forstår hvorfor ting sker, giver Kausal AI den resonanskraft, der er nødvendig for pålidelig “hvad hvis”-analyse, robusthed over for ændrede betingelser og den forklareligkeit, der kræves af moderne forretning og regulering.

Dr. Tehseen Zia er en fastansat lektor ved COMSATS University Islamabad, med en ph.d. i AI fra Vienna University of Technology, Østrig. Specialiseret i kunstig intelligens, maskinlæring, datavidenskab og computer vision, har han gjort betydelige bidrag med publikationer i anerkendte videnskabelige tidsskrifter. Dr. Tehseen har også ledet forskellige industrielle projekter som hovedundersøger og fungeret som AI-rådgiver.