Connect with us

Varför AI-modeller inte löser radiologins kÀrnproblem

Tankeledare

Varför AI-modeller inte löser radiologins kÀrnproblem

mm

De flesta AI-arbeten inom radiologi idag är centrerade kring diagnostiska modeller. Fokus ligger på att förbättra noggrannheten genom att träna på mer data och finslipa modellerna. Detta tillvägagångssätt behandlar radiologi främst som en visuell igenkänningsuppgift, där bättre upptäckt förväntas förbättra hela systemet. Vid första anblicken verkar detta rimligt: om upptäckt förbättras, bör diagnostisk kvalitet också förbättras. Denna syn missar det främsta problemet.

Det centrala problemet inom radiologi är hur diagnosen i sig är strukturerad. Det är inte en begränsning av mönsterigenkänning, utan av hur arbetet är organiserat och beslut produceras. Och förbättring av modeller löser inte det. Nedan undersöker vi varför detta händer och vad som behöver ändras utöver modellnoggrannhet.

Problemet är strukturellt

CV-modeller hjälper till att känna igen mönster i bilder. I kontrollerade studier kan de nå prestationer jämförbara med radiologer, med AUC ofta över 0,90 och, i vissa screeningsammanhang, matcha eller överträffa specialistprestation. I många områden är förmågan att upptäcka fynd inte längre den främsta begränsningen.

Samtidigt fungerar de bara med bilddata. De belyser möjliga fynd, men deltar inte i den diagnostiska processen i sig. De kombinerar inte olika indata till en enda diagnos eller vägleder hur beslut fattas. I många områden är förmågan att upptäcka fynd inte längre den främsta begränsningen. De är utformade för att känna igen mönster, inte för att delta i diagnos som en process.

I praktiken innebär detta att strukturen inte förändras. Radiologer förblir ansvariga för att granska resultaten och fatta slutliga beslut, och AI-utdata kräver ofta ytterligare verifikation. Ansvaret ligger kvar hos läkaren. Arbetsflödet förändras inte. Flaschenhalsen kvarstår. Varje studie tilldelas fortfarande en enskild radiolog som förväntas granska, tolka, validera och rapportera. Studier visar att klinikerprestation fortfarande beror tungt på hur AI-fel hanteras, och felaktiga utdata kan negativt påverka beslutsfattandet.

En modell kan inte ompröva sitt eget beslut. Om den gör ett misstag, finns det inget sätt att ompröva fallet med ytterligare sammanhang. Resultatet förblir fast, medan riktiga diagnostik kräver kontinuerlig justering. Deras utdata är statiska, medan kliniskt resonemang är inherenterat iterativt.

Som resultat kvarstår flaskhalsar, variationer består och processen fortsätter att bero på en enskild radiolog. När volymen av bilder växer, når ett system byggt runt en specialist per fall oundvikligen sina gränser.

En kris av förtroende

AI inom radiologi väcker också ett problem av förtroende.

En radiolog ifrågasätter inte bara modellens utdata. De ifrågasätter systemet bakom det, särskilt när AI presenteras som en ersättning snarare än ett verktyg de kan kontrollera. Förtroende för modellen är instabilt. Mindre erfarna läkare kan lita för mycket på det och missa fel. Mer erfarna, efter ett enda misstag, kan sluta använda det. Dessa två mönster — överanvändning och avkoppling — introducerar båda nya risker istället för att minska dem.

Efter ett fel, tenderar modellen att falla ur beslutsprocessen. Den används inte längre som ett verktyg, utan ignoreras helt enkelt. Detta bryter kontinuitet och begränsar dess praktiska värde. I praktiken leder detta till inkonsekvent användning snarare än stabil integration i arbetsflödet.

Detta speglar en djupare konflikt med hur medicin fungerar. En radiolog kan inte överlåta ansvaret för en diagnos till ett system. Kliniskt och juridiskt ansvar ligger kvar hos läkaren. Att behandla AI som en ersättning går emot den struktur som medicinsk praxis bygger på.

Detta skapar en strukturell konflikt där modellen föreslår men läkaren måste verifiera. Erkännande kan automatiseras. Ansvaret kan inte. Och så länge ansvar inte kan överföras, måste varje modellutdata kontrolleras, vilket begränsar dess förmåga att minska arbetsbelastningen.

Illusionen av effektivitet

AI tar inte bort arbete från radiologen. Det lägger till en kontrollskikt. Läkaren tolkar fortfarande studien och måste också verifiera modellens utdata. Detta skapar dubbelarbete snarare än att spara tid. Istället för att eliminera ansträngning, lägger AI ofta om arbetet till ytterligare steg av validering och korrektion.

Systemet kan verka snabbare, men i praktiken skiftar tiden till ytterligare kontroller snarare än att minskas. Över tiden ackumuleras verktygen och ökar den operativa överbelastningen utan att fundamentalt förbättra hur diagnos produceras.

AI introducerar också fragmentering. De flesta modeller byggs för en smal uppgift: en enda anatomisk region, modalitet eller patologi. För att täcka verkliga kliniska behov, måste en klinik använda flera modeller. Istället för ett enhetligt system, leder detta till en fragmenterad uppsättning verktyg.

Varje modell medför sin egen gränssnitt, integrations- och underhållskrav. Detta ökar systemkomplexiteten och lägger till fler interaktionspunkter.

Som resultat blir systemet svårare att hantera, medan den centrala diagnostiska processen förblir oförändrad.

Gränser för skalning av AI

Med varje ny version av en modell, måste förtroendet återuppbyggas. Arbetsflödet börjar anpassa sig till modellen, istället för att stödja läkaren. Detta skiftar fokus ytterligare bort från att förbättra systemet i sig mot att anpassa sig till enskilda verktyg.

Detta görs svårare av den smala fokus som de flesta modeller har. Var och en är utformad för en specifik uppgift eller anatomisk region. I praktiken innebär detta att en klinik behöver flera modeller samtidigt, var och en med sina egna begränsningar, integrationer och kostnader. Systemet blir svårare att operera.

Samtidigt blir det tydligt där AI har den största påverkan idag. Inte i tolkning av bilder, utan i förbättring av systemet runt det — dirigering av studier, hantering av köer, tilldelning av fall till rätt specialist och prognostisering av arbetsbelastning. Dessa områden gynnas av samordning snarare än isolerad förutsägelse.

Vad hände i praktiken

I vår nätverk av kliniker, med mer än en miljon MRI- och CT-studier utförda årligen över 40 kliniker i tre länder, implementerade vi flera AI-modeller, inklusive FDA-godkända lösningar. Uppställningen var enkel: modellen analyserade bilddata, genererade en rapport och radiologen granskade och bekräftade den. Den förväntade utgången var snabbare omsättning och färre fel.

I praktiken fortsatte erfarna radiologer att tolka varje studie själva innan de tittade på modellens utdata. Att arbeta med genererad text tog ofta mer ansträngning än att skriva från scratch, eftersom det inte matchade deras rapporteringsstil. Processen accelererade inte och i många fall blev den långsammare. I vissa fall lade interaktionen med modellen till mer friktion än värde.

Användarbeteende skapade också risk. När modellen gjorde ett fel, tenderade erfarna radiologer att förlora förtroende och sluta använda den. Mindre erfarna läkare var mer benägna att lita på systemet, vilket ökade chansen att missa fel och relaterad klinisk och juridisk exponering.

Dessa observationer pekar på ett djupare problem. Att förbättra enskilda verktyg förändrar inte hur systemet fungerar. Flaskhalsen ligger i ett arbetsflöde byggt runt en enskild radiolog som hanterar en studie från början till slut. Dessa begränsningar gör det svårt att förbättra systemet genom att lägga till fler verktyg ensamt.

På DICO, angrep vi detta på ett annat sätt. Istället för att lägga till AI till det befintliga arbetsflödet, fokuserade vi på strukturen i sig. Fall kan brytas ner i delar, med var och en hanterad av den relevanta specialisten som arbetar direkt inom bilddata. Den slutliga rapporten sätts samman från dessa indata, med AI som stödjer samordning. Diagnos, i denna modell, skrivs inte längre av en person — den sätts samman från flera bidrag.

Detta var inte frågor om modellkvalitet. Det var frågor om struktur.

Omstrukturering av diagnostiskt system

Modern radiologi byggs på en enda antagande. En studie, en radiolog. Detta skapar flaskhalsar, variation och begränsar skalbarhet. Det främsta problemet är inte att modeller gör fel. Systemet är inte byggt för att fungera med dem. Det är byggt på en icke-skalerbar grund.

Ett icke-iterativt verktyg placeras i en process som beror på iteration. I klinisk praxis är radiologi inte ett enkelt beslut. Studier visar att oenighet mellan initial och andra tolkningar förekommer i ~30% av fallen, och kliniskt signifikanta diskrepanser kan påverka hantering i ~18-20% av fallen. Andra åsikter är inte undantag, utan en rutin del av diagnostiskt arbete.

Mer allmänt, över hela medicinen, leder andra åsikter till en förändring av diagnos i 10-62% av fallen, beroende på sammanhanget.

Utan förmågan att revidera, samordna och omvärdera med sammanhang, förblir modellutdata statiska, medan riktig diagnostik kräver kontinuerlig justering.

Nästa steg är inte mer exakta modeller. Det är en omstrukturering av diagnostiskt system.

Skiftet är från separata AI-verktyg till ett enhetligt sätt att hantera diagnostik — där diagnos inte är ett enskilt beslut, utan en process som dirigeras och tolkas över flera steg. Begränsningen är inte bristen på intelligenta modeller, utan avsaknaden av ett system som kan samordna diagnostiskt arbete som en process.

Yaroslav Dokuchaev Àr VD och grundare pÄ DICO, ett företag som bygger en distribuerad, kollektiv diagnostisk infrastruktur för radiologi, dÀr diagnos sÀtts samman frÄn flera experter i stÀllet för att produceras av en enskild lÀkare.

Han har omfattande erfarenhet av storskaliga radiologiverksamheter, efter att ha varit involverad i att bygga ett av de största teleradiologicentren i Europa, som bearbetar miljontals studier varje Är över flera kliniker. Genom praktisk implementering av AI i kliniska flöden har han utvecklat en systemnivÄperspektiv pÄ diagnostiska processer, med fokus pÄ hur arbetsflödesdesign, snarare Àn modellens noggrannhet, definierar prestanda och skalbarhet i modern radiologi.