intervjuer
Matthew Crowson, MD, direktør for AI/GenAI-produktledelse hos Wolters Kluwer Health – intervjuserie

Dr. Matt Crowson er en teknologileder innen helsevesen og praktiserende kirurg med fokus på anvendelse av kunstig intelligens i klinisk praksis. Han er direktør for kunstig intelligens/generativ kunstig intelligens-produkt hos Wolters Kluwer Health, hvor han leder initiativer for å forbedre evidenssyntese og dataanalyse fra den virkelige verden. Tidligere ledet han Deloittes kunstig intelligens-praksis for helsepersonell, og utviklet generative kunstig intelligens-løsninger for å forbedre dokumentasjon, inntektssykluser og forskning. Han er også assisterende professor ved Harvard Medical School og har skrevet over 90 fagfellevurderte publikasjoner.
Wolters Kluwer er en global leverandør av profesjonell informasjon, programvare og tjenester, som støtter kunder innen helsevesen, skatt og regnskap, juridisk og regulatorisk, økonomisk samsvar og ESG. Selskapet har hovedkontor i Nederland, og benytter seg av dyp bransjeekspertise og avansert teknologi for å levere verktøy som effektiviserer arbeidsflyter, sikrer samsvar og støtter kritisk beslutningstaking. Virksomheten strekker seg over mer enn 180 land, med tilbud organisert på tvers av divisjoner som helse, skatt og regnskap, juridisk og regulatorisk, økonomisk og bedriftsmessig samsvar, og bedriftsresultat og ESG.
La oss starte med et personlig spørsmål – hvordan balanserer du dine dobbeltroller som praktiserende kirurg og leder for AI-produktet? Har ditt kliniske arbeid formet ditt syn på hva AI bør eller ikke bør være i helsevesenet?
Ærlig talt? Det starter med en nådeløs tidspress og en kraftig kaffemaskin. På klinikkmorgenene holder jeg pasientbehandlingsferdighetene mine ærlige, mens resten av dagen går med til å gjøre den førstelinjesmerten om til produktspesifikasjoner. De to rollene gir hverandre næring: å se en fastlege klikke seg gjennom ti skjermbilder for å bestille Tylenol er all markedsundersøkelsen jeg trenger.
Kunstig intelligens (KI)-prosjekter blusser opp når ingen i rommet har følt den smerten. Vår Future Ready Healthcare-undersøkelse viser at 80 % av lederne sier at «optimalisering av arbeidsflyter» er en topprioritet. Likevel tror bare 63 % at de er forberedt på å gjøre det med generativ KI (GenAI). Dette er det klassiske gapet mellom strategi og utførelse som domeneeksperter kan lukke ved å spørre det riktige kliniske «hvorfor» før de skriver en eneste kodelinje.
Mitt kliniske blikk sørger også for at oppdraget er praktisk. De ansatte i frontlinjen fortalte oss at deres viktigste mål er å fikse bemanningsmangel (82 %), redusere administrative kostnader (77 %) og bekjempe utbrenthet (76 %). Hvis en algoritme ikke beveger en av disse nålene, er det bare teater. Klinikere melder seg raskt av.
Det objektivet gjør meg også forsiktig med tanke på hvor AI bør ikke streife omkring. Faktisk er 57 % av fagfolk bekymret for at overdreven avhengighet av GenAI kan svekke klinisk dømmekraft, men bare 18 % sier at organisasjonene deres har publiserte rekkverk. Inntil styringen tar igjen, er mandatet klart: automatiser papirarbeid, ikke tenking.
Så for meg er ikke balansen egentlig kaffe kontra kalender. Det handler om å ha én fot i klinikken – slik at jeg aldri glemmer hvem AI skal tjene – og én fot i produktet, slik at kunnskapen sendes. Gjør det bra, og koffeinen er bare en fin bonus.
Ocuco Rapport om undersøkelse om fremtidsrettet helsevern fra Wolters Kluwer fremhever et sterkt gap mellom entusiasme og gjennomføring av GenAI. Ble du overrasket av noen av resultatene? Hva skilte seg mest ut for deg personlig?
Jeg ble ikke overrasket det minste. Jeg har ennå ikke møtt en kliniker som er imot automatisering. Det som bremser utrullingen er ikke frykten for et «Skynet i jobb»-scenario, men snarere den daglige uroen i helsevesenets drift. Undersøkelsen krystalliserer denne virkeligheten. Åtte av ti ledere rangerer arbeidsflytoptimalisering som en topprioritet, men knapt seks av ti sier at de er klare til å la GenAI takle det. Det deltaet er akkurat det jeg ser: ansvarslandminer, data som ser mer ut som en søppelskuff enn en datasjø, og økonomiske insentiver som fortsatt belønner volum fremfor effektivitet. Det finnes også andre blokkeringer, inkludert et opplæringsvakuum, skygge-IT-tretthet og regulatorisk tåke.
Det som slo meg mest var hvor trivielle disse hindringene er. Personalmangel, administrativt mas og utbrenthet dominerer bekymringslisten, men bare 18 % av organisasjonene har formelle Generasjon AI-policyer. Hvis du ikke vet hvem som godkjenner en modell eller hvordan resultatene blir revidert, dør entusiasmen på compliance-kontoret. I tillegg sier 68 % av respondentene at lønnskostnader er deres største økonomiske press, og det er ikke rart at ledere ønsker bevis på avkastning på investeringen (ROI) før de signerer nok en programvarefaktura. Overskriften er ikke «AI-panikk», den er «Flott idé – vis meg arbeidsflyten og forretningsmodellen».
Over halvparten av helsepersonellet som ble spurt, er bekymret for at GenAI kan svekke kliniske beslutningsevner. Tror du at frykten er gyldig – eller gjenspeiler den dypere bekymringer om tillit og åpenhet i AI-systemer?
Noe av angsten er reell, men den har mindre å gjøre med sci-fi-frykt for en HAL-9000-lignende skurkaktig AI og mer å gjøre med vanlig ansvarlighet. Når et verktøy tilbyr differensialdiagnoser på sekunder, trenger du krystallklar opprinnelse: Hvor kom anbefalingen fra, hvem godkjenner den, og hvordan blir den revidert? I dag har bare et lite mindretall av organisasjoner formell styring av GenAI, så klinikere er som standard forsiktige. Dette viser seg i dataene våre, da 57 % sier at «overdreven avhengighet kan svekke dømmekraften». For meg er dette et signal om at de ikke ønsker at en svart boks skal trenge inn i deres lisens til å praktisere.
Jeg ser problemet gjennom et historisk perspektiv. Da regneark traff finansavdelingene, var noen regnskapsførere bekymret for at deres analytiske muskler ville svekkes. I stedet ble regnearkprogramvare den nye grunnlinjen, noe som hevet gulvet for nøyaktighet. Helsevesenet er på høy tid med et lignende sprang. Vi mister altfor mange pasienter på grunn av variasjon i behandlingen; medisinske feil er fortsatt en ledende årsak til skade og død. GenAIs superkraft kan være å snevre inn disse feilfeltene ved å fremheve retningslinjer, fremheve kontraindikasjoner og flagge avvikere raskere enn noe menneske kan sile gjennom diagrammet. Men det må forbli en assistent, ikke en autonom beslutningstaker, spesielt i det neste tre- til femårsvinduet.
Så ja, frykten er gyldig, men den er løsbar. Gjennomsiktige datasett, revisjonsspor og kontrollpunkter der man følger med på prosessen, gjør «AI-erosjon» til «AI-forstørrelse». Gi klinikere sporbare anbefalinger og klare ansvarslinjer, og de 57 % vil forsvinne. Det handler ikke om å erstatte ekspertise; det handler om å forbedre den med bedre verktøy.
Bare 18 % av respondentene sier at de er klar over klare GenAI-policyer i organisasjonene sine. Hva er de potensielle risikoene ved å distribuere GenAI-verktøy uten slik styring på plass?
Tenk på det som å lansere en ny medisin uten en doseringsetikett. Helsedata er svært sensitive, og GenAI-modeller blir bare smartere når de absorberer den beskyttede helseinformasjonsrike konteksten (PHI). Uten strenge retningslinjer for dataforvaltning som styrer hvem som kan laste opp informasjon, hvordan disse dataene logges og hvor de befinner seg, er en organisasjon bare ett øyeblikksbilde fra utklippstavlen unna et personvernbrudd som kan skape overskrifter.
Ansvar er den neste landminen. Når en algoritme hallusinerer en kontraindisert dose, hvem spiser feilbehandlingskravet? Leverandøren, sykehuset eller klinikeren som klikket på «godta»? Akkurat nå er svaret uklart fordi færre enn én av fem organisasjoner har kodifiserte «trafikkregler» for GenAI. I et vakuum misligholder advokater ofte de dypeste lommene, og den usikkerheten alene kan stoppe innovasjon.
Styring beskytter også mot mer subtile risikoer som modellavvik og stille skjevhet. En onkologibot som er trent på retningslinjene fra forrige kvartal, kan stille bli utdatert, og dermed dytte behandlingen ut av evidensbaserte spor. Retningslinjer som pålegger versjonskontroll, resultatovervåking og solnedgangsutløsere hindrer algoritmer i å eldes og bli sikkerhetsfarlige.
Endelig er tillit på spill. Klinikere bekymrer seg for at overdreven avhengighet av GenAI kan sløve deres kliniske dømmekraft; utrulling av ugjennomsiktige verktøy bekrefter bare denne frykten. Tydelig styring, åpenhet om dataavstamning, valideringsprotokoller og kontrollpunkter med menneskelig tilstedeværelse gjør angst fra «svart boks» til tillit til at AI er en hjelpende lagkamerat, ikke en useriøs beboer.
Basert på arbeidet ditt med Wolters Kluwer og på operasjonssalen, hva er det mest realistiske bruksscenariet for GenAI i helsevesenet på kort sikt?
Glem robotkirurger. I løpet av de neste tre årene er den største GenAI-muligheten administrativ utslettelseTo baner beviser allerede hva de er gode for:
- Notattaking i resepsjonen. Verktøy for omgivelseslytting utarbeider nå fremdriftsnotatet mens en lege snakker med pasienten sin, og legger det deretter rett inn i den elektroniske helsejournalen (EHR). Undersøkelsen vår viser at 41 % av respondentene satte dette på GenAI-ønskelisten sin, og teknologien er allerede tilgjengelig i tidlige helsesystemer. Flere studier har vist at systemer for omgivelsesdiktering kan redusere kognitiv belastning med 51 % og «pysjamastid» etter arbeidstid med mer enn 60 %. Dette er en tydelig avkastning på investeringen; du kan merke det raskt.
- Inntektsbeskyttelse for back-office. Den neste dominoen er forhåndsgodkjenningspakkene, ankebrevene for avslag og annet slam fra inntektssyklusen. Til sammenligning sier 67 % av lederne at forhåndsgodkjenning alene kveler produktiviteten, og 62 % påpeker at det er slitsomt med administrasjon av elektroniske journaler. Store språkmodeller som leser diagrammet og automatisk fyller ut disse skjemaene, sparer allerede dager på krav og frigjør ansatte til arbeid med høyere verdi.
Hvorfor disse to? De treffer trioen av lav klinisk risiko, høy avlastning for arbeidsstyrken og klar begrunnelse basert på økonomiske kostnaderI et marked der 68 % av ledere oppgir bemanningskostnader som den største økonomiske pressen, er verktøy som gir tilbake timer uten å endre behandlingsplanen det enkleste «ja»-et. Autonom diagnose kommer senere; nå tjener GenAI sin plass ved å få utklippstavlen til å forsvinne.
Undersøkelsen bemerker at data ikke er den største risikoen som respondentene nevner – noe som er overraskende gitt hvor ofte personvern dominerer overskriftene. Hvilke risikoer ser klinikere og administratorer som mer presserende?Jeg ble også overrasket. Overskriftene vil ha oss til å tro at HIPAA-brudd holder alle IT-sjefer på sykehus våkne om natten. Likevel viser dataene våre at bare 56 % av fagfolk nevner personvern som en av de største GenAI-risikoene, mens en enda større andel (57 %!) bekymrer seg for å «forenkle» klinisk vurdering. Det forteller meg at frykten i frontlinjen ikke er hackere, men ansvarlighet.
Her er hva klinikere og administratorer svetter:
- Ansvarsrulett. Hvis algoritmen dytter omsorgen ut av kurs, hvem signerer da feilbehandlingssjekken? Mangel på klare regler og standarder rangerer sammen med åpenhetshull på 55 %, noe som signaliserer reell uro rundt den juridiske eksplosjonsradiusen.
- Regulatorisk whiplash. Syttiseks prosent av ledere føler seg allerede slått ned av endrede Medicare- og Medicaid-regler. Å legge ugjennomsiktig GenAI oppå det er vanskelig å selge inntil rekkverket stivner.
- Modelldrift og skjevhet. Femti-fem prosent markerer skjevhet fra undertrente modeller som en kritisk risiko, en påminnelse om at foreldede data kan være like farlige som manglende data.
Kort sagt, de fleste organisasjoner antar at brannmurene deres er anstendige; de ikke ha en tydelig ansvarskjede når utdata fra en stor språkmodell (LLM) havner i en behandlingsplan. Inntil styringsrammeverk spesifiserer eierskap, revisjonsspor og oppdateringskadenser, vil GenAI-utrullinger fortsette å stoppe opp, uavhengig av hvor stram sikkerhetsstakken er.
Tror du at GenAI-verktøy til syvende og sist vil forbedre eller svekke klinikernes autonomi? Hvordan kan vi utforme systemer som støtter beslutningstaking uten å overskride den?
GenAI er klar til å utvide, ikke krympe, klinisk autonomi. Akkurat nå hindres mye av denne autonomien av sortering i innboksen, papirarbeid for forhåndsgodkjenning og EHR-gymnastikk. Det er derfor ikke overraskende at frontlinjeansatte rangerer «optimalisering av arbeidsflyter» som sitt viktigste bruksområde for GenAI (80 % prioritet), selv om knapt 63 % føler seg teknisk klare til å utføre arbeidet. Farmasøyter og alliert helsepersonell satser allerede på det positive: 41 % og 47 % forventer at GenAI vil skjære ut nok administrativt fett til å redusere behovet for støttepersonell. Å frigjøre klinikere fra dataregistrering betyr mer tid ansikt til ansikt med pasienter. Det er autonomien alle ønsker.
Undersøkelsen minner oss likevel om at autonomi går begge veier, slik vi har vært inne på tidligere: 57 % av respondentene er bekymret for at overdreven avhengighet av GenAI kan sløve klinisk vurdering. Motgiften er gjennomtenkt design, ikke nedbremsing. Systemer må vise arbeidet sitt med proveniensflagg, siteringer og konfidenspoeng, slik at mennesker forblir de endelige dommerne. Versjonskontroll og overvåking etter utrulling fanger opp stille modelldrift før den forgifter behandlingsforløp, mens «alltid synlige overstyrings»-knapper gjør det klart at algoritmen er en assistent, ikke den behandlende.
Styring er den siste milen. Bare 18 % av fagfolk sier at organisasjonen deres har en publisert GenAI-policy. Uten en transparent ansvarlighetskjede vil selv den beste brukeropplevelsen stanse i juridisk limbo. Robuste policyer må spesifisere dataforvaltning, revisjonsspor og rolleavgrensning som sosialiseres på tvers av leger, sykepleiere og legeassistenten som trykker på knappen. Når vi kombinerer disse rekkverket med arbeidsflyt-native design, slutter GenAI å føles som en trussel mot autonomien og begynner å oppføre seg slik andrepilotklinikerne har tryglet om.
Hva hindrer adopsjonen mest – teknologiske begrensninger, regulatorisk usikkerhet, friksjon i arbeidsflyten eller noe dypere som kulturell motstand?
Det er et gjennomføringsunderskudd pakket inn i tradisjonelle insentiver. De fleste ledere i helsesystemet kan formulere en elegant GenAI-visjon, men deres operasjonelle styrke har ikke tatt igjen. Undersøkelsen vår viser bruddet på én linje: 80 % av respondentene rangerer «optimalisering av arbeidsflyter» som en topprioritet, men bare 63 % tror de er klare til å gjøre det. Visjon er billig; integrasjonsingeniører, endringshåndteringsstrategier og GPU-budsjetter (grafikkprosessenheter) er det ikke.
Styring er det neste synkehullet. Bare 18 % av fagfolkene er i det hele tatt klar over en publisert GenAI-policy ved sykehuset sitt. Uten klare regler for databruk, validering og ansvar risikerer enhver lovende pilot å bli en granat for samsvar. Denne juridiske tåken forsterkes av makroøkonomisk usikkerhet. Faktisk bekymrer 75 % av lederne seg for at raskt skiftende statlige og føderale forskrifter vil snu opp ned på den løsningen de ruller ut.
Så kommer friksjon på skyttergravsnivå: nesten halvparten av lederne nevner skitne data og mareritt knyttet til integrering av elektroniske pasientjournaler som primære barrierer, og bare 42 % sier at de har en prosess for å integrere GenAI-verktøy i eksisterende arbeidsflyter. Hvis modellen ikke kan se diagrammet eller legger til klikk, vil klinikerne forlate den før lunsj.
Til slutt har vi «pilot-skjærsilden». Tallrike eksterne studier anslår at suksessraten for AI-piloter som uteksamineres til bedriftsskala er omtrent én av ti. Styrer feirer demonstrasjonen, sender ut en pressemelding og går videre. Fordi ingen finansierer det følgende uglamorøse rørleggerarbeidet. GenAI vil forbli et PowerPoint-løfte inntil sykehusene bemanner med produkteiere som har levert programvare før.
Kort sagt, teknologi og kultur er ikke separate blokkeringer. De er sammensmeltet. Løsningen på ansvarlig lederskap, reelle integrasjonsbudsjetter, eksplisitte rekkverk og appetitten for GenAI vil matche hypen.
Du har bygget AI-systemer med fokus på pragmatiske, evidensbaserte resultater. Hvilke råd vil du gi til ledere innen helsevesenet som prøver å navigere hypen og identifisere virkelig verdifulle AI-investeringer?
Start med en diagnose, ikke en demonstrasjon. Før du lar en skinnende hammer jakte på spiker, kvantifiser spikeren: Er operasjonsstueutnyttelsen nede med 8 % i to kvartaler på rad? Sliter avslagsanker og tapper inntektene? Bruker sykepleieravdeling tre to timer per skift på EHR-«vekslingstid» (tid brukt på å bytte mellom skjermer og oppgaver)? Når smerten er tydelig, har det riktige verktøyet en tendens til å introdusere seg selv. Som Sir William Osler minnet det medisinske miljøet på for generasjoner siden: «Lytt til pasienten; [de] vil fortelle deg diagnosen.»
Med problemet klart, undersøk forretningsmodellen som en finansdirektør. Krev harde tall: grunnlinjemålinger, forventede deltaer og tilbakebetalingsvinduer som overlever en snifftest i styrerommet. Husk at bare omtrent én av ti AI-piloter oppgraderer til bedriftsskala; hvis leverandøren ikke kan vise en levende kunde som har beveget seg mot nøkkelindikatoren (KPI) du bryr deg om, fortsett å gå.
Deretter bør du bestemme deg for kjøp, bygging eller partnerskap. Kjøp kan akselerere tiden til verdiskaping, men vær oppmerksom på «vaporware» kledd i moteord. Bygging gir deg kontroll, men bare hvis du har en «tiger team» med profitt- og tapseiere som har levert maskinlæring i produksjon før. Hybride partnerskap finner ofte balansen: dine data, deres modell, delt oppside, delt risiko.
Til slutt, prioriter små, tverrfaglige team med tydelig ansvarlighet. Tenk deg en gruppe på to personer, inkludert markedsføringssjefen, IT-sjefen, lederen for datateknikk og en frontlinjeforkjemper, i stedet for store styringskomiteer. Tilpass insentivene deres til flerårige resultatmål i stedet for kortsiktige målinger, og gi dem et dedikert infrastrukturbudsjett – GPU-er, datateknikk, maskinlæringsoperasjoner (MLOps) – slik at prosjektet går videre utover pilotfasen.
Til slutt, et blikk fremover: hvordan ville et ansvarlig, fullt integrert GenAI-system se ut på et sykehus om fem år? Hva er milepælene vi må nå for å komme dit?
Tenk deg å gå inn på en klinikk der legen aldri snur seg til tastaturet. Samtalen flyter, og en diskré agent som lytter til omgivelser fanger opp dialogen, skriver et notat, gir retningslinjebaserte ordre og genererer forhåndsgodkjenningspakken før legens hånd er på dørhåndtaket. Tidlige pilotprosjekter beviser allerede konseptet, og 41 % av klinikerne i undersøkelsen vår sier at dette er nettopp den GenAI-funksjonen de ønsker seg neste gang.
Det er ikke sci-fi-robotikk som gjør den scenen mulig; det er en usynlig arkitektur som smelter sammen rene, interoperable data med et sanntidsorkestreringslag og «styring som kode». Vi har fortsatt rekkverk å gjøre. For å lukke hullene, tenk først på datarørleggerarbeid, og legg deretter inn rekkverkene (i stedet for å bolte dem på) for å gjøre hypen til en vane.
Milepæler faller naturlig når grunnlaget er lagt. I det første året anbefaler jeg at sykehus og helsesystemer kobler sammen datastrukturen, publiserer GenAI-retningslinjer for hele virksomheten og bygger en MLOps-pipeline. I det andre implementeringsåret vil det være viktig å skalere omgivende dokumentasjon på tvers av ambulante klinikker, måle dokumentasjonstid og «pysjamastid» etter arbeidstid. I det tredje året, la GenAI utarbeide avslagsklager og forhåndsgodkjenningspakker (67 % av lederne sa at byrden er moden for eliminering). I det fjerde og femte året, utvikle til klinisk beslutningsstøtte i sanntid med proveniens og, til slutt, samtalebasert behandlingsplanlegging der systemet utfører ordre i det øyeblikket de blir sagt.
Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Wolters Kluwer eller lese Undersøkelse om fremtidsklar helsevesen Report.