Intervjuer
Efrain Ruh, CTO av EMEA i Digitate – Intervju-serie

Efrain Ruh er Chief Technology Officer for EMEA i Digitate, der han leder regional teknologistrategi med fokus på bedrifts-AI, automatisering og stor skala operasjonell transformasjon. Han arbeider tett med kunder over hele Europa, Midtøsten og Afrika for å hjelpe organisasjoner med å distribuere AI på en ansvarlig måte, med fokus på praktisk gjennomføring, styring og målbare resultater. Ruh er en hyppig bidragsyter til bransjediskusjoner om agens-AI, MLOps-maturitet og realitetene ved å gå fra AI-piloter til produksjonssystemer.
Digitate er et bedriftsprogramvareselskap og et datterselskap av Tata Consultancy Services som spesialiserer seg på AI-drevet automatisering for IT og bedriftsoperasjoner. Deres kjernplattform, ignio, muliggjør autonome operasjoner ved å kombinere maskinlæring, kunnskapsgrafer og intelligent automatisering for å oppdage problemer, forutsi resultater og selvhelende systemer over komplekse bedriftsmiljøer. Digitate betjener store globale organisasjoner som søker å redusere operasjonell kompleksitet samtidig som de forbedrer motstand og effektivitet gjennom anvendt AI.
Gitt din omfattende tekniske lederroller i Digitate og din tidligere hånd-til-hånd-erfaring over IT-operasjoner, arkitektur og bedriftssystemer, hvordan har din syn på viktigheten av forklarbar AI utviklet seg sammenlignet med de sorte boks-automatiseringsmodellene mange organisasjoner fortsatt avhenger av i dag?
Tidligere generasjoner av automatisering var hovedsakelig reaktive og regelbaserte, noe som gjorde at sorte boks-atferd var mer tolerabel ettersom resultater var svært forutsigbare. Nå som AI-systemer beveger seg mot proaktive agenter som kan granske og generere sine egne svar, forsvinner toleransen for uklarhet. IT-ledere er ansvarlige for å holde kritiske systemer tilgjengelige døgnet rundt, og den ansvarligheten lar svært lite rom for eksperimentering med systemer hvis grunn ikke kan validers. Forklarbarhet har derfor skiftet fra en teknisk funksjon til en operasjonell krav som muliggjør tillit i stor skala. For å stole på disse nye AI-agenter er det viktig at de deler sin tankegang (hovedsakelig hvordan de kom frem til løsningen) og deres grunnresultater.
Hvorfor er tillit og forklarbarhet de største hindrene for videre utbredelse av avansert AI-drevet automatisering i bedrifts-IT?
Bedrifts-IT opererer under konstant ansvar og risiko. Når AI-systemer tar beslutninger autonomt, spesielt i forebyggende eller selvhelende driftsmodeller, må tilsynsholdene kunne forstå hvorfor en bestemt handling ble utført. Uten innsikt i bevis, kontekst og beslutningslogikk introduserer AI usikkerhet i stedet for å redusere den. Den mangelen på transparens og usikkerhet påvirker tillit, og dermed bremser ned adopsjon blant IT-team mer enn modellnøyaktighet eller ytelse noen gang kunne.
Hva ser egentlig ut som ekte forklarbarhet i AI-drevet IT-operasjoner, og hvordan kan det hjelpe team med å validere beslutninger før systemer handler autonomt?
Ekte forklarbarhet er praktisk og operatør-fokusert. Dette betyr at teknologien må tydelig vise dataene som brukes til grunn, validere at systemet forstår den riktige operasjonelle konteksten, og forklare den anbefalte handlingen på menneskelesbar måte. Det inkluderer også historisk validering, som om lignende beslutninger har blitt tatt tidligere og hva resultater var. Dette tillater team å validere handlinger raskt og utvide autonom utførelse der risikoen er lav. Hvis mennesker ikke kan raskt fordøye og handle på utskrift, så mislykkes et forklaringsverktøy i å tjene sitt formål.
Hvordan oversetter mangelen på forklarbarhet seg til reelle operasjonelle, finansielle eller forretningsrisiko for store organisasjoner?
Hvis du drev en fabrikk og et viktig stykke utstyr manglet varslinger for å flagge et vedlikeholdsproblem, ville det til slutt begynne å feile uten å varsle teamet – noe som ville føre til dårlig kvalitet produkter eller uventet nedtid. Tilsvarende kan AI uten forklarbarhet omdanne små data-problemer til store forretningshendelser. Et AI-basert kapasitetsprognose-system som opererer på ufullstendige data kan redusere infrastrukturkapasiteten for å spare kostnader, bare for å forårsake alvorlig ytelsesnedgang under toppbehandlingsperioder. I tilfelle av bedrifts-AI-systemer ser man ofte effekten av dårlig forklarbarhet gjennom manglende SLA, finansielle straffer og kundeimpakt. Tilsvarende kan aggressiv varslingssuppresjon skjule kritiske feil, og tillate nedtider å forbli uoppdaget til det er en ekte nødsituasjon.
Hva rolle bør AI-plattformer spille i å gjøre deres grunn tilgjengelig og forståelig for IT-team som opererer kritiske systemer?
En godt designet AI-agent eller plattform har forklarbarhet innebygget, rent og enkelt. Autonome systemer bør dokumentere dataene som brukes, logikken som brukes, handlingene som anbefales eller utføres, og resultater som følger. Denne informasjonen må presenteres på den operasjonelle språket IT-team bruker, som avhengigheter, historiske hendelser og forretningsimpakt, i stedet for abstrakte AI-poeng. Gjennomførbarhet er essensiell for ansvar, læring og langvarig tillit.
Hvilke arkitektoniske eller design-tilnærminger hjelper bedrifter med å gå bort fra uklare automatisering mot mer transparent, glass-boks-beslutning?
Bedrifter adopterer arkitekturer som grunner AI-beslutninger i høykvalitets operasjonelle data og tydelig skiller data-validering fra beslutningslogikk. Transparente systemer sikrer at AI arbeider med riktige innputt og antagelser før det handler. Mange organisasjoner bruker også trinnvis autonomi, starter med anbefalinger og fremmer til å begrense autonom utførelse når tillit vokser. Åpen data-tilgang og tydelige politikklag er kritisk for å unngå sorte boks-atferd når autonomi øker. Det er fortsatt mye rom for industrien til å vokse forklarbarhet, og jeg tror vi kommer til å se en boom i forklarbarhetsfunksjoner i år
Hvordan oppnår organisasjoner riktig balanse mellom autonom AI-handling og menneskelig tilsyn uten å bremse ned operasjoner?
Balansen oppnås gjennom risikobaserte kontroller i stedet for blanket-tilsyn. Lav-risiko, høyfrekvens-oppgaver kan automatiseres fullstendig med retningslinjer, mens høyere-impakt-beslutninger forblir menneske-validerende til systemer demonstrerer pålitelighet. Ettersom forklarbarhet forbedres og AI konsekvent viser sunn dømmekraft, utvides autonomi naturlig uten å introdusere operasjonell friksjon.
Hva råd ville du gi til CIO-er og CTO-er som ønsker å skalerer AI over IT-operasjoner, men møter intern motstand på grunn av synlighet og ansvarlighetsbekymringer?
Start med transparens, ikke autonomi. Inkluder dine IT-team tidlig og prioriter synlighet i både design og utrulling for å bygge tillit. Motstand stammer vanligvis fra mangelen på innsikt i AI-beslutninger, ikke fra motstand mot innovasjon i seg selv. Deretter fokuserer du på brukstilfeller som reduserer støy, eliminerer varslingstrøtthet og tydelig forklarer hvordan beslutninger tas før systemer tillates å handle uavhengig.
Når AI-systemer tar på seg mer beslutningsansvar, hvordan bør ledelseslag omtenke styring, validering og tillit-modeller?
Styring må skifte fra statiske godkjenningsprosesser til kontinuerlig validering. Ledelseslag må definere hvor autonomi er tillatt, hva bevis er nødvendig, og når menneskelig inngripen er nødvendig. Tillit bør være tjent gjennom målbare resultater som nøyaktighet, reduserte hendelser og raskere løsningstider, i stedet for antagelser om modell-sophistication.
Ser fremover, hvordan ser du på forklarbar og transparent AI-former fremtiden for autonome IT-operasjoner over de neste få årene?
Forklarbar AI vil være en grunnleggende del av puslespillet når det gjelder å bygge proaktive og autonome IT-operasjoner for å skalerer trygt, uten å miste den viktige tilliten til ditt IT-team. Generativ AI er allerede i ferd med å forbedre transparensen ved å muliggjøre systemer å fremme bevis, validere fakta og forklare beslutninger på menneskelesbar måte. Over de neste få årene vil dette nivået av forklarbarhet bli standard, og tillater organisasjoner å gå utenfor eksperimentering og innføre AI dypt i operasjoner, styring og arbeidsflyt som en pålitelig partner i stedet for en uklar beslutningstaker. Over de neste få årene vil AI-agenter være på plass for å håndtere forskjellige aktiviteter i en organisasjon, de vil bli en del av vår hverdagsliv, men for å stole på dem er nøyaktighet og transparens nøkkelaspektene for å oppnå dette målet.
Takk for det flotte intervjuet, lesere som ønsker å lære mer bør besøke Digitate.












