Interviews
Aron England, Chief Product & Technology Officer hos Accruent – Interview Serie

Aron England, Chief Product og Technology Officer hos Accruent, er en erfaren teknologi- og produktleder, der er kendt for at opbygge og skala globale teams, der leverer SaaS og agentic løsninger fra tidlige forskningsfaser til højvækst, kundeorienterede produkter. Han kombinerer dyb ekspertise på tværs af forbrugermarkeder, B2B SaaS, e-commerce og kommerciel teknologi med stærk ledelse, der parrer innovation med en skarp forståelse af kundeudfordringer for at drive varig produkt-markedsfit og målbare forretningsresultater, herunder vækst gennem opkøb og IP-dreven strategi.
Accruent leverer software, der hjælper organisationer med at køre den fysiske side af deres forretning mere effektivt, ved at samle værktøjer til faciliteter, aktiver, rum og arbejdspladsoperationer i ét sammenhængende system. Deres platform er designet til at reducere fragmentering, forbedre synlighed og beslutningstagning, og hjælpe teams med at planlægge, vedligeholde og optimere bygninger og udstyr på tværs af en bred vifte af industrier.
Du har bygget og ledet højtpræsterende globale teams i mere end 25 år. Når du ser tilbage over startups, store virksomheder og nu Accruent, hvilken afgørende oplevelse har mest formet, hvordan du tænker om at bygge troværdig teknologi i stor målestok?
Fra at have tilbragt tid i Fortune 50-virksomheder og have arbejdet med teknologiledelse i tidlige startups, mellemstore og større offentlige og private virksomheder, har jeg opnået en bred vifte af erfaringer, når det kommer til at fremme digital transformationsadoption på tværs af forskellige industrier. Mest bemærkelsesværdigt var jeg medarbejder nummer ni hos DocuSign, og vi havde til mål at nå et marked, der havde brug for en sand revolution. At skubbe den analoge kontraktindustri gennem en total digital transformation krævede ikke kun opbygning af markedstro, men også lovgivning for at gøre skiftet sikkert. Der er mange lærdomme fra min tid der, der kan anvendes på det nuværende marked for LLM’er og AI-værktøjer.
På et højt niveau har mønsteret på tværs af min erfaring været konsistent: troværdige systemer opstår ikke tilfældigt. De kommer fra intentionel arkitektur, datakonsistens, gennemsigtighed og en dyb forståelse af, hvordan rigtige mennesker bruger teknologi.
Du har advaret om, at teknikerne inden 2026 ikke længere vil acceptere AI-systemer, der blot siger “stol på mig.” Fra din synsvinkel hos Accruent, hvad er det, der driver denne skift i forventninger blandt frontline- og felttjenesteprofessionelle?
I miljøer, hvor facilitetschefer og teknikerne udnytter AI til at diagnosticere udstyrsfejl og guide komplekse reparationer, kan et misstep fra en falsk eller ukorrekt anbefaling medføre store forretnings- og sikkerhedsrisici.
Ofte skaber LLM’er blandede svar fra multiple sider uden at henvise tilbage til den underliggende bevis. Som følge heraf kan en organisation stå over for store compliance-problemer, hvis en tekniker følger en AI-genereret skridt, der aldrig direkte eksisterede i OEM-manualen, da de ikke vil have en forsvarlig beviskæde for revisioner eller sikkerhedsrevisioner. Da AI bliver en selvfølge og mere “usynlig” i software, vil vigtigheden af sporing voks.
AI-hallucinationer kan være mere end en ulempe i regulerede industrier – de kan skabe rigtige sikkerheds-, compliance- og operationsrisici. Hvilke hallucinations-scenarier bekymrer dig mest, når det kommer til vedligeholdelse, facilitetsledelse eller aktiveringsoperationer?
I fremstilling kan en AI-genereret anbefaling, der fortæller en fabriksarbejder at tage det forkerte skridt på et kritisk stykke udstyr, resultere i uventet nedtid, spildt materiale, defekte slutprodukter eller beskadiget maskineri. Disse kan være milliondollars-fejl, da fremstillingslinjer står stille eller endda reputations-skader, hvis det senere fører til tilbagetrækninger.
Disse hallucinationer fra AI-værktøjer er også særligt skadelige for industrier som sundhedssektoren, da ansvar og patienters liv er på spil, når der er en maskinefejl, der ikke blev ordentligt vedligeholdt eller repareret i tide. Når man har med industrier at gøre, der interagerer med den virkelige verden, er det ikke så enkelt at rette fejl ved at slette og starte forfra.
Du har understreget, at hver AI-udgangspunkt skal pege tilbage til originale kilder – manualer, datafiler, diagrammer, historiske logfiler. Hvordan designer Accruent systemer, der sikrer sporing og eliminerer “black box”-svar?
Vi sikrer, at AI-anbefalinger kan spores tilbage til meningsfulde udgangspunkter i deres kildegrundlag, såsom den specifikke manualside, diagram, datafil eller logindgang, der informerede anbefalingen. For eksempel, hvis AI-anbefalingerne fortæller en facilitetschef i sundhedssektoren, hvordan man servicerer en kompressor, skal de være i stand til at spore tilbage til den eksakte paragraf, der støtter dette skridt, for at sikre nøjagtighed. For at lukke den voksende tillidskløft i dagens enterprise AI er det vigtigt, at disse systemer også kan afsløre, hvilke punkter eller sider, der faktisk blev evalueret, så brugerne ved, om AI’en gennemgik alle relevante dokumenter eller kun en undermængde.
Mange enterprise AI-værktøjer prioriterer hastighed, men regulerede miljøer kræver revisionsstier, dokumentationsnøjagtighed og verificerbare begrundelser. Hvordan balancerer du innovation med behovet for gennemsigtighed og compliance?
At integrere AI i eksisterende arbejdsprocesser er nøglen. Dette simplificerer processen med at lagre godkendelser, dokumentation, vedligeholdelsesrutiner og compliance-tjek ind i kendte praksisser, i stedet for at implementere et nyt isoleret værktøj. Dette betyder, at man undgår en fuldstændig omlægning af operationer og tillader medarbejderne at fortsætte med at arbejde på den måde, de har, men med manuelle, tidskrævende processer, der bliver automatiseret.
Teknikere på feltet afhænger af præcise instruktioner. Hvordan tilgår Accruent udfordringen med at grundlægge AI-udgangspunkter i autoritative kildegrundlag for at reducere risici og forbedre teknikernes tillid?
Vores tilgang starter med at indfange og organisere manualer, diagrammer, tegninger, lejemål og historiske arbejdsordrer for at sikre, at AI leverer svar fra et selskabs specifikke indhold og ikke generisk træningsdata. Når vi genererer procedurer, anbefalinger eller checklister, er vores systemer designet til, at hvert skridt kan spores tilbage til den oprindelige dokumentation.
Uden denne funktion ville teknikere, der allerede er under pres, skulle bruge endnu mere tid på at grave gennem dokumenter manuelt for at verificere nøjagtighed, hvilket yderligere ville forsinke processer og arbejdsordrer.
At levere gennemsigtig, revisionsklar AI kræver store mængder struktureret data. Hvilke dataudfordringer – fra ustrukturerede legacy-dokumenter til inkonsistente aktiveringshistorier – skal løses for at gøre denne vision til virkelighed?
At levere revisionsklar AI starter med pålidelig og velorganiseret data. Imidlertid lever det meste af den fysiske verden stadig i analoge processer, med manuelle dataindtastninger, scannede PDF’er og siloede regneark. Når der er huller i data og aktiveringshistorier, der er ufuldstændige eller inkonsistente, øges risikoen for AI-hallucinationer. For at gøre AI-udgangspunkter troværdige i regulerede miljøer må virksomheder først løse legacy-data-vejblokkeringer, fra ustrukturerede formater til inkonsistente historier, manglende governance, ved at migrere til strukturerede, versionkontrollerede, centraliserede dokument- og aktiveringsdata-systemer.
Vores EDMS (Engineering Document Management System) kan gøre det for multiple industrier, herunder mining, utilities, fremstilling og mere. Disse industrier afhænger ofte af fysiske ingeniørtegninger og dokumentation, hvilket kan skabe versionkontrol-mareridt. Ved at bruge vores EDMS-løsning til at digitalisere disse dokumenter er det første skridt. Derefter hjælper softwaren med at styre versionkontrol, arbejdsprocesser og revisionsstier for at sikre, at inkonsistenser elimineres.
Da AI bliver integreret i vedligeholdelse, faciliteter og aktiveringslivscyklusledelse, hvor ser du de største muligheder for at forbedre produktiviteten uden at kompromittere med sikkerhed eller regulatoriske krav?
En af de største muligheder er at automatisere mundane, ikke-værdi-tilførende opgaver for medarbejdere, såsom manuel dataindtastning og planlægning af arbejdsordrer for teknikerne. Set udefra kan det synes som en relativt let, men tidskrævende opgave. Imidlertid kan AI tilgå opgaven mere strategisk.
Først kan en arbejdsordre udløses baseret på anomalidetektion, før der overhovedet opstår en fejl, hvis udstyret i spørgsmål overvåges med sensorer. Anden, AI kan hjælpe med at automatisere prioritering af arbejdsordrer baseret på urgensen og planlægge reparationer på tidspunkter, der medfører mindst mulig forstyrrelse for en forretning – det kan også vejre multiple samtidige problemer, omkostninger, sikkerhed og omsætning på én gang for den bedst mulige fremadrettet vej.
AI har potentialet til ikke blot at “assisterer” vedligeholdelse og facilitets teams – det vil i stigende grad fungere som en digital operatør.
Tillid bliver det nye minimumskrav for enterprise AI. Hvad tror du, at leverandører skal gøre anderledes de næste to år for at opnå – og fastholde – denne tillid?
Leverandører må ophøre med at antage, at kunder blot “stoler på modellen”, når det kommer til enterprise AI. Anbefalinger fra AI skal vise bevis for, hvordan de blev genereret. En måde at tackle dette på er i form af citater og klare beskrivelser af, hvilke dokumenter AI’en faktisk så på eller ej. For eksempel, hvis en medarbejder beder AI om at analysere 1.000 lejemål, skal de vide eksplisit, om det evaluerede alle 1.000 eller kun 700, og hvorfor eller hvorfor ikke.
Som en del af dette skal leverandører prioritere gennemsigtighed i dataanvendelse. Det inkluderer klare forklaringer om, hvem der ser data, hvordan det bruges (herunder eventuelle træningsimplikationer), og hvordan det adskilles eller isoleres fra andre kunders miljøer.
De næste to år vil opnåelse af tillid være afgørende, og leverandører kan få overtaget ved at være eksplicit om AI-værktøjens begrænsninger, holde mennesker i løkken for højrisikodecisioner og starte med snævre, velafgrænsede brugsområder, der leverer konkrete værdier uden at sætte kunder i en “black box”-situation.
Set fremad, hvordan ser du AI udvikle sig inden for mission-critical operationer, og hvilken rol forventer du, at Accruent vil spille i at fastlægge branchestandarder for troværdig, gennemsigtig AI?
AI i mission-critical operationer udvikler sig hurtigt fra isolerede enkeltopgave-automatiseringer til intelligente, multi-agent-systemer, der kan koordinere og optimere hele arbejdsprocesser. I stedet for blot at assisterer brugere vil AI levere autonom beslutningsstøtte, overvåge kontinuerligt operationsbetingelser, forudsige risici og anbefale handlinger med fuld gennemsigtighed og sporing. Da AI lærer at kombinere ustrukturerede dokumenter, struktureret operationsdata og realtids-signaler, vil det blive integreret direkte i daglige processer, hvilket driver hurtigere, sikrere og mere pålidelige resultater.
Over tid vil dette muliggøre en skift mod autonome operationer, hvor systemer kan selvoptimeres og selvkorrigere, mens mennesker fokuserer på oversigt og strategiske beslutninger. Som en markedsleder vil Accruent hjælpe med at fastlægge branchestandarder for troværdig og gennemsigtig AI ved at integrere revisionsklarhed, forklarbarhed og stærk governance i deres platform og ved at samarbejde med kunder, partnere og regulatoriske organer for at definere bedste praksis for sikker implementering i mission-critical miljøer.
Tak for det gode interview, læsere, der ønsker at lære mere, skal besøge Accruent.












