Intervjuer
Aron England, Chief Product & Technology Officer på Accruent – Intervjuserie

Aron England, Chief Product och Technology Officer på Accruent, är en erfaren teknologi- och produktledare som är känd för att bygga och skala globala team som levererar SaaS och agenslösningar från tidig forskning till högt tillväxt, kundorienterade produkter. Han kombinerar djup expertis inom konsumentmarknader, B2B SaaS, e-handel och kommersiell teknik med starka ledaregenskaper, som parar innovation med en skarp förståelse av kundproblem för att driva varaktig produkt-marknadsanpassning och mätbara affärsresultat, inklusive tillväxt genom förvärv och IP-driven strategi.
Accruent tillhandahåller programvara som hjälper organisationer att köra den fysiska sidan av sin verksamhet mer effektivt, genom att samla verktyg för anläggningar, tillgångar, utrymme och arbetsplatsoperationer i ett sammanhängande system. Plattformen är utformad för att minska fragmentering, förbättra synlighet och beslutsfattning, och hjälpa team att planera, underhålla och optimera byggnader och utrustning inom en mängd olika branscher.
Du har byggt och lett högpresterande globala team i över 25 år. När du ser tillbaka på startups, stora företag och nu Accruent, vilken avgörande erfarenhet har formats hur du tänker om att bygga pålitlig teknik i stor skala?
Från att ha tillbringat tid på Fortune 50-företag och arbetat i teknisk ledning på tidiga startups, medelstora och stora offentliga och privata företag, har jag fått en bred erfarenhet när det gäller att främja digital transformationsadoption över olika branscher. Mest anmärkningsvärt var jag anställd nummer nio på DocuSign och vi riktade oss mot en marknad som behövde en verklig förändring. Att driva den analoga kontraktindustrin genom en total digital transformation krävde inte bara byggande av marknadsförtroende, utan också lagstiftning för att göra skiftet säkert. Det finns många lärdomar relaterade till min tid där som kan tillämpas på den nuvarande marknaden för LLM och AI-verktyg.
På en hög nivå har mönstret över min erfarenhet förblivit konsekvent: pålitliga system uppstår inte av en slump. De kommer från avsiktlig arkitektur, datakonsekvens, transparens och en djup förståelse av hur riktiga människor använder teknik.
Du har varnat för att tekniker inte längre kommer att acceptera AI-system som bara säger “lita på mig” från och med 2026. Från din utgångspunkt på Accruent, vad driver denna förändring i förväntningar bland frontline- och fälttjänstprofesionella?
I miljöer där anläggningschefer och tekniker använder AI för att diagnostisera utrustningsfel och vägleda komplexa reparationer, kan ett missteg från ett falskt eller inkorrekt rekommendation orsaka stora affärs- och säkerhetsrisker.
Ofta skapar LLM blandade svar från flera sidor, utan att hänvisa tillbaka till den underliggande bevisen. Som ett resultat, om en tekniker följer en AI-genererad steg som aldrig direkt existerade i OEM-manualen, kan en organisation möta stora regelefterlevnadsåterverkningar, eftersom de inte kommer att ha en försvarbar beviskedja för revisioner eller säkerhetsgranskningar. När AI blir en självklarhet och mer “osynlig” i programvara, kommer vikten av spårbarhet att öka.
AI-hallucinationer kan vara mer än ett besvär i reglerade branscher – de kan skapa verkliga säkerhets-, regelefterlevnads- och operativa risker. Vilka hallucinationsscenarier oroar dig mest när det gäller underhåll, anläggningshantering eller tillgångsdrift?
I tillverkning, om en AI-genererad förslag berättar för en fabriksarbetare att ta fel åtgärd på en kritisk del av utrustningen, kan det resultera i oplanerad nedtid, slösad material, defekta slutprodukter eller skadad maskin. Dessa kan vara miljonfelsbeslut eftersom tillverkningslinjer står stilla eller till och med rykteskador om det senare leder till återkallanden.
Dessa hallucinationer från AI-verktyg är också särskilt skadliga för branscher som hälsovård, eftersom ansvar och patienters liv är i fara när det finns en maskinfel som inte ordentligt underhålls eller fixas i tid. När du hanterar branscher som interagerar med den verkliga världen, är det inte så enkelt att fixa misstag genom att trycka på “radera” och börja om.
Du har betonat att varje AI-utdata måste peka tillbaka till originalkällor – manualer, datatabeller, diagram, historiska loggar. Hur designar Accruent system som säkerställer spårbarhet och eliminerar “svarta lådor”-svar?
Vi säkerställer att AI-rekommendationer kan spåras tillbaka till meningsfulla utdata i dess källmaterial, såsom den specifika manualsidan, diagrammet, datatabellen eller loggen som informerade förslaget. Till exempel, om AI-rekommendationerna berättar för en anläggningschef inom hälsovården hur man servar en kompressor, bör de kunna spåra tillbaka till den exakta paragrafen som stöder det steget på ett klick, för att säkerställa noggrannhet. För att stänga den växande tillitsklyftan i dagens företags AI, är det viktigt att dessa system också kan avslöja vilka punkter eller sidor som faktiskt utvärderades, så att användare vet om AI granskade alla relevanta dokument eller bara en del.
Många företags AI-verktyg prioriterar hastighet, men reglerade miljöer kräver revisionskedjor, dokumentationsnoggrannhet och verifierbar resonemang. Hur balanserar du innovation med behovet av transparens och regelefterlevnad?
Att integrera AI i befintliga arbetsflöden är nyckeln. Det förenklar processen att lägga till godkännanden, dokumentation, underhållsrutiner och regelefterlevnads kontroller för att förstärka kända metoder, snarare än att implementera ett nytt isolerat verktyg. Det innebär att undvika en fullständig ombyggnad av verksamheten och låta anställda fortsätta att arbeta på det sätt de har, men med manuella, tidskrävande processer som blir automatiserade.
Tekniker i fält förlitar sig på precisa instruktioner. Hur närmar sig Accruent utmaningen att förankra AI-utdata i auktoritativa källmaterial för att minska risk och förbättra teknikerförtroende?
Vår metod börjar med att fånga och organisera manualer, diagram, ritningar, hyresavtal och historiska arbetsorder för att säkerställa att AI tillhandahåller svar från ett företags specifika innehåll, inte generisk utbildningsdata. När procedurer, rekommendationer eller checklista genereras, är våra system utformade så att varje steg kan spåras tillbaka till den ursprungliga dokumentationen.
Utan denna funktion skulle tekniker som redan är pressade för resurser behöva spendera ännu mer tid på att gräva genom dokument manuellt för att verifiera noggrannhet, vilket ytterligare skulle försena processer och arbetsorder.
Att leverera transparent, revisionsklar AI kräver stora mängder strukturerad data. Vilka datautmaningar – från ostrukturerade äldre dokument till ofullständiga tillgångshistorier – måste lösas för att göra denna vision verklighet?
Att leverera revisionsklar AI börjar med tillförlitlig och välorganiserad data. Emellertid borde den byggda miljön fortfarande leva i analogiska processer, med manuella datainmatningar, skannade PDF:er och isolerade kalkylblad. När det finns luckor i data och tillgångshistorier som är ofullständiga eller inkonsekventa, ökar AI-hallucinationsrisken. För att göra AI-utdata pålitliga i reglerade miljöer, måste företag först lösa äldre datahinder, från ostrukturerade format till inkonsekventa historier, brist på styrning, genom att migrera till strukturerade, versionkontrollerade, centraliserade dokument- och tillgångsdata system.
Vår EDMS (Engineering Document Management System) kan göra det för flera branscher, inklusive gruvdrift, utility, tillverkning och mer. Dessa branscher förlitar sig ofta på fysiska ingenjörsritningar och dokumentation, vilket kan skapa versionkontrollmardrömmar. Att använda vår EDMS-lösning för att digitalisera dessa dokument är det första steget. Därifrån hjälper programvaran till att hantera versionkontroll, arbetsflödesstyrning och revisionskedjor för att säkerställa att inkonsekvenser elimineras.
När AI blir inbäddat i underhåll, anläggningar och tillgångs livscykelhantering, var ser du de största möjligheterna att förbättra produktivitet utan att kompromissa med säkerhet eller regulatoriska krav?
En av de största möjligheterna är att automatisera tråkiga, icke-värdeskapande uppgifter för anställda, såsom manuell datainmatning och schemaläggning av arbetsorder för tekniker. Utifrån sett verkar det som en relativt enkel, men tidskrävande uppgift. Emellertid kan AI närma sig uppgiften mer strategiskt.
Först, om utrustningen i fråga övervakas med sensorer, kan en arbetsorder utlösas baserat på avvikelseupptäckt, innan något verkligt fel inträffar. Andra, AI kan hjälpa till att automatiskt prioritera arbetsorder baserat på brådskande och schemalägga reparationer vid tidpunkter som orsakar minst möjliga störningar för en verksamhet – det kan också väga flera samtidiga problem, kostnader, säkerhet och intäkter på en gång för den bästa möjliga vägen framåt.
AI har potentialen att inte bara “assistera” underhålls- och anläggningslag – det kommer alltmer att agera som en digital operatör.
Förtroende blir det nya minimikravet för företags AI. Vad tror du att leverantörer måste göra annorlunda under de närmaste två åren för att tjäna – och behålla – det förtroendet?
Leverantörer måste sluta anta att kunderna bara kommer att “lita på modellen” när det gäller företags AI. Rekommendationer från AI behöver visa bevis på hur de genererades. Ett sätt att hantera detta är i form av citat och tydliga beskrivningar av vilka dokument AI faktiskt granskade eller inte. Till exempel, om en anställd ber AI att analysera 1 000 hyresavtal, bör de veta explicit om det utvärderade alla 1 000 eller bara 700, och varför eller varför inte.
Som en del av detta bör den viktigaste faktorn leverantörer prioritera vara transparens i dataanvändning. Det inkluderar tydlighet i vem som ser data, hur den används (inklusive alla utbildningsimplikationer), och hur den är segregerad eller isolerad från andra kunders miljöer.
Under de närmaste två åren kommer att tjäna förtroende att vara av största vikt, och leverantörer kan få en fördel genom att vara explicita om AI-verktygsbegränsningar, hålla människor i slingan för högriskbeslut, och börja med smala, välavgränsade användningsfall som levererar mätbara värden utan att sätta kunder i en “svart låda”-situation.
Om du ser framåt, hur ser du att AI utvecklas inom mission-kritiska operationer, och vilken roll förväntar du att Accruent kommer att spela i att fastställa branschstandarder för pålitlig, transparent AI?
AI i mission-kritiska operationer utvecklas snabbt från isolerade enstaka uppgiftsautomatiseringar till intelligenta, multi-agentsystem som kan koordinera och optimera hela arbetsflöden. Istället för att bara assistera användare, kommer AI att tillhandahålla autonomt beslutsstöd, kontinuerligt övervaka operativa förhållanden, förutsäga risker och rekommendera åtgärder med fullständig transparens och spårbarhet. När AI lär sig att kombinera ostrukturerade dokument, strukturerad operativ data och realtidsignaler, kommer det att bli inbäddat direkt i dagliga processer, drivande snabbare, säkrare och mer tillförlitliga resultat.
Med tiden kommer detta att möjliggöra en förändring mot autonoma operationer, där system kan självoptimera och självkorrigera, medan människor fokuserar på tillsyn och strategiskt beslutsfattande. Som en marknadsledare kommer Accruent att hjälpa till att fastställa branschstandarder för pålitlig och transparent AI genom att inbädda granskning, förklarbarhet och stark styrning i sin plattform och genom att samarbeta med kunder, partner och regulatoriska organ för att definiera bästa metoder för säker distribution i mission-kritiska miljöer.
Tack för den utmärkta intervjun, läsare som vill lära sig mer bör besöka Accruent.












