Connect with us

Intervjuer

Aron England, Chief Product & Technology Officer at Accruent – Intervju-serie

mm

Aron England, Chief Product and Technology Officer at Accruent, er en erfaren teknologi- og produktleder kjent for å bygge og skale globale team som leverer SaaS og agensløsninger fra tidlig forskning til høyvoksende, kundeorienterte produkter. Han kombinerer dypt ekspertise på tvers av forbrukermarkeder, B2B SaaS, e-handel og kommersiell teknologi med sterk ledelse av mennesker, og parer innovasjon med en skarp forståelse av kundeproblemene for å drive varig produkt-markedsfit og målbare forretningsresultater, inkludert vekst gjennom oppkjøp og IP-drevet strategi.

Accruent tilbyr programvare som hjelper organisasjoner med å drive den fysiske siden av virksomheten mer effektivt, ved å samle verktøy for fasiliteter, aktiver, rom og arbeidsplassoperasjoner i ett sammenhengende system. Plattformen er designet for å redusere fragmentering, forbedre synlighet og beslutningstaking, og hjelpe team med å planlegge, vedlikeholde og optimalisere bygninger og utstyr på tvers av en rekke industrier.

Du har bygget og ledet høytytende globale team i over 25 år. Ser du tilbake på startups, store bedrifter og nå Accruent, hva er den avgjørende erfaringen som har formet hvordan du tenker om å bygge pålitelig teknologi på skala?

Fra å ha tilbragt tid i Fortune 50-selskaper og arbeidet i teknologiledelse i tidlige startups, mid-sized og større offentlige og private selskaper, har jeg fått en bred erfaring når det gjelder å fremme digital transformasjon over ulike industrier. Mest merkbart var jeg ansatt nummer ni i DocuSign og vi rettet oss mot en marked som trengte en ekte sjøendring. Å drive den analoge kontraktindustrien gjennom en total digital transformasjon, krevde ikke bare å bygge markedstiltro, men også lovgivning for å gjøre skiftet trygt. Det er mange lærdommer relatert til min tid der som kan anvendes på det nåværende markedet for LLM og AI-verktøy.

På et høyt nivå har mønsteret over min erfaring vært konsistent: pålitelige systemer oppstår ikke ved en tilfeldighet. De kommer fra bevisst arkitektur, datakonsistens, transparens og en dypt forståelse av hvordan virkelige mennesker bruker teknologi.

Du har advart om at teknikerne ikke lenger vil akseptere AI-systemer som bare sier “tillit meg” fra 2026. Hva driver denne endringen i forventningene blant frontline- og felt-tjenesteprofesjonelle?

I miljøer der fasilitetsledere og teknikerer bruker AI til å diagnostisere utstyrfeil og guide komplekse reparasjoner, kan et feilskritt fra en feil eller uriktig anbefaling føre til store forretnings- og sikkerhetsrisiko.

Ofte skaper LLM blandede svar fra flere sider, uten å henvisere tilbake til de underliggende bevis. Som resultat, hvis en tekniker følger en AI-generert steg som aldri direkte eksisterte i OEM-manualen, kan en organisasjon møte stor compliance-tilbakegang, da de ikke vil ha en forsvarlig beviskjede for auditor eller sikkerhetsgjennomgang. Ettersom AI blir mer “usynlig” i programvare, vil viktigheten av sporing øke.

AI-hallusinasjoner kan være mer enn en ulempe i regulerte industrier — de kan skape reelle sikkerhets-, compliance- og operasjonelle risikoer. Hva slags hallusinasjons-scenarier bekymrer deg mest når det gjelder vedlikehold, fasilitetsledelse eller aktivitetshåndtering?

I produksjon, hvis en AI-generert forslag forteller en fabrikkarbeider å ta feil handling på et kritisk utstyr, kan det føre til uventet nedtid, ødelagt materiale, defekte slutprodukter eller skadet maskineri. Disse kan være milliondollars-feil da produksjonslinjer står stille eller sogar ødelegger rykte hvis det senere fører til tilbakekalling.

Disse hallusinasjonene fra AI-verktøy er også særlig skadelige for industrier som helsevesen, da ansvar og pasienters liv er i fare når det er en maskinfeil som ikke ble riktig vedlikeholdt eller fikset i tide. Når du har å gjøre med industrier som samhandler med den virkelige verden, er det ikke så enkelt å fikse feil som å trykke på slett og starte på nytt.

Du har betonet at hver AI-utgangspunkt må peke tilbake til originale kilder — manualer, datatabeller, diagrammer, historiske logger. Hvordan designer Accruent systemer som sikrer sporing og eliminerer “black box”-svar?

Vi sikrer at AI-anbefalinger kan spores tilbake til meningsfulle utgangspunkter i kildematerialet, som den spesifikke manualsidene, diagrammet, datatabellen eller loggen som informerte forslaget. For eksempel, hvis AI-anbefalingene forteller en fasilitetsleder i helsevesenet hvordan de skal vedlikeholde en kompressor, bør de kunne spore tilbake til den eksakte paragrafen som støtter det trinnet i ett klikk, for å sikre nøyaktighet. For å lukke den økende tillitsgapet i dagens bedrifts-AI, er det viktig at disse systemene også kan avsløre hvilke punkter eller sider som faktisk ble evaluert, så brukerne vet om AI-en gjennomgikk alle relevante dokumenter eller bare en undergruppe.

Mange bedrifts-AI-verktøy prioriterer hastighet, men regulerte miljøer krever auditoringspor, dokumentasjonsnøyaktighet og verifiserbar grunn. Hvordan balanserer du innovasjon med behovet for transparens og compliance?

Innbettning av AI i eksisterende arbeidsflyter er nøkkelen. Dette forenkler prosessen med å legge til godkjenninger, dokumentasjon, vedlikeholdsrutiner og compliance-kontroller for å supplere kjente praksiser, i stedet for å implementere et nytt isolert verktøy. Dette betyr å unngå en fullstendig ombygging av operasjoner og å la ansatte fortsette å arbeide på samme måte som de har, men med manuelle, tidkrevende prosesser som blir automatisert.

Teknikere på feltet er avhengige av nøyaktige instruksjoner. Hvordan nærmer Accruent seg utfordringen med å grunne AI-utgangspunkter i autoritative kildeinformasjon for å redusere risiko og forbedre teknikerens tillit?

Vår tilnærming starter med å fange og organisere manualer, diagrammer, tegninger, leieavtaler og historiske arbeidsordrer for å sikre at AI gir svar fra et selskaps spesifikke innhold, ikke generisk treningsdata. Når det gjelder å generere prosedyrer, anbefalinger eller sjekklister, er våre systemer designet så hver steg kan spores tilbake til den opprinnelige dokumentasjonen.

Uten denne funksjonen ville teknikerne, som allerede er under ressurspress, måtte bruke enda mer tid på å grave gjennom dokumenter manuelt for å verifisere nøyaktighet, og ytterligere forsinke prosesser og arbeidsordrer.

Levering av transparent, auditoringsklar AI krever store mengder strukturert data. Hvilke datautfordringer — fra ustrukturerte legacydokumenter til inkonsistente aktivitetshistorier — må løses for å gjøre denne visjonen virkelig?

Levering av auditoringsklar AI starter med pålitelig og velforganisert data. Imidlertid bor mange av de bygde miljøene fortsatt i analoge prosesser, med manuelle datainntastinger, skannede PDF-er og siloede regneark. Når det er hull i data og aktivitetshistorier som er ufullstendige eller inkonsistente, øker risikoen for AI-hallusinasjoner. For å gjøre AI-utgangspunkter pålitelige i regulerte miljøer, må selskaper først løse legacy-data-veien, fra ustrukturerte formater til inkonsistente historier, manglende styring, ved å migrere til strukturerte, versjonskontrollerte, sentraliserte dokument- og aktiva-data systemer.

Vår EDMS (Engineering Document Management System) kan gjøre dette for flere industrier, inkludert gruvedrift, utilitar, produksjon og mer. Disse industrene er ofte avhengige av fysiske ingeniørtegninger og dokumentasjon, som kan skape versjonskontroll-mareritt. Ved å bruke vår EDMS-løsning til å digitalisere disse dokumentene er det første skrittet. Deretter hjelper programvaren med å håndtere versjonskontroll, arbeidsflytstyring og auditoringspor for å sikre at inkonsistenser elimineres.

Ettersom AI blir integrert i vedlikehold, fasilitetsledelse og aktivitetshåndtering, hvor ser du de største mulighetene til å forbedre produktivitet uten å kompromittere sikkerhet eller regulatoriske krav?

En av de største mulighetene er å automatisere mundane, ikke-verdi-tillegg-oppdrag for ansatte, som manuell datainntastning og planlegging av arbeidsordrer for teknikerer. Utenfor ser det ut som et relativt enkelt, men tidkrevende oppdrag. Imidlertid kan AI nærme seg oppgaven mer strategisk.

Først, hvis utstyret i question overvåkes med sensorer, kan en arbeidsordre utløses basert på anomali-dettektering, før noen virkelig feil skjer. Andre, AI kan hjelpe med å automatisk prioritere arbeidsordrer basert på急het og planlegge reparasjoner på tidspunkter som fører til minst mulig forstyrrelse for en bedrift — det kan også vurdere flere samtidige problemer, kostnader, sikkerhet og inntekter på en gang for den beste mulige fremgang.

AI har potensialet til ikke bare å “assistere” vedlikehold og fasilitets-team — det vil økende fungere som en digital operatør.

Tillit blir det nye krav for bedrifts-AI. Hva tror du leverandører må gjøre annerledes de neste to årene for å tjene — og beholde — denne tilliten?

Leverandører må slutte å anta at kunder bare vil “tillit modellen” når det gjelder bedrifts-AI. Anbefalinger fra AI må vise bevis for hvordan de ble generert. En måte å løse dette på er i form av sitater og klare beskrivelser av hvilke dokumenter AI-en faktisk vurderte, og hvilke den ikke gjorde. For eksempel, hvis en ansatt ber AI om å analysere 1 000 leieavtaler, bør de vite eksplisitt om det vurderte alle 1 000 eller bare 700, og hvorfor eller hvorfor ikke.

Som en del av dette, er den øverste faktoren leverandører bør prioritere transparens i dataanvendelse. Dette inkluderer klarhet på hvem som ser data, hvordan det brukes (inkludert eventuelle treningsimplikasjoner), og hvordan det er adskilt eller isolert fra andre kunders miljøer.

De neste to årene vil å tjene tillit være avgjørende, og leverandører kan få overtak ved å være eksplisitte om AI-verktøybegrensninger, holde mennesker i løkken for høyrisikodecisjoner, og starte med smale, godt avgrensede brukstilfeller som leverer konkrete verdier uten å sette kunder i en “black box”-situation.

Ser fremover, hvordan ser du AI utvikle seg innen kritiske operasjoner, og hvilken rol forventer du Accruent vil spille i å sette bransjestandarder for pålitelig, transparent AI?

AI i kritiske operasjoner utvikler seg raskt fra isolerte enkelt-oppgave-automatiseringer til intelligente, multi-agentsystemer som kan koordinere og optimalisere hele arbeidsflyter. I stedet for bare å assistere brukere, vil AI gi autonomt beslutningsstøtte, kontinuerlig overvåke operasjonelle forhold, forutsi risiko og anbefale handlinger med full transparens og sporing. Ettersom AI lærer å kombinere ustrukturerte dokumenter, strukturerte operasjonelle data og sanntids-signaler, vil det bli innbygget direkte i daglige prosesser, og drive raskere, tryggere og mer pålitelige resultater.

Over tid vil dette muliggjøre en overgang mot autonome operasjoner, hvor systemer kan selv-optimalisere og selv-korrigerere, mens mennesker fokuserer på tilsyn og strategiske beslutninger. Som en markedsleder, vil Accruent hjelpe med å sette bransjestandarder for pålitelig og transparent AI ved å innbygge auditorbarhet, forklarbarhet og sterk styring i sin plattform, og ved å samarbeide med kunder, partnere og regulatoriske organer for å definere beste praksis for sikker utrulling i kritiske miljøer.

Takk for det flotte intervjuet, lesere som ønsker å lære mer, bør besøke Accruent.

Antoine er en visjonær leder og grunnleggende partner i Unite.AI, drevet av en urokkelig lidenskap for å forme og fremme fremtiden for AI og robotikk. En seriegründer, han tror at AI vil være like disruptiv for samfunnet som elektrisitet, og blir ofte tatt i å tale om potensialet for disruptiv teknologi og AGI.
Som en futurist, er han dedikert til å utforske hvordan disse innovasjonene vil forme vår verden. I tillegg er han grunnleggeren av Securities.io, en plattform som fokuserer på å investere i banebrytende teknologier som omdefinerer fremtiden og omformer hele sektorer.