Connect with us

Aron England, Chief Product & Technology Officer at Accruent – Interview Series

Rozhovory

Aron England, Chief Product & Technology Officer at Accruent – Interview Series

mm

Aron England, Chief Product and Technology Officer at Accruent, je zkušený technologický a produktový líder, známý tím, že buduje a rozšiřuje globální týmy, které dodávají SaaS a agentní řešení od počátečního výzkumu až po produkty s vysokým růstem, zaměřené na zákazníky. Kombinuje hluboké odborné znalosti v oblasti spotřebitelských trhů, B2B SaaS, e-commerce a komerční technologie se silným vedením lidí, spojuje inovace s hlubokým pochopením problémů zákazníků, aby dosáhl trvalého souladu produktu a trhu a měřitelných obchodních výsledků, včetně růstu prostřednictvím akvizic a IP řízené strategie.

Accruent poskytuje software, který pomáhá organizacím efektivněji řídit fyzickou stránku svého podnikání, spojuje nástroje pro provoz, aktiva, prostor a pracoviště v jednom propojeném systému. Jeho platforma je navržena tak, aby snížila fragmentaci, zlepšila viditelnost a rozhodování, a pomohla týmům plánovat, udržovat a optimalizovat budovy a zařízení napříč širokým spektrem odvětví.

Máte více než 25 let zkušeností s budováním a vedením vysoce výkonných globálních týmů. Ohlédnutím se za startupy, velkými podniky a nyní Accruent, jaký zásadní zážitek nejvíce formoval váš přístup k budování důvěryhodné technologie ve velkém měřítku?

Zkušenosti z práce ve firmách Fortune 50 a technologického vedení v začínajících startupů, středně velkých a větších veřejných a soukromých společností, získané poznatky z různých odvětví, zejména z DocuSign, kde jako devátý zaměstnanec cílem bylo proniknout na trh, který potřeboval skutečnou změnu. Tlačit analogový průmysl smluv prostřednictvím kompletní digitální transformace, vyžadovalo nejen budování důvěry na trhu, ale i legislativu, aby se změna stala bezpečnou. Existuje mnoho zkušeností spojených s mým pobytem tam, které lze aplikovat na současný trh pro LLM a AI nástroje.

Na vysoké úrovni zůstal vzorec mé zkušenosti konzistentní: důvěryhodné systémy nevznikají náhodou. Vznikají z úmyslné architektury, datové konzistence, transparentnosti a hlubokého pochopení, jak skuteční lidé využívají technologii.

Varoval jste, že do roku 2026 technici již nebudou akceptovat AI systémy, které prostě říkají: „důvěřujte mi.“ Z vašeho úhlu pohledu v Accruent, co pohání tuto změnu v očekáváních mezi front-line a field-service profesionály?

Ve prostředích, kde manažeři zařízení a technici využívají AI k diagnostice selhání zařízení a komplexních oprav, může krok chyby z falešné nebo nepřesné doporučení způsobit velké podnikatelské a bezpečnostní rizika.

Často LLM vytváří smíšené odpovědi z více stránek, bez citace zpět na základní důkazy. V důsledku toho, pokud technik následuje AI generovaný krok, který nikdy přímo neexistoval v manuálu OEM, organizace může čelit重大nému compliance backlash, protože nebudou mít obhajitelný řetězec důkazů pro audity nebo bezpečnostní přezkumy. Jakmile se AI stane samozřejmostí a více „neviditelnou“ v softwaru, důležitost stopovatelnosti poroste.

AI halucinace mohou být více než nepohodlí v regulovaných odvětvích — mohou vytvářet skutečná bezpečnostní, compliance a provozní rizika. Jaké scénáře halucinací vás nejvíce znepokojují, pokud jde o údržbu, facility management nebo asset operace?

Ve výrobě, pokud AI generovaná doporučení řekne pracovníkovi ve výrobě, aby provedl špatnou akci na kritickém zařízení, může to vést k neplánovanému výpadku, zbytečnému materiálu, vadným konečným produktům nebo poškozenému stroji. Tyto chyby mohou být milionové chyby, protože výrobní linky stojí nebo dokonce poškozují reputaci, pokud později vede k_recallům.

Tyto halucinace z AI nástrojů jsou také zvláště škodlivé pro odvětví, jako je zdravotnictví, protože odpovědnosti a životy pacientů jsou ohroženy, pokud dojde k selhání stroje, které nebylo řádně udržováno nebo opraveno včas. Když se zabýváte odvětvími, které interagují s reálným světem, opravování chyb není tak jednoduché, jako stisknutí tlačítka „smazat“ a začít znovu.

Vous jste zdůraznil, že každý výstup AI musí odkazovat zpět na původní zdroje — manuály, datové tabulky, diagramy, historické záznamy. Jak Accruent navrhuje systémy, které zajišťují stopovatelnost a eliminují „černou skříňku“ odpovědi?

Zajišťujeme, aby AI doporučení mohla být stopována zpět na smysluplné výstupní body v jeho zdrojovém materiálu, jako je konkrétní stránka manuálu, diagram, datová tabulka nebo záznam, který informoval doporučení. Například, pokud AI doporučení řekne manažerovi zařízení ve zdravotnictví, jak servisovat kompresor, měli by být schopni stopovat zpět na přesně tu část, která podporuje ten krok, v jednom kliknutí, aby zajistili přesnost. Aby se uzavřela rostoucí důvěra ve dnešních podnikových AI, je důležité, aby tyto systémy byly také schopny odhalit, které body nebo stránky byly skutečně vyhodnoceny, aby uživatelé věděli, zda AI prohlédl všechny relevantní dokumenty nebo pouze jejich podmnožinu.

Mnohé podnikové AI nástroje prioritizují rychlost, ale regulovaná prostředí vyžadují auditní stopy, přesnost dokumentace a ověřitelné důvody. Jak vyvažujete inovace s potřebou transparentnosti a compliance?

Vkládání AI do stávajících pracovních postupů je klíčem. To zjednodušuje proces vrstvení schválení, dokumentace, údržbových rutin a kontrol compliance, aby se augmentovaly známé postupy, místo implementace nového izolovaného nástroje. To znamená, že se vyhýbáme kompletní přestavbě operací a umožňujeme zaměstnancům pokračovat v práci způsobem, jakým vždy pracovali, ale s manuálními, časově náročnými procesy, které se stávají automatizovanými.

Technici v terénu se spoléhají na přesné instrukce. Jak Accruent přistupuje k výzvě spočívající v zakotvení AI výstupů v autoritativních zdrojových materiálech, aby se snížilo riziko a zlepšila důvěra techniků?

Náš přístup začíná zachycením a organizací manuálů, diagramů, výkresů, nájemních smluv a historických pracovních příkazů, aby se zajistilo, že AI poskytuje odpovědi z konkrétního obsahu společnosti, a ne z generických trénovacích dat. Při generování postupů, doporučení nebo kontrolních seznamů jsou naše systémy navrženy tak, aby každý krok byl stopovateln zpět na původní dokumentaci.

Bez této funkce by technici, kteří jsou již stlačeni zdroji, museli strávit ještě více času procházením dokumentů ručně, aby ověřili přesnost, což by dále zpožďovalo procesy a pracovní příkazy.

Dodání transparentních, auditních AI vyžaduje velké objemy strukturovaných dat. Jaké datové výzvy — od nestrukturovaných legacy dokumentů až po nekonzistentní asset historie — je třeba vyřešit, aby se tato vize stala skutečností?

Dodání auditních AI začíná spolehlivými a dobře organizovanými daty. Nicméně, většina postaveného prostředí stále žije v analogových procesech, s manuálními vstupními daty, naskenovanými PDF a izolovanými tabulkami. Když existují mezery v datech a asset historie, které jsou neúplné nebo nekonzistentní, rizika AI halucinací se zvyšují. Aby se AI výstupy staly důvěryhodnými v regulovaných prostředích, musí společnosti nejprve vyřešit legacy datové překážky, od nestrukturovaných formátů až po nekonzistentní historie, chybějící governance, migrací do strukturovaných, verziově řízených, centralizovaných dokumentových a asset-datových systémů.

Náš EDMS (Engineering Document Management System) může to udělat pro několik odvětví, včetně těžby, utilit, výroby a další. Tato odvětví často spoléhají na fyzické inženýrské výkresy a dokumentaci, které mohou vytvářet noční můry verziového řízení. Používání našeho EDMS řešení k digitalizaci těchto dokumentů je prvním krokem. Od té doby software pomáhá řídit verziování, workflow governance a auditní stopy, aby se zajistilo, že nekonzistence jsou eliminovány.

Jak AI bude začleněno do údržby, facility managementu a asset lifecycle managementu, kde vidíte největší příležitosti ke zlepšení produktivity bez ohrožení bezpečnosti nebo regulatorních požadavků?

Jedna z největších příležitostí spočívá v automatizaci nudných, nevhodných úkolů pro zaměstnance, jako je manuální vstup dat a plánování pracovních příkazů pro techniky. Zvenčí to vypadá jako relativně jednoduchý, ale časově náročný úkol. Nicméně, AI může přistupovat k úkolu strategičtěji.

Za prvé, pokud je zařízení monitorováno senzory, může být pracovní příkaz spuštěn na základě detekce anomálií, před tím, než dojde k skutečnému selhání. Za druhé, AI může pomoci automaticky priorizovat pracovní příkazy na základě naléhavosti a naplánovat opravy v časech, které způsobí nejmenší možnou poruchu pro podnik — může také vážit multiple současných problémů, nákladů, bezpečnosti a příjmů najednou pro nejlepší možný postup.

AI má potenciál nejen „pomáhat“ údržbářským a facility týmům — bude se stále více chovat jako digitální operátor.

Důvěra se stává novou samozřejmostí pro podnikový AI. Co podle vás budou muset dodavatelé dělat jinak v příštích dvou letech, aby získali — a udrželi — tuto důvěru?

Dodavatelé musí přestat předpokládat, že zákazníci budou prostě „důvěřovat modelu“, pokud jde o podnikový AI. Doporučení z AI musí ukázat důkaz, jak byly vygenerovány. Jedním ze způsobů, jak řešit tuto otázku, je formou citací a jasných popisů, které dokumenty AI prohlédl a které ne. Například, pokud zaměstnanec požádá AI o analýzu 1 000 nájemních smluv, měli by vědět explicitně, zda vyhodnotil všechny 1 000 nebo pouze 700, a proč nebo proč ne.

Součástí toho je, že hlavním faktorem, na který by se dodavatelé měli soustředit, je transparentnost v použití dat. To zahrnuje jasnost o tom, kdo vidí data, jak jsou používána (včetně jakýchkoli trénovacích implikací), a jak jsou segregována nebo izolována od prostředí jiných zákazníků.

V příštích dvou letech bude získání důvěry-paramount, a dodavatelé mohou získat horní ruku, být explicitní o omezeních AI nástrojů, udržovat lidi ve smyčce pro rozhodnutí s vysokým rizikem, a začínat s úzkými, dobře definovanými případy použití, které dodávají hmatatelnou hodnotu, bez umístění zákazníků do „černé skříňky“ situace.

Pohledem do budoucna, jak vidíte AI evoluci v rámci mission-critical operací, a jakou roli očekáváte, že Accruent bude hrát při stanovování odvětvových standardů pro důvěryhodný, transparentní AI?

AI v mission-critical operacích se rychle vyvíjí z izolovaných single-task automatizací do inteligentních, multi-agentních systémů, které mohou koordinovat a optimalizovat celé pracovní postupy. Místo toho, aby pouze asistovali uživatelům, AI poskytne autonomní rozhodnutí, bude kontinuálně monitorovat provozní podmínky, předpovídat rizika a doporučovat akce s plnou transparentností a stopovatelností. Jakmile se AI naučí kombinovat nestrukturované dokumenty, strukturovaná provozní data a reálné signály, bude začleněno přímo do denních procesů, pohánějících rychlejší, bezpečnější a spolehlivější výsledky.

V průběhu času to umožní posun směrem k autonomním operacím, kde systémy mohou sebelépeřit a sebeopravit, zatímco lidé se budou soustředit na dohled a strategická rozhodnutí. Jako lídr na trhu, Accruent pomůže stanovit odvětvové standardy pro důvěryhodný a transparentní AI, vkládáním auditovatelnosti, vysvětlitelnosti a silné governance do své platformy a spoluprací se zákazníky, partnery a regulačními orgány, aby definovaly nejlepší postupy pro bezpečné nasazení v mission-critical prostředích.

Děkuji za skvělý rozhovor, čtenáři, kteří si chtějí dozvědět více, by měli navštívit Accruent.

Antoine je vizionářský líder a zakládající partner Unite.AI, poháněný neotřesitelnou vášní pro formování a propagaci budoucnosti AI a robotiky. Jako sériový podnikatel věří, že AI bude mít na společnost stejně disruptivní vliv jako elektřina, a často je chycen při tom, jak hovoří o potenciálu disruptivních technologií a AGI. Jako futurist, je zasvěcen prozkoumání toho, jak tyto inovace budou formovat náš svět. Kromě toho je zakladatelem Securities.io, platformy zaměřené na investice do špičkových technologií, které předefinovávají budoucnost a mění celé sektory.