Intervjuer
Shane Eleniak, Chief Product Officer at Calix – Intervju-serie

Shane Eleniak er Chief Product Officer i Calix, der han leder den strategiske visjonen og gjennomføringen av selskapets bransjeledende plattform og SaaS-løsninger. Med fokus på å muliggjøre at kommunikasjonstjenesteleverandører kan forenkle sin forretning og levere unike abonnentopplevelser, overvåker Shane hele produktlivssyklusen – fra konseptualisering til markedsledende distribusjon.
Under hans ledelse har Calix konsolidert sin posisjon som en pionér i bredbåndsindustrien, og leverer jevnt og jevnt innovative verktøy som gir leverandørene mulighet til å konkurrere og vinne.
Calix er et amerikansk teknologiselskap som tilbyr sky-, programvare- og managed service-plattformer designet for bredbånd og kommunikasjonstjenesteleverandører. Deres kjerneutbud sentrerer seg rundt en AI-aktivert bredbåndsplattform som integrerer sky-infrastruktur, data og nettverkssystemer for å hjelpe leverandørene å forenkle drift, forbedre kundeengasjement og levere mer personlige digitale opplevelser. Ved å muliggjøre at disse leverandørene kan gå over fra grunnleggende tilkoblingstjenester til fullstendige “erfaringstjenesteleverandører”, hjelper Calix dem å øke inntektene, øke abonnentloyaliteten og støtte den digitale transformasjonen av samfunnet gjennom mer avanserte, skalerbare bredbåndstjenester.
Din karriere omfatter mer enn tre tiår over ingeniørarbeid, nettverk, skyplattformer og storskalautvikling av produkter. Hvordan har disse erfaringene formet din perspektiv på hva det virkelig tar for å få AI til å utføre virkelig arbeid i bedrifter, i stedet for å forbli en sideeksperiment?
Jeg startet i tradisjonell telekommunikasjon og nettverk, der hele spillet var datapath og pålitelighet i stor skala. Hvis du ikke kan levere en ren, pålitelig tjeneste, betyr ingenting du bygger på toppen av det noe. Da var telefonen på kjøkkenveggen, innvendig ledning flyttet aldri, og så lenge det var en lydsignal, var alt i orden.
Bredbånd og Internett sprengte dette. Plutselig var det ikke bare “er det på?” Det var Ethernet og deretter Wi-Fi, barn på spillkonsoller og nettbrett, du på et Zoom-møte samarbeider på en skyregneark og konstant mobilitet – enheter innendørs, i bakgården, på fotballkampen, på kaffebaren. Abonnentopplevelsen ble mye mer kompleks enn en binær på/av-tilstand, og verden for tjenesteleverandører ble svært dynamisk. I den verden er en tilbakevendt visning av data – klassiske datalager og historiske rapporter en måned senere – ikke nok. Du må samle inn data, forstå opplevelsen og generere innsikt i sanntid, fordi abonnenter nå forventer at problemer løses proaktivt, ikke på timer eller dager.
Den utviklingen har formet hvordan jeg tenker om AI. De fleste mennesker vil plassere AI “på toppen”, på samme måte som de plasserer business intelligence eller SaaS på toppen av eksisterende datalager. Min erfaring sier at du må tenke mye dypere enn det og designe for sanntidsinnsikt og mulighet til å iverksette handlinger i sanntid.
For abonnenter har forventningene ikke endret seg mye de siste 25 årene. De vil fortsatt bare ha sikker, administrert tilkobling som føles like enkelt som lydsignal – de vil at alt skal “bare fungere” uten å tenke på alle lagene og kompleksiteten, og de vil ha det overalt i livene sine. Min karriere i telekommunikasjon og sky har gjort meg svært komfortabel med denne paradokset: du bygger ekstremt komplekse systemer så du kan abstrahere all denne kompleksiteten og levere en enkel, god opplevelse på kanten. Det er akkurat slik jeg tenker om AI som gjør virkelig arbeid i noen bedrift, bredbånd eller ikke.
Hos Calix understreker du ofte at operasjonell AI er bygget, ikke kjøpt. Hva er de vanligste feilene organisasjonene gjør når de prøver å legge til AI uten å tenke om hvordan arbeidsflyten går gjennom bedriften?
For meg handler det mindre om “bygget versus kjøpt” og mer om om du har trått tilbake og sett på hele teknologistaken. Mange selskaper bestemte seg for at AI bare var å bruke noen API-er for å få tilgang til en LLM, koblet det inn i staken med en wrapper og kjøpte tokens – så hadde du en AI-strategi. Det er ikke slik det fungerer.
For mange av oss blir teknologien for fasinert med teknologien i stedet for resultatet. Vi har sett denne filmen før. Når PC-er dukket opp, ønsket alle å diskutere om de hadde en 286 eller en 386, hvor mye minne det hadde og hvilken DOS det kjørte. I dag kan ingen fortelle deg spesifikasjonene på bærbaren eller telefonen, og ingen bryr seg før det stopper å gjøre hva de trenger det til å gjøre. Hva som betyr noe, er: gjør dette meg mer effektiv i jobben min? Det samme gjelder for AI. Hvis du ikke kan knytte det til virkelige arbeidsflyter, virkelig verdi og virkelig avkastning, er teknologispesifikasjonene bare støy.
En annen stor feil er å prøve å skru AI på det du allerede har uten å spørre hva det gjør med arkitekturen, sikkerhetsmodellen og kostnadene. AI er grunnleggende teknologi, ikke en inkrementell funksjonsoppgradering. Når du behandler det som inkrementelt, ender du opp med dårlig data, sikkerhetsproblemer, hallusinasjoner, løpske kostnader eller mye aktivitet som ikke løser noen problemer for noen.
Til slutt kan du ikke ignorere kontekst og viktigheten av vertikal ekspertise. Handling handler om kontekst, og den konteksten varierer over telekommunikasjon, finansteknologi og helsevesen. Hos Calix startet vi med dyptgående erfaring i én bransje og bygget en vertikal plattform rundt det. Vi forstod allerede data, innsikt, arbeidsflyt og kontekst, så staken kunne reflektere den virkeligheten. De fleste selskaper kjenner sin vertikale bransje inn og ut. Muligheten er å kode den kunnskapen inn i en vertikal teknologistack i stedet for å stole på et tynnt, horisontalt lag og en generisk AI-modell, og så prøve å sy sammen alt.
Bedrifter handler om resultater, ikke modeller. Det virkelige spørsmålet er hvordan denne teknologien hjelper deg å levere disse resultatene på måten din arbeidsflyt fungerer.
Du har skissert en fem-lags arkitektur for operasjonell AI som inkluderer data, kunnskap, orkestrering, tillit og handling. Hvorfor er det viktig å eksplisitt skille disse lagene, og hvilket lag undervurderer eller hopper over bedriftene oftest?
I lang tid var staken ganske enkel: data, innsikt, dashboards, arbeidsflyt og mennesker. Du bygget datalager, la til BI på toppen, skapte arbeidsflytmotorer og overlot det harde arbeidet til mennesker. I en agensverden holder det ikke. Du trenger data, kunnskap, orkestrering, tillit og handling fordi hvert lag utfører en distinkt funksjon.
Den synlige delen alle ønsker å diskutere er handlinglaget – agentene. Det er bare toppen av isfjellet. Hva avgjør om du noen gang kan la agentene berøre virkelige systemer, er all “kjedelig” sak under vannlinjen: datapipeliner og ren data, kunnskapslaget som gir deg kontekst, orkestreringen som koordinerer dynamiske arbeidsflyter og tillitsmodellen som bestemmer hva som skal tillates fra først av. Når Titanic sank, var det ikke den lille delen du kunne se som sank den; det var den enorme massen av is under. Operasjonell AI er det samme. Rørene under overflaten er det som gjør eller ødelegger deg.
Historisk sett har vi aldri behandlet orkestrering og tillit som separate lag fordi mennesker gjorde mest av det arbeidet. Orkestrering betydde ledere og billetter; tillit betydde brukernavn og passord. Nå må du stole på enheter – agenter – til å gjøre ting, og du må koordinere flere agenter i sanntid rundt dynamisk data. Det er et helt annet designproblematikk, som er hvorfor disse lagene må være eksplisitte.
Laget de fleste mennesker undervurderer er tillit. Mange organisasjoner tror de håndterer tillit fordi de har tilgangskontroll – hvem kan logge inn på hvilket system. Men virkelig tillit i en agensverden er ikke “har denne brukeren tilgang?” Det er “er denne spesifikke handlingen passende for denne personen eller denne agenten på dette tidspunktet?” Det er et styringsspørsmål, ikke et tilgangskontrollspørsmål. Hvis du ikke gjør dette laget eksplisitt, havner du fast i demoland, fordi du aldri kommer til å være komfortabel med å la agenter gjøre virkelig arbeid i produksjon.
Så, tillit er åpenbart en grunnleggende del av din AI-strategi. Hvordan designer du systemer så automatiserte beslutninger forblir observerbare, granskbare og omgjørbar mens du likevel flytter deg raskt nok til å levere forretningsverdi?
Du må starte med en nulltillitholdning. Det første spørsmålet er ikke “kan denne agenten teknisk sett gjøre dette?” Det første spørsmålet er “bør denne agenten, på vegne av denne personen, prøve å gjøre dette overhodet?” Hvis svaret er nei, så gå ikke videre.
Hvis svaret er ja, går du over i retningslinjer: granskbare, sporbarhet og behov for en menneskelig i løkken. Vår modell avhenger av et tillitslag som fungerer litt som en trafikkpoliti ved starten av hver interaksjon: hvem er du, hva gjør du og hvorfor gjør du dette? Det eliminerer mange av sikkerhetsproblemer, fordi du ikke lar agenter løpe av med å gjøre ting og så håper du merker det etterpå.
Alternativet er å slippe løs agentene og så reise en alarm hvis de går av og gjør noe dårlig. Du antar at du kan se det, finne ut av det, identifisere det og stoppe det i sanntid, i den hastigheten og skalaen disse systemene opererer. Det er et svært vanskelig problem, og det er hvorfor så mange mennesker sliter – de prøver å se etter dårlige aktører i sanntid i stedet for å forhindre dårlige handlinger på forhånd.
I tillegg har vi lagt til lagdelte porter. Selv om en agent handler på vegne av riktig person, ser vi på sesjonen og innholdet – prøver de å forgifte en modell, misbruke en API eller pushe noe utenfor politikk? All dette er innpakket i full granskbare så du kan granske hva som skjedde og rulle det tilbake hvis du trenger det. Det er hvordan du flytter deg raskt og likevel sover godt om natten.
Mange selskaper lykkes med å generere AI-innsikt, men sliter med å oversette dem til handling. Hva var designbeslutningene som tillot Calix å skyve AI direkte inn i dag-til-dag-arbeidsflyter over markedsføring, drift og kundestøtte?
Lenge før AI var stjernen av showet, var vi allerede besatt av ett spørsmål hos Calix: hva gjør en innsikt virkelig handlingbar for en virkelig person i en virkelig jobb? Siden 2018 har vi arbeidet med tjenesteleverandører for å forstå hvordan forskjellige personligheter arbeider – hva en markedsfører gjør på en tirsdag morgen, hva et driftsteam gjør når en alarm utløses, hva støtteteam gjør når en abonnent ringer inn frustrert. Det tvang oss til å bli svært klare om hvilke innsikt som betyr noe for hvem, i hvilken kontekst og hva “god handling” ligner.
Så, når agensdrevet AI kom, startet vi ikke fra scratch. Vi hadde allerede sanntidssystemer som genererte handlingbare innsikt knyttet til spesifikke personligheter og arbeidsflyter. Designspørsmålet ble: gitt et annet verktøysett og en annen teknologistack, hvordan ville du omdesigne disse samme arbeidsflytene i en agensdrevet AI-verden, i stedet for å prøve å finne opp alt det fra scratch?
Når du parer denne dyptgående personkunnskapen med agensdrevet AI, kan du bygge dynamiske arbeidsflyter over dynamisk data. Agenter kan finne ut, i sanntid, hvilke trinn og hvilke personligheter som må være involvert basert på hva som skjer, i stedet for å tvinge deg til å hardkode hundrevis av stive flyter i mikrotjenester. For de fleste selskaper er det harde problemet nå å gjøre sanntidsbeslutninger basert på kontekst og så designe riktig arbeidsflyt rundt det. For oss var det partiet allerede på plass; vi hadde vært gjennom sanntids-, personbasert, handlingbar innsikt i årevis. Agensdrevet AI er bare et nytt sett med verktøy på toppen av den grunnmuren.
Din plattformvisjon inkluderer agent-til-agent (A2A) samarbeid og fødererte AI-systemer. Hvordan endrer denne tilnærmingen måten bedriftsverktøy samarbeider sammenlignet med tradisjonelle punktintegreringer?
Hvis du ser på de siste 20 årene, har standardmønsteret vært “kjøp en haug SaaS-verktøy og koblet dem sammen rundt et datalager”. Hver nytt system betydde en ny punktintegrering, en ny datapipeline og en ny plass å forlike sannheten. I en agensverden skalerer det ikke. Du ønsker at data skal forbli der det hører hjemme og la agenter snakke sammen over godt definerte grensesnitt.
Det er hvorfor vi snakker om å berøre systemet på to lag: MCP på kunnskapslaget og A2A på orkestrerings- og tillitslagene. MCP er hvordan agenter oppdager og bruker verktøy og data uten en ny tilpasset integrering hver gang. A2A er hvordan agenter koordinerer arbeid med hverandre under klare retningslinjer.
Når du først har det, stopper samarbeidet å se ut som en haug skjøre koblinger og begynner å se ut som et nettverk av spesialister som kan dynamisk samarbeide rundt virkelig arbeid. Her kommer Eisenhower-matrise-analogien inn. Ikke alt er like急 og like viktig. Noen arbeid er virkelig tidskritisk, noen er viktig men kan planlegges, noen må bare bli gjort og noen er støy. Med agent-til-agent-koordinering på toppen av et tillits- og orkestreringslag kan du behandle disse kategoriene forskjellig i skala: agenter kan sværme rundt急-og-viktige problemer, køe eller planlegge viktige men ikke急, og holde lavverdiarbeidet borte fra å overbelaste alt annet.
Det er en svært annen verden enn “la oss legge til en til kobling og håpe køen tømmes”. Du ser effektivt på trustede, nøye orkestrerte dynamiske arbeidsflyter rundt dynamiske hendelser og data, i stedet for en rot av enkeltkoblinger hvor alt roper ut på samme prioritet.
Når AI-agenter er tillatt å handle selvstendig, blir styring raskt en utfordring. Hvordan balanserer du hastighet, ansvar og menneskelig tilsyn når AI-systemer tar eller iverksetter beslutninger i skala?
Feilen jeg ser er at mennesker tror de kan bolt agensdrevet AI på hva de allerede har og noen gang prøve å “balansere” hastighet, ansvar og menneskelig tilsyn etterpå. Du kan ikke. Du må starte med å anerkjenne at dette er et vertikal teknologistack-problem og med vilje bygge et tillitslag og et orkestreringslag. Uten disse to lagene, blir det et fritt-for-all – alt er først-til-møtes, eller hvem som roper høyest.
Igen, det er Eisenhower-matrisen: ikke all arbeid er skapt like. Tillit og orkestrering er hvordan du operationaliserer det i en agensverden. Du ønsker ikke at hver agent behandler hver oppgave som en brannalarm; du ønsker at systemet skal vite hva som virkelig er tidskritisk, hva som kan planlegges og hva som bør håndteres stille i bakgrunnen.
Og så er det “smal over tykk”delen. De fleste selskaper tar feil av at større innvirkning fra AI kommer fra å forbli bred. Du er mye bedre å velge en smal vertikal skive – ett konkret brukstilfelle, ett sett med arbeidsflyter – og bygge tillit og orkestrering du trenger der først. Få tynnere i den vertikale, få det rett, hold mennesker i løkken på kantene og så utvide. Det er hvordan du flytter deg raskt, forblir ansvarlig og unngår å lage en rot du ikke kan vikle ut senere.
Basert på din erfaring med å lede store globale produkt- og ingeniørteam, hva organisatoriske eller kulturelle endringer er nødvendige for at AI skal bli en varig bedriftsevne i stedet for en samling løsrevne piloter?
De fleste bedrifter har ikke et “AI-problem”; de har et kunnskaps- og arbeidsflyt-problem. Den første endringen er å stoppe å leke med punktløsninger og flytte fra datalager til et føderert kunnskapslager som alle kan se og handle på. Så lenge kunnskap bor i siloer og AI er en kirsebær på toppen av hver silo, får du piloter, ikke transformasjon.
Deretter må du være villig til å gå etter de hardeste problemene i en bestemt rekkefølge. Første trinn er å skille hype fra realitet og adoptere hva som fungerer, ikke hva som er høyest i din feed. Andre trinn er å omdesigne kunnskapslaget så du kan omdanne data til delt, føderert kontekst i stedet for enda en rapport begravd i et system. Tredje trinn er å tenke om arbeidsflyter rundt den kunnskapen og en virkelig tillitslag – mest arbeid i dag er organisert rundt mennesker, ferdigheter og lokale kunnskapssiloer. Hvis du ikke endrer det, vil agenter bare være et nytt verktøy som svirrer rundt de samme gamle flaskenakker.
Først da kommer den kulturelle endringen, som ofte er den hardeste. Du trenger en kultur hvor mennesker ikke primært er bekymret for å miste jobben, verktøyene eller identiteten, men er genuint begeistret for å arbeide med nye evner. Det er en endringsledelsesproblem, ikke et teknologiproblem. Det ligner mye på distribuert ledelse: mennesker på spissen av spydet forstår arbeidsflytene, føler seg trygge med å navngi friksjonen og er begeistret for å sette agenter i arbeid på det.
Seende beyond bredbånd og telekommunikasjon, hvilke bransjer tror du er best posisjonert for å adoptere operasjonell, agentdrevet AI neste, og hva betingelser gjør dem klare?
Jeg tenker ikke på dette som å velge vinnere etter bransjeetikett; jeg tenker i mønster. Nesten hver vertikale har den samme underliggende utfordringen: de har bygget datasiloer og funksjonssiloer i stedet for én visning over tre livssykluser – kunde, ansatt og produkt. De som er klare er de som er villige til å se det, innrømme at de ikke har et virkelig kunnskapslag og fikse det.
Derfra ser betingelsene ganske like ut, uavhengig av om du er i helsevesen, finansteknologi, detaljhandel eller kritisk infrastruktur. Du trenger komplekse arbeidsflyter hvor mennesker er strekket, virkelige friksjonspunkter du kan navngi og nok høykvalitetsdata til å gi agenter kontekst. Hvis du kan kartlegge nåværende arbeidsflyter, se hvor arbeidet sakker eller hopper opp, forstå hvilke håndoverganger skaper forsinkelser og så bak det opp med et føderert kunnskapslager, er agensdrevet AI et fantastisk verktøysett.
I den verden handler “bransjeklarhet” om ledelse. Er et selskaps ledere villige til å flytte seg beyond markedsverktøy og tynne, horisontale dashboards og i stedet investere i en vertikal teknologistack – omdanne data til kunnskap, føderere den kunnskapen, legge orkestrerings- og tillitsrammer på plass og ha ærlige samtaler om hvor den virkelige avkastningen er? Ethvert selskap i noen bransje som gjør det arbeidet, er godt posisjonert for operasjonell, agentdrevet AI; de som ikke gjør det, vil bli fast i å legge til et nytt verktøy til en allerede støyfull haug.
Etterhvert som bedriftsAI utvikler seg mot multiagent og multiskymiljøer, hva ser god AI-arkitektur ut som om fem år, og hva prinsipper bør ledere forplikte seg til i dag for å unngå å bygge om systemene sine senere?
Om fem år vil den interessante delen av AI ikke være de enkelte agentene eller modellene; det vil være de agensdrevne arbeidsflytene de muliggjør og den forretningsverdien disse arbeidsflytene leverer. Agenter selv kommer og går. Lagene under dem – data, kunnskap, orkestrering, tillit og handling – vil fortsette å utvikle seg, men behovet for dem er ikke på vei bort.
Det er hvorfor jeg er mer fokusert på arkitektur enn på noen bestemt verktøy. Vi flytter oss fra datalager til fødererte kunnskapslager, fra skjøre punktintegreringer til åpne, lagdelte staker. I den verden vil du ha agenter som kjører i forskjellige skyer, berører forskjellige kunnskapskilder og koordinerer over godt definerte grensesnitt – MCP på kunnskapslaget og agent-til-agent-protokoller på orkestrerings- og tillitslagene. Etterhvert som teknologien forbedres, ønsker du å kunne bytte bedre deler inn i disse lagene uten å bygge hele ting igjen hver gang.
Så, prinsippene for ledere er enkle. Bygg ikke monolitisk. Design for lag så data, kunnskap, orkestrering, tillit og handling kan hver utvikle seg uavhengig. Design for flyter, ikke funksjoner, så du er klar over hvilke arbeidsflyter som betyr noe og hva “god” ligner i kunde-, ansatt- og produktlivssykluser. Og design for styring på agentnivå: anta nulltillit som standard, definere klare “agentkort” og bruke orkestrering til å bestemme hva som er急, hva som er viktig og hva som bare må bli gjort. Hvis du gjør det, kan du la teknologien endre seg – som den alltid gjør – uten å være konstant bekymret for å bygge om.












