Connect with us

Shane Eleniak, Director de Producto de Calix – Serie de Entrevistas

Entrevistas

Shane Eleniak, Director de Producto de Calix – Serie de Entrevistas

mm

Shane Eleniak se desempeña como Director de Producto de Calix, donde lidera la visión estratégica y la ejecución de la plataforma y las soluciones de software como servicio (SaaS) líderes en la industria de la empresa. Con un enfoque en permitir que los proveedores de servicios de comunicaciones simplifiquen su negocio y ofrezcan experiencias excepcionales a los suscriptores, Shane supervisa todo el ciclo de vida del producto, desde la conceptualización hasta la implementación líder en el mercado.

Bajo su liderazgo, Calix ha consolidado su posición como pionera en la industria de la banda ancha, entregando consistentemente herramientas innovadoras que permiten a los proveedores competir y ganar.

Calix es una empresa de tecnología con sede en EE. UU. que ofrece plataformas de cloud, software y servicios administrados diseñados para proveedores de servicios de banda ancha y comunicaciones. Su oferta principal se centra en una plataforma de banda ancha habilitada para inteligencia artificial (IA) que integra infraestructura en la nube, datos y sistemas de red para ayudar a los proveedores a simplificar las operaciones, mejorar la participación del cliente y ofrecer experiencias digitales más personalizadas. Al permitir que estos proveedores transiten de servicios de conectividad básicos a proveedores de experiencias completas, Calix les ayuda a aumentar los ingresos, incrementar la lealtad de los suscriptores y apoyar la transformación digital de las comunidades a través de servicios de banda ancha más avanzados y escalables.

Su carrera abarca más de tres décadas en ingeniería, redes, plataformas en la nube y liderazgo de productos a gran escala. ¿Cómo han moldeado esas experiencias su perspectiva sobre lo que realmente se necesita para que la IA realice un trabajo real dentro de las empresas en lugar de permanecer como un experimento lateral?

Comencé en telecomunicaciones tradicionales y redes, donde el juego entero era el camino de los datos y la confiabilidad a escala. Si no puedes ofrecer un servicio limpio y confiable, nada de lo que construyas sobre eso realmente importa. En ese momento, el teléfono estaba en la pared de la cocina, los cables internos nunca se movían, y siempre que hubiera una señal de marcado, todo estaba bien.

La banda ancha y Internet lo cambiaron todo. De repente, no era solo “¿está encendido?”. Era Ethernet y luego Wi-Fi, los niños en consolas de juegos y tabletas, usted en una llamada de Zoom colaborando en una hoja de cálculo en la nube, y movilidad constante: dispositivos dentro del hogar, en el patio trasero, en el partido de fútbol, en la cafetería. La experiencia del suscriptor se volvió mucho más compleja que un estado binario de encendido/apagado, y el mundo para los proveedores de servicios se volvió muy dinámico. En ese mundo, una visión retrospectiva de los datos —almacenes de datos clásicos y informes históricos un mes después— simplemente no es suficiente. Debes recopilar datos, entender la experiencia y generar información en tiempo real porque los suscriptores ahora esperan que se solucionen los problemas de manera proactiva, no en horas o días.

Esa evolución ha moldeado cómo pienso sobre la IA. La mayoría de las personas quieren poner la IA “encima”, de la misma manera que ponen inteligencia empresarial o SaaS sobre los datos existentes. Mi experiencia dice que debes pensar mucho más allá de eso y diseñar para obtener información en tiempo real y acción oportuna.

Para los suscriptores, sin embargo, las expectativas no han cambiado mucho en los últimos 25 años. Todavía quieren conectividad segura y administrada que se sienta tan simple como el tono de marcado: quieren que todo “simplemente funcione” sin pensar en todas las capas y la complejidad, y lo quieren en todas partes de sus vidas. Mi carrera en telecomunicaciones y cloud me ha hecho muy cómodo con esa paradoja: construyes sistemas extremadamente complejos para poder abstraer todo eso y ofrecer una experiencia simple y excelente en el extremo. Eso es exactamente cómo pienso sobre la IA que hace un trabajo real dentro de cualquier negocio, de banda ancha o de otro tipo.

En Calix, usted enfatiza a menudo que la IA operativa se construye en lugar de comprarse. ¿Cuáles son los errores más comunes que cometen las organizaciones cuando intentan agregar IA sin replantear cómo fluye el trabajo a través del negocio?

Para mí, se trata menos de “construir versus comprar” y más de si has retrocedido y mirado la pila tecnológica completa. Muchas empresas decidieron que la IA era simplemente usar algunas API para acceder a un modelo de lenguaje grande, cablearlo a su pila con un wrapper y comprar tokens: entonces tenías una estrategia de IA. Eso no es cómo funciona esto.

Muchos de nosotros nos fascinamos con la tecnología en lugar del resultado. Hemos visto esta película antes. Cuando aparecieron las PCs, todos querían discutir si tenían un 286 o un 386, cuánta memoria tenían y qué DOS estaban ejecutando. Hoy en día, nadie puede decirte las especificaciones de su laptop o teléfono, y a nadie le importa hasta que deja de hacer lo que necesitan que haga. Lo que importa es: ¿esto me hace más efectivo en mi trabajo? Lo mismo sucede con la IA. Si no puedes vincularla a flujos de trabajo reales, valor real y ROI real, las especificaciones técnicas son solo ruido.

Otro error grande es intentar agregar IA a lo que ya tienes sin preguntar qué efecto tiene en tu arquitectura, tu modelo de seguridad y tus costos. La IA es tecnología fundamental, no una actualización de características incremental. Cuando la tratas como incremental, terminas con datos de mala calidad, problemas de seguridad, alucinaciones, costos descontrolados o mucha actividad que no resuelve un problema para nadie.

Finalmente, no puedes ignorar el contexto y la importancia de la experiencia vertical. La acción se trata de contexto, y ese contexto difiere a través de telecomunicaciones, fintech y atención médica. En Calix, comenzamos con una experiencia profunda en una industria y construimos una plataforma vertical alrededor de ella. Ya entendíamos los datos, las informaciones, los flujos de trabajo y el contexto, así que la pila podía reflejar esa realidad. La mayoría de las empresas conocen su industria vertical por dentro. La oportunidad es codificar ese conocimiento en una pila tecnológica vertical en lugar de confiar en una capa horizontal delgada y un modelo de IA genérico, y luego intentar coser todo. Los negocios se tratan de resultados, no de modelos. La verdadera pregunta es cómo esta tecnología te ayuda a entregar esos resultados en la forma en que fluyen tus trabajos.

Ha esbozado una arquitectura de cinco capas para la IA operativa que incluye datos, conocimiento, orquestación, confianza y acción. ¿Por qué es importante separar explícitamente estas capas, y cuál es la capa que las empresas subestiman o saltan por completo?

Durante mucho tiempo, la pila era bastante simple: datos, informaciones, paneles, flujos de trabajo, personas. Construías almacenes de datos, ponías inteligencia empresarial encima, creabas motores de flujo de trabajo y entregabas el trabajo duro a los humanos. En un mundo agente, eso no se sostiene. Necesitas datos, conocimiento, orquestación, confianza y acción porque cada capa realiza una función distinta.

La parte visible que todos quieren hablar es la capa de acción: los agentes. Esa es la punta del iceberg. Lo que determina si puedes dejar que los agentes toquen sistemas reales es todo el “trabajo aburrido” bajo la superficie: tuberías de datos y datos limpios, la capa de conocimiento que te da contexto, la orquestación que coordina flujos de trabajo dinámicos, y el modelo de confianza que decide qué se permite en primer lugar. Cuando el Titanic se hundió, no fue la pequeña parte que se podía ver lo que lo hundió; fue la gran masa de hielo debajo. La IA operativa es lo mismo. Los sistemas de plomería debajo de la superficie son lo que te hace o te rompe.

Históricamente, nunca tratamos la orquestación y la confianza como capas separadas porque los humanos hacían la mayor parte de ese trabajo. La orquestación significaba gerentes y colas de tickets; la confianza significaba nombres de usuario y contraseñas. Ahora tienes que confiar en entidades: agentes para que hagan cosas, y tienes que coordinar a múltiples agentes en tiempo real alrededor de datos dinámicos. Ese es un problema de diseño completamente diferente, por lo que esas capas necesitan ser explícitas.

La capa que la mayoría de las personas subestiman es la confianza. Muchas organizaciones piensan que están manejando la confianza porque tienen controles de acceso: quién puede iniciar sesión en qué sistema. Pero la confianza real en un mundo agente no es “¿tiene este usuario acceso?”. Es “¿es esta acción particular apropiada para este individuo o este agente en este punto en el tiempo?”. Esa es una pregunta de gobernanza, no una pregunta de control de acceso. Si no haces que esa capa sea explícita, te quedas atascado en la tierra de los demos, porque nunca estarás cómodo dejando que los agentes hagan un trabajo real en producción.

Entonces, la confianza es obviamente una parte fundamental de su estrategia de IA. ¿Cómo diseñan sistemas para que las decisiones automatizadas permanezcan observables, auditables y reversibles mientras aún se mueven lo suficientemente rápido como para entregar valor comercial?

Debes comenzar con una mentalidad de confianza cero. La primera pregunta no es “¿puede este agente técnicamente hacer esto?”. La primera pregunta es “¿debe este agente, en nombre de esta persona, intentar hacer esto en absoluto?”. Si la respuesta es no, entonces no procedas.

Si la respuesta es sí, entras en guardias: auditoría, trazabilidad y la necesidad de un humano en el bucle. Nuestro modelo depende de una capa de confianza que actúa un poco como un policía de tráfico al comienzo de cada interacción: quién eres, qué estás haciendo y por qué lo estás haciendo. Eso elimina muchos de los problemas de seguridad, porque no dejas que los agentes corran y hagan cosas y luego esperas que lo notes después del hecho.

La alternativa es dejar que los agentes corran sueltos y luego levantar una alarma si van y hacen algo malo. Estás asumiendo que puedes verlo, figurarlo, identificarlo y detenerlo en tiempo real, al ritmo y escala en que operan estos sistemas. Ese es un problema muy difícil, y es por eso que muchas personas están luchando: están tratando de buscar actores malos en tiempo real en lugar de prevenir acciones malas desde el principio.

Además de eso, hemos agregado pasarelas en capas. Incluso si un agente está actuando en nombre de la persona correcta, todavía estamos mirando la sesión y el contenido: ¿están tratando de envenenar un modelo, abusar de una API o empujar algo fuera de la política? Todo eso está envuelto en observabilidad completa para que puedas auditar lo que sucedió y revertirlo si es necesario. Esa es la forma en que te mueves rápidamente y aún así duermes por la noche.

Muchas empresas tienen éxito al generar información de IA pero luchan por traducirla en acción. ¿Qué decisiones de diseño permitieron a Calix empujar la IA directamente a los flujos de trabajo diarios a través del marketing, las operaciones y el soporte al cliente?

Mucho antes de que la IA fuera la estrella del espectáculo, en Calix ya estábamos obsesionados con una pregunta: ¿qué hace que una información sea realmente accionable para una persona real en un trabajo real? Desde 2018, hemos estado trabajando con proveedores de servicios para entender cómo trabajan diferentes personas: qué hace un marketer el martes por la mañana, qué hace un equipo de operaciones cuando suena una alarma, qué hacen los equipos de soporte cuando un suscriptor llama frustrado. Eso nos obligó a ser muy claros sobre qué informaciones importaban a quién, en qué contexto y qué se parecía a una “buena acción”.

Así que, cuando llegó la IA agente, no estábamos empezando desde cero. Ya teníamos sistemas en tiempo real que generaban informaciones accionables vinculadas a personas y flujos de trabajo específicos. La pregunta de diseño se convirtió en: dado un conjunto de herramientas diferente y una pila tecnológica diferente, ¿cómo reorganizarías esos mismos flujos de trabajo en un mundo de IA agente, en lugar de tratar de inventar todo eso desde cero?

Cuando emparejas este conocimiento profundo de las personas con la IA agente, puedes construir flujos de trabajo dinámicos sobre datos dinámicos. Los agentes pueden averiguar en tiempo real qué pasos y qué personas necesitan estar involucradas en función de lo que está sucediendo, en lugar de forzarte a codificar cientos de flujos rígidos en microservicios. Para la mayoría de las empresas, el problema difícil ahora es tratar de tomar decisiones en tiempo real basadas en el contexto y luego diseñar el flujo de trabajo correcto alrededor de eso. Para nosotros, esa parte ya estaba en su lugar; habíamos estado haciendo informaciones en tiempo real, basadas en personas y accionables durante años. La IA agente es solo un conjunto de herramientas nuevo sobre esa base.

Su visión de plataforma incluye interoperabilidad entre agentes (A2A) y sistemas de IA federados. ¿Cómo cambia este enfoque la forma en que colaboran las herramientas empresariales en comparación con las integraciones tradicionales de puntos?

Si miras los últimos 20 años, el patrón por defecto ha sido “comprar una serie de herramientas de SaaS y cablearlas alrededor de un lago de datos”. Cada nuevo sistema significaba una integración de punto más, una tubería de datos más y otro lugar para reconciliar la verdad. En un mundo agente, eso no escala. Quieres que los datos permanezcan donde pertenecen y que los agentes hablen entre sí a través de interfaces bien definidas.

Eso es por lo que hablamos de tocar el sistema en dos capas: MCP en la capa de conocimiento, y A2A en las capas de orquestación y confianza. MCP es cómo los agentes descubren y usan herramientas y datos sin una integración personalizada cada vez. A2A es cómo los agentes coordinan el trabajo entre sí bajo guardias claras.

Una vez que tengas eso, la colaboración deja de parecerse a un montón de conectores frágiles y comienza a parecerse a una red de especialistas que pueden unirse dinámicamente alrededor del trabajo real. Aquí es donde entra la analogía de la matriz de Eisenhower. No todo es igual de urgente e igual de importante. Algunos trabajos son realmente críticos en el tiempo, algunos son importantes pero se pueden programar, algunos solo necesitan hacerse y algunos son ruido. Con la coordinación de agente a agente sentada sobre una capa de confianza y orquestación, puedes tratar esas categorías de manera diferente a escala: los agentes pueden abrumar los problemas urgentes e importantes, poner en cola o programar los importantes pero no urgentes, y mantener la tarea de bajo valor lejos de todo lo demás.

Ese es un mundo muy diferente a “vamos a agregar otro conector y esperar que la cola se drene”. Estás viendo efectivamente flujos de trabajo dinámicos y orquestados alrededor de eventos y datos dinámicos, en lugar de un enredo de integraciones de un solo uso donde todo grita con la misma prioridad.

Una vez que los agentes de IA son autorizados a actuar de forma autónoma, la gobernanza se convierte rápidamente en un desafío. ¿Cómo equilibra la velocidad, la rendición de cuentas y la supervisión humana cuando los sistemas de IA están tomando o ejecutando decisiones a escala?

El error que veo es que la gente piensa que pueden agregar la IA agente a lo que tienen y de alguna manera tratar de “equilibrar” la velocidad, la rendición de cuentas y la supervisión humana después del hecho. No puedes. Tienes que comenzar reconociendo que este es un problema de pila tecnológica vertical y construyendo intencionalmente una capa de confianza y una capa de orquestación. Sin esas dos capas, se convierte en un desorden: todo es primero en llegar, primero en ser servido, o quien grita más fuerte.

Nuevamente, es la matriz de Eisenhower: no todo el trabajo es creado igual. La confianza y la orquestación son cómo operacionalizas eso en un mundo agente. No quieres que cada agente trate cada tarea como una alarma de incendio; quieres que el sistema sepa qué es realmente crítico en el tiempo, qué se puede programar y qué debería manejarse silenciosamente en el fondo.

Y luego está la parte de “estrecho sobre gordo”. La mayoría de las empresas confunden un mayor impacto de la IA con permanecer amplio. Estás mucho mejor si eliges una rebanada vertical estrecha: un caso de uso concreto, un conjunto de flujos de trabajo, y construyes la confianza y la orquestación que necesitas allí primero. Hazte más delgado en la vertical, hazlo bien, mantén a los humanos en el bucle en los bordes y luego expande. Esa es la forma en que te mueves rápidamente, te mantienes responsable y evitas crear un desorden que no puedes desenredar más tarde.

Desde su experiencia liderando grandes equipos de producto y ingeniería globales, ¿qué cambios organizacionales o culturales son necesarios para que la IA se convierta en una capacidad empresarial duradera en lugar de una colección de pilotos desconectados?

La mayoría de las empresas no tienen un “problema de IA”; tienen un problema de conocimiento y flujo de trabajo. El primer cambio es dejar de jugar con soluciones de punto y moverse de almacenes de datos a un almacén de conocimiento federado que todos puedan ver y actuar. Mientras el conocimiento viva en silos y la IA sea un complemento en cada silo, obtendrás pilotos, no transformación.

Desde allí, tienes que estar dispuesto a ir tras los problemas más difíciles en un orden específico. El paso uno es separar el hype de la realidad y adoptar lo que está funcionando, no lo que es más ruidoso en tu feed. El paso dos es reorganizar la capa de conocimiento para que puedas convertir los datos en contexto compartido y federado en lugar de otro informe enterrado en un sistema. El paso tres es replantear los flujos de trabajo alrededor de ese conocimiento y una capa de confianza real: la mayoría del trabajo hoy está organizado alrededor de personas, habilidades y silos de conocimiento locales. Si no cambias eso, los agentes serán solo otra herramienta orbitando los mismos cuellos de botella antiguos.

Solo entonces llegas al cambio cultural, que a menudo es el más difícil. Necesitas una cultura en la que las personas no estén principalmente preocupadas por perder sus trabajos, herramientas o identidad, sino que estén genuinamente emocionadas de trabajar con nuevas capacidades. Ese es un problema de gestión del cambio, no un problema de tecnología. Se parece mucho al liderazgo distribuido real: las personas en el extremo afilado del trabajo entienden los flujos de trabajo, se sienten seguras nombrando la fricción y están emocionadas de poner a los agentes a trabajar en ello.

Mirando más allá de la banda ancha y las telecomunicaciones, ¿qué industrias cree que están mejor posicionadas para adoptar la IA operativa y basada en agentes a continuación, y qué condiciones las hacen listas?

No realmente pienso en esto como elegir ganadores por etiqueta de industria; pienso en términos de patrones. Casi todas las verticales tienen el mismo desafío subyacente: han construido silos de datos y silos de función en lugar de una vista a través de tres ciclos de vida: cliente, empleado y producto. Las que están listas son las que están dispuestas a ver eso, admitir que no tienen una capa de conocimiento real y arreglarlo.

Desde allí, las condiciones parecen bastante similares independientemente de si estás en atención médica, fintech, retail o infraestructura crítica. Necesitas flujos de trabajo complejos donde las personas estén estiradas, puntos de fricción reales que puedas nombrar y suficientes datos de alta calidad para dar a los agentes contexto. Si puedes mapear flujos de trabajo actuales, ver dónde se ralentiza o se acumula el trabajo, entender qué entregas crea retrasos y luego respaldarlo con un almacén de conocimiento federado, la IA agente se convierte en una herramienta increíble.

En ese mundo, “la preparación de la industria” se reduce a liderazgo. ¿Están dispuestos los líderes de una empresa a moverse más allá de herramientas de marketing y paneles horizontales delgados, e invertir en una pila tecnológica vertical: convirtiendo datos en conocimiento, federando ese conocimiento, poniendo marcos de orquestación y confianza en su lugar, y teniendo conversaciones honestas sobre dónde está el ROI real? Cualquier empresa en cualquier industria que haga ese trabajo está bien posicionada para la IA operativa y basada en agentes; las que no lo hacen quedarán atascadas agregando otra herramienta a un montón de ruido ya existente.

Desde su experiencia, ¿cómo se verá la arquitectura de IA buena dentro de cinco años, y qué principios deben comprometerse los líderes hoy para evitar reconstruir sus sistemas más tarde?

Dentro de cinco años, la parte interesante de la IA no será los agentes o modelos individuales; será los flujos de trabajo agente que permiten y el valor comercial que entregan esos flujos de trabajo. Los agentes en sí mismos vendrán y se irán. Las capas debajo de ellos: datos, conocimiento, orquestación, confianza y acción, seguirán evolucionando, pero la necesidad de ellas no desaparecerá.

Eso es por lo que me enfoco más en la arquitectura que en cualquier herramienta específica. Estamos moviéndonos de almacenes de datos a almacenes de conocimiento federados, de integraciones de punto frágiles a pilas en capas abiertas. En ese mundo, tendrás agentes que corren en diferentes nubes, tocando diferentes fuentes de conocimiento y coordinándose a través de interfaces bien definidas: MCP en la capa de conocimiento, y protocolos de agente a agente en las capas de orquestación y confianza. A medida que mejora la tecnología, quieres poder cambiar piezas mejores en esas capas sin reconstruir todo cada vez.

Así que los principios para los líderes son simples. No construyas de manera monolítica. Diseña para capas para que los datos, el conocimiento, la orquestación, la confianza y la acción puedan evolucionar de forma independiente. Diseña para flujos, no características, para que estés claro sobre qué flujos de trabajo importan y qué se parece a “bueno” en los ciclos de vida del cliente, el empleado y el producto. Y diseña para la gobernanza a nivel de agente: asume confianza cero por defecto, define “tarjetas de agente” claras y usa orquestación para decidir qué es urgente, qué es importante y qué solo necesita hacerse. Si haces eso, puedes dejar que la tecnología cambie: como siempre lo hace, sin preocuparte constantemente por reconstruir.

Gracias por la gran entrevista, los lectores que deseen aprender más deben visitar Calix.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.