Entrevistas
Liran Hason, Co-Fundador y CEO de Aporia – Serie de Entrevistas

Liran Hason es el Co-Fundador y CEO de Aporia, una plataforma de observabilidad de ML de pilas completas utilizada por empresas Fortune 500 y equipos de ciencia de datos de todo el mundo para garantizar un AI responsable. Aporia se integra sin problemas con cualquier infraestructura de ML. Ya sea un servidor FastAPI sobre Kubernetes, una herramienta de implementación de código abierto como MLFlow o una plataforma de aprendizaje automático como AWS Sagemaker.
Antes de fundar Aporia, Liran fue Arquitecto de ML en Adallom (adquirida por Microsoft), y más tarde inversor en Vertex Ventures.
Empezaste a codificar cuando tenías 10 años, ¿qué te atrajo inicialmente a los ordenadores, y en qué estabas trabajando?
Era 1999, y un amigo mío me llamó y me dijo que había construido un sitio web. Después de teclear una dirección de 200 caracteres en mi navegador, vi un sitio web con su nombre en él. Me sorprendió el hecho de que él hubiera creado algo en su ordenador y yo pudiera verlo en el mío. Esto me hizo super curioso sobre cómo funcionaba y cómo podía hacer lo mismo. Le pedí a mi mamá que me comprara un libro de HTML, que fue mi primer paso en la programación.
Me encanta asumir desafíos técnicos, y con el tiempo mi curiosidad solo creció. Aprendí ASP, PHP y Visual Basic, y realmente consumí todo lo que pude.
Cuando tenía 13 años, ya estaba asumiendo algunos trabajos freelance, construyendo sitios web y aplicaciones de escritorio.
Cuando no tenía trabajo activo, estaba trabajando en mis propios proyectos – usualmente diferentes sitios web y aplicaciones destinadas a ayudar a otras personas a alcanzar sus objetivos:
Blue-White Programming – es un lenguaje de programación hebreo, similar a HTML, que construí después de darme cuenta de que los niños en Israel que no tienen un alto nivel de inglés están limitados o alejados del mundo de la codificación.
Blinky – Mis abuelos son sordos y utilizan el lenguaje de señas para comunicarse con sus amigos. Cuando surgieron software de videoconferencia como Skype y ooVoo, les permitió hablar con amigos incluso si no estaban en la misma habitación (como todos hacemos con nuestros teléfonos). Sin embargo, como no podían oír, no podían saber cuándo tenían una llamada entrante. Para ayudarlos, escribí un software que identifica las llamadas de video entrantes y les avisa mediante un destello de un array de LED en un dispositivo de hardware pequeño que construí y conecté a su ordenador.
Estos son solo algunos de los proyectos que construí como adolescente. Mi curiosidad nunca cesó y me encontré aprendiendo C, C++, Assembly, y cómo funcionan los sistemas operativos, y realmente traté de aprender todo lo que pude.
¿Podrías compartir la historia de tu viaje como Arquitecto de Aprendizaje Automático en Adallom, adquirida por Microsoft?
Comencé mi viaje en Adallom después de mi servicio militar. Después de 5 años en el ejército como Capitán, vi una gran oportunidad de unirme a una empresa emergente y un mercado – como uno de los primeros empleados. La empresa estaba liderada por grandes fundadores, a quienes conocía de mi servicio militar, y respaldada por VC de primer nivel – como Sequoia. La erupción de tecnologías en la nube en el mercado aún estaba en su infancia relativa, y estábamos construyendo una de las primeras soluciones de seguridad en la nube en ese momento. Las empresas estaban comenzando a transitar de locales a la nube, y vimos surgir nuevos estándares de la industria – como Office 365, Dropbox, Marketo, Salesforce, y otros.
Durante mis primeras semanas, ya sabía que quería empezar mi propia empresa algún día. Realmente sentí, desde una perspectiva técnica, que estaba listo para cualquier desafío que se me presentara, y si no yo mismo, sabía a quién recurrir para superar cualquier cosa.
Adallom necesitaba a alguien que tuviera conocimientos profundos de la tecnología pero que también pudiera ser enfocado al cliente. Avanzando un mes, y estaba en un avión a los EE. UU., por primera vez en mi vida, para reunirme con personas de LinkedIn (antes de Microsoft). Unas semanas después y se convirtieron en nuestros primeros clientes pagos en los EE. UU. Esto fue solo una de las muchas corporaciones importantes – Netflix, Disney, y Safeway – que estaba ayudando a resolver problemas críticos de la nube.
Para mí, unirme a Adallom fue realmente unirme a un lugar donde creía en el mercado, creía en el equipo, y creía en la visión. Estoy extremadamente agradecido por la oportunidad que se me dio allí.
El propósito de lo que estaba haciendo era y es muy importante. Para mí, era lo mismo en el ejército, siempre era importante. Podía ver fácilmente cómo el enfoque de Adallom de conectarse a las soluciones SaaS, monitorear la actividad de los usuarios, encontrar anomalías, etc., era cómo se harían las cosas. Me di cuenta de que Adallom sería una empresa exitosa.
Fui responsable de toda la arquitectura de nuestra infraestructura de ML. Y vi y experimenté de primera mano la falta de herramientas adecuadas para el ecosistema. Sí, estaba claro para mí que debía haber una solución dedicada en un lugar centralizado donde puedas ver todos tus modelos; donde puedas ver qué decisiones están tomando para tu negocio; donde puedas rastrear y ser proactivo con tus objetivos de ML. Por ejemplo, hubo veces en que nos enteramos de problemas en nuestros modelos de aprendizaje automático demasiado tarde, y eso no es bueno para los usuarios y definitivamente no para el negocio. Esto es donde comenzó a tomar forma la idea de Aporia.
¿Podrías compartir la historia de la génesis detrás de Aporia?
Mi propia experiencia personal con el aprendizaje automático comienza en 2008, como parte de un proyecto colaborativo en el Instituto Weizmann, junto con la Universidad de Bath y un Centro de Investigación Chino. Allí, construí un sistema de identificación biométrica analizando imágenes del iris. Logré una precisión del 94%. El proyecto fue un éxito y fue aclamado desde una perspectiva de investigación. Pero para mí, había estado construyendo software desde que tenía 10 años, y algo se sentía de alguna manera, no real. No podrías realmente utilizar el sistema de identificación biométrica que construí en la vida real porque funcionaba bien solo para el conjunto de datos específico que utilicé. No es lo suficientemente determinista.
Esto es solo un poco de antecedentes. Cuando estás construyendo un sistema de aprendizaje automático, por ejemplo, para identificación biométrica, quieres que las predicciones sean deterministas – quieres saber que el sistema identifica con precisión a una persona determinada, ¿verdad? Al igual que cómo tu iPhone no se desbloquea si no reconoce a la persona correcta en el ángulo correcto, este es el resultado deseado. Pero esto realmente no era el caso con el aprendizaje automático cuando me sumergí por primera vez en el espacio.
Unos siete años después, estaba experimentando de primera mano, en Adallom, la realidad de ejecutar modelos de producción sin guardrails confiables, ya que toman decisiones para nuestro negocio que afectan a nuestros clientes. Luego, tuve la suerte de trabajar como inversor en Vertex Ventures, durante tres años. Vi cómo más y más organizaciones utilizaban ML, y cómo las empresas transitaron de solo hablar sobre ML a realmente hacer aprendizaje automático. Sin embargo, estas empresas adoptaron ML solo para ser desafiadas por los mismos problemas que enfrentábamos en Adallom.
Todos se apresuraron a utilizar ML, y estaban tratando de construir sistemas de monitoreo en casa. Obviamente, no era su negocio principal, y estos desafíos son bastante complejos. Aquí es donde me di cuenta de que esta es mi oportunidad de hacer un impacto enorme.
El AI se está adoptando en casi todas las industrias, incluyendo la atención médica, los servicios financieros, la automotriz, y otras, y afectará la vida de todos y nos impactará a todos. Esto es donde Aporia muestra su verdadero valor – permitiendo que todos estos casos de uso que cambian la vida funcionen como se pretende y ayuden a mejorar nuestra sociedad. Porque, al igual que con cualquier software, vas a tener errores, y el aprendizaje automático no es diferente. Si se deja sin supervisión, estos problemas de ML pueden realmente dañar la continuidad del negocio y afectar a la sociedad con resultados de sesgo no intencionados. Toma el intento de Amazon de implementar una herramienta de contratación de AI – el sesgo no intencionado causó que el modelo de aprendizaje automático recomiende con fuerza a los candidatos masculinos sobre los femeninos. Esto es obviamente un resultado no deseado. Así que hay que tener una solución dedicada para detectar el sesgo no intencionado antes de que llegue a las noticias y afecte a los usuarios finales.
Para que las organizaciones confíen adecuadamente en el aprendizaje automático y disfruten de sus beneficios, necesitan saber cuándo no está funcionando correctamente, y ahora con las nuevas regulaciones, a menudo los usuarios de ML necesitarán formas de explicar las predicciones de sus modelos. Al final, es crítico investigar y desarrollar nuevos modelos y proyectos innovadores, pero una vez que esos modelos se encuentran con el mundo real y toman decisiones reales para las personas, los negocios y la sociedad, hay una necesidad clara de una solución de observabilidad integral para garantizar que puedan confiar en el AI.
¿Podrías explicar la importancia del AI transparente y explicable?
Aunque puede parecer similar, hay una distinción importante que hacer entre el software tradicional y el aprendizaje automático. En el software, tienes un ingeniero de software, escribiendo código, definiendo la lógica de la aplicación, sabemos exactamente qué ocurrirá en cada flujo del código. Es determinista. Así es como se construye el software, los ingenieros crean casos de prueba, pruebas de casos de borde, obteniendo alrededor del 70% – 80% de cobertura – te sientes lo suficientemente bien como para lanzar a producción. Si surgen alertas, puedes depurar y entender qué flujo salió mal, y arreglarlo.
Esto no es el caso con el aprendizaje automático. En lugar de que un humano defina la lógica, se define como parte del proceso de entrenamiento del modelo. Cuando se habla de lógica, a diferencia del software tradicional, no es un conjunto de reglas, sino más bien una matriz de millones y miles de millones de números que representan la mente, el cerebro del modelo de aprendizaje automático. Y esta es una caja negra, no sabemos realmente el significado de cada número en esta matriz. Pero sabemos estadísticamente, así que esto es probabilístico, y no determinista. Puede ser preciso en el 83% o el 93% de las veces. Esto plantea muchas preguntas, ¿verdad? Primero, ¿cómo podemos confiar en un sistema que no podemos explicar cómo llega a sus predicciones? Segundo, ¿cómo podemos explicar predicciones para industrias altamente reguladas – como el sector financiero. Por ejemplo, en los EE. UU., las firmas financieras están obligadas por ley a explicar a sus clientes por qué fueron rechazados para una solicitud de préstamo.
La incapacidad para explicar las predicciones del aprendizaje automático en texto legible por humanos podría ser un bloqueador importante para la adopción masiva de ML en las industrias. Queremos saber, como sociedad, que el modelo no está tomando decisiones sesgadas. Queremos asegurarnos de que entendemos qué conduce al modelo a una decisión específica. Esto es donde la explicabilidad y la transparencia son extremadamente cruciales.
¿Cómo funciona la solución de caja de herramientas de AI transparente y explicable de Aporia?
La caja de herramientas de AI explicable de Aporia funciona como parte de un sistema de observabilidad de aprendizaje automático unificado. Sin una visibilidad profunda de los modelos de producción y una solución de monitoreo y alerta confiable, es difícil confiar en las perspectivas de AI explicable – no hay necesidad de explicar predicciones si la salida es poco confiable. Y así, ahí es donde Aporia entra en juego, proporcionando una visibilidad de un solo panel de vidrio sobre todos los modelos en ejecución, monitoreo personalizable, capacidades de alerta, herramientas de depuración, investigación de causa raíz y AI explicable. Una solución de observabilidad integral dedicada para cualquier problema que surja en producción.
La plataforma Aporia es agnóstica y equipa a las empresas orientadas al AI, equipos de ciencia de datos y ML con un panel de control centralizado y visibilidad completa en la salud de sus modelos, predicciones y decisiones – permitiéndoles confiar en su AI. Al utilizar el AI explicable de Aporia, las organizaciones pueden mantener a todos los partes interesados relevantes en el bucle explicando las decisiones de aprendizaje automático con un clic de botón – obtener perspectivas legibles por humanos en predicciones de modelo específicas o simular situaciones “¿Qué pasa si?”. Además, Aporia rastrea constantemente los datos que se alimentan al modelo, así como las predicciones, y envía alertas proactivamente sobre eventos importantes, incluyendo degradación del rendimiento, sesgo no intencionado, deriva de datos e incluso oportunidades para mejorar su modelo. Finalmente, con la caja de herramientas de investigación de Aporia, puedes llegar a la raíz de cualquier evento para remediar y mejorar cualquier modelo en producción.
Algunas de las funcionalidades que se ofrecen incluyen Herramientas de Investigación de Puntos de Datos y Series de Tiempo, ¿cómo ayudan estas herramientas a prevenir el sesgo y la deriva del AI?
Puntos de datos proporciona una vista en vivo de los datos que el modelo está recibiendo y las predicciones que está haciendo para el negocio. Puedes obtener una transmisión en vivo de eso y entender exactamente qué está sucediendo en tu negocio. Así que esta capacidad de visibilidad es crucial para la transparencia. A veces, las cosas cambian con el tiempo y hay una correlación entre múltiples cambios con el tiempo – este es el papel de la investigación de series de tiempo.
Recientemente, los grandes minoristas han tenido todos sus herramientas de predicción de AI fallar cuando se trataba de predecir problemas de la cadena de suministro, ¿cómo resolvería la plataforma Aporia esto?
El desafío principal para identificar este tipo de problemas radica en el hecho de que estamos hablando de predicciones futuras. Eso significa, predijimos que algo ocurrirá o no ocurrirá en el futuro. Por ejemplo, ¿cuántas personas comprarán una camiseta específica o comprarán una nueva PlayStation.
Luego, se necesitan unas semanas para recopilar todos los resultados reales – más de unas pocas semanas. Luego, podemos resumir y decir, okay, esta fue la demanda real que vimos. Este marco de tiempo, estamos hablando de unos pocos meses en total. Esto es lo que nos lleva desde el momento en que el modelo hace la predicción hasta que el negocio sabe exactamente si estaba en lo correcto o no. Y para entonces, usualmente es demasiado tarde, el negocio ha perdido ingresos potenciales o el margen se ha visto afectado, porque tienen que vender el stock en exceso a descuentos enormes.
Este es un desafío. Y este es exactamente donde Aporia entra en escena y se vuelve muy, muy útil para estas organizaciones. Primero, les permite a las organizaciones obtener transparencia y visibilidad en las decisiones que se están tomando – ¿Hay fluctuaciones? ¿Hay algo que no tiene sentido? En segundo lugar, como estamos hablando de grandes minoristas, estamos hablando de enormes cantidades de inventario, y rastrearlos manualmente es casi imposible. Aquí es donde las empresas y los equipos de aprendizaje automático valoran más a Aporia, como un sistema de monitoreo automático personalizable las 24 horas. Aporia rastrea constantemente los datos y las predicciones, analiza el comportamiento estadístico de estas predicciones, y puede anticipar e identificar cambios en el comportamiento de los consumidores y cambios en el comportamiento de los datos tan pronto como suceden. En lugar de esperar seis meses para darse cuenta de que la previsión de la demanda estaba equivocada, puedes identificar en cuestión de unos pocos días que estamos en el camino equivocado con nuestras previsiones de demanda. Así que Aporia acorta este marco de tiempo de unos pocos meses a unos pocos días. Esto es un gran cambio de juego para cualquier practicante de ML.
¿Hay algo más que te gustaría compartir sobre Aporia?
Estamos creciendo constantemente y buscando personas increíbles con mentes brillantes para unirse al viaje de Aporia. Revisa nuestras ofertas de trabajo abiertas.
Gracias por la gran entrevista, los lectores que desean aprender más deben visitar Aporia.












