Connect with us

Yotam Oren, CEO y cofundador de Mona Labs – Serie de entrevistas

Entrevistas

Yotam Oren, CEO y cofundador de Mona Labs – Serie de entrevistas

mm

Yotam Oren, es el CEO y cofundador de Mona Labs, una plataforma que permite a las empresas transformar las iniciativas de inteligencia artificial desde experimentos de laboratorio en operaciones comerciales escalables al comprender verdaderamente cómo se comportan los modelos de aprendizaje automático en procesos y aplicaciones comerciales reales.

Mona analiza automáticamente el comportamiento de sus modelos de aprendizaje automático en segmentos de datos protegidos y en el contexto de las funciones comerciales, con el fin de detectar posibles sesgos de inteligencia artificial. Mona ofrece la capacidad de generar informes de equidad completos que cumplen con los estándares y regulaciones de la industria, y ofrecen confianza de que la aplicación de inteligencia artificial es cumplida y libre de cualquier sesgo.

¿Qué te atrajo inicialmente a la informática?

La informática es una carrera popular en mi familia, así que siempre estuvo en mi mente como una opción viable. Por supuesto, la cultura israelí es muy pro-tecnología. Celebramos a los tecnólogos innovadores y siempre tuve la percepción de que la informática me ofrecería una oportunidad de crecimiento y logro.

A pesar de eso, solo se convirtió en una pasión personal cuando llegué a la universidad. No fui uno de esos niños que empezaron a programar en la escuela secundaria. En mi juventud, estaba demasiado ocupado jugando baloncesto como para prestar atención a los ordenadores. Después de la escuela secundaria, pasé cerca de 5 años en el ejército, en roles de liderazgo operativo/combativo. Así que, en cierto modo, realmente solo comencé a aprender sobre informática cuando necesité elegir una especialización universitaria. Lo que capturó mi atención de inmediato fue que la informática combinaba la resolución de problemas y el aprendizaje de un lenguaje (o lenguajes). Dos cosas que me interesaban particularmente. A partir de entonces, estaba enganchado.

Desde 2006 hasta 2008 trabajaste en mapeo y navegación para una pequeña empresa emergente, ¿cuáles fueron algunos de tus conocimientos clave de esa época?

Mi función en Telmap era construir un motor de búsqueda sobre mapas y datos de ubicación.

Estos fueron los primeros días de “big data” en la empresa. No estábamos llamándolo así, pero estábamos adquiriendo enormes conjuntos de datos y tratando de extraer las conclusiones más impactantes y relevantes para mostrar a nuestros usuarios finales.

Una de las realizaciones impactantes que tuve fue que las empresas (incluyéndonos a nosotros) utilizábamos muy poco de nuestros datos (por no mencionar los datos externos disponibles públicamente). Había tanto potencial para nuevas conclusiones, mejores procesos y experiencias.

La otra conclusión fue que poder obtener más de nuestros datos dependía, por supuesto, de tener mejores arquitecturas, mejor infraestructura, etc.

¿Puedes compartir la historia de génesis detrás de Mona Labs?

Los tres cofundadores hemos estado alrededor de productos de datos a lo largo de nuestras carreras.

Nemo, el director de tecnología, es mi amigo y compañero de universidad, y uno de los primeros empleados de Google Tel Aviv. Empezó un producto allí llamado Google Trends, que tenía mucha analítica avanzada y aprendizaje automático basado en datos de motores de búsqueda. Itai, el otro cofundador y director de producto, estaba en el equipo de Nemo en Google (y él y yo nos conocimos a través de Nemo). Los dos estaban frustrados porque los sistemas impulsados por inteligencia artificial se dejaban sin supervisión después del desarrollo y las pruebas iniciales. A pesar de la dificultad para probar adecuadamente estos sistemas antes de la producción, los equipos aún no sabían cómo funcionaban sus modelos predictivos con el tiempo. Además, parecía que la única vez que recibían retroalimentación sobre los sistemas de inteligencia artificial era cuando las cosas salían mal y el equipo de desarrollo era llamado para una “llamada de emergencia” para solucionar problemas catastróficos.

Al mismo tiempo, yo era consultor en McKinsey & Co, y una de las barreras más grandes que vi para los programas de inteligencia artificial y Big Data en grandes empresas era la falta de confianza que tenían los stakeholders comerciales en esos programas.

El hilo común aquí se volvió claro para Nemo, Itai y yo en conversaciones. La industria necesitaba la infraestructura para monitorear los sistemas de inteligencia artificial/machine learning en producción. Nosotros creamos la visión de proporcionar esta visibilidad para aumentar la confianza de los stakeholders comerciales y permitir que los equipos de inteligencia artificial siempre tengan control sobre cómo están funcionando sus sistemas y puedan iterar más eficientemente.

Y eso es cuando se fundó Mona.

¿Cuáles son algunos de los problemas actuales con la falta de transparencia de la inteligencia artificial?

En muchas industrias, las organizaciones ya han invertido decenas de millones de dólares en sus programas de inteligencia artificial, y han visto algún éxito inicial en el laboratorio y en despliegues a pequeña escala. Pero escalar, lograr una adopción generalizada y hacer que el negocio realmente confíe en la inteligencia artificial ha sido un desafío masivo para casi todos.

¿Por qué está sucediendo esto? Bueno, comienza con el hecho de que la gran investigación no se traduce automáticamente en grandes productos (Un cliente nos dijo una vez, “Los modelos de aprendizaje automático son como coches, en el momento en que salen del laboratorio, pierden el 20% de su valor”). Los grandes productos tienen sistemas de apoyo. Hay herramientas y procesos para asegurar que la calidad se mantenga con el tiempo y que los problemas se detecten temprano y se aborden de manera eficiente. Los grandes productos también tienen un ciclo de retroalimentación continuo, tienen un ciclo de mejora y una hoja de ruta. En consecuencia, los grandes productos requieren una transparencia profunda y constante del rendimiento.

Cuando hay falta de transparencia, terminas con:

  • Problemas que permanecen ocultos durante algún tiempo y luego estallan en la superficie causando “llamadas de emergencia”
  • Investigaciones y mitigaciones manuales y prolongadas
  • Un programa de inteligencia artificial que no es de confianza para los usuarios y patrocinadores comerciales y que en última instancia no logra escalar

¿Cuáles son algunos de los desafíos detrás de hacer que los modelos predictivos sean transparentes y confiables?

La transparencia es un factor importante para lograr la confianza, por supuesto. La transparencia puede venir en muchas formas. Hay transparencia de predicción única que puede incluir mostrar el nivel de confianza al usuario o proporcionar una explicación/justificación para la predicción. La transparencia de predicción única está dirigida principalmente a ayudar al usuario a sentirse cómodo con la predicción. Y luego, hay transparencia general que puede incluir información sobre precisión predictiva, resultados inesperados y posibles problemas. La transparencia general es necesaria para el equipo de inteligencia artificial.

La parte más desafiante de la transparencia general es detectar problemas temprano, alertar al miembro del equipo relevante para que pueda tomar medidas correctivas antes de que ocurran catástrofes.

¿Por qué es desafiante detectar problemas temprano:

  • Los problemas a menudo comienzan pequeños y se cuecen a fuego lento, antes de eventualmente estallar en la superficie.
  • Los problemas a menudo comienzan debido a factores externos o incontrolables, como fuentes de datos.
  • Hay muchas formas de “dividir el mundo” y buscar exhaustivamente problemas en bolsillos pequeños puede resultar en mucho ruido (fatiga de alertas), al menos cuando se hace de una manera ingenua.

Otro aspecto desafiante de proporcionar transparencia es la proliferación masiva de casos de uso de inteligencia artificial. Esto hace que un enfoque de “talla única” sea casi imposible. Cada caso de uso de inteligencia artificial puede incluir estructuras de datos diferentes, ciclos comerciales diferentes, métricas de éxito diferentes y, a menudo, enfoques técnicos y pilas diferentes.

Así que es una tarea monumental, pero la transparencia es fundamental para el éxito de los programas de inteligencia artificial, así que tienes que hacerlo.

¿Puedes compartir algunos detalles sobre las soluciones para modelos de NLU / NLP y chatbots?

La inteligencia artificial conversacional es uno de los ejes verticales principales de Mona. Estamos orgullosos de apoyar a empresas innovadoras con una amplia gama de casos de uso de inteligencia artificial conversacional, incluyendo modelos de lenguaje, chatbots y más.

Un factor común en estos casos de uso es que los modelos operan cerca (y a veces visiblemente) de los clientes, por lo que los riesgos de un rendimiento inconsistente o un mal comportamiento son más altos. Se vuelve tan importante para los equipos de inteligencia artificial conversacional entender el comportamiento del sistema a un nivel granular, lo cual es un área de fortaleza de la solución de monitoreo de Mona.

Lo que hace la solución de Mona que es bastante único es la búsqueda sistemática de grupos de conversaciones y la búsqueda de bolsillos en los que los modelos (o bots) se comportan mal. Esto permite a los equipos de inteligencia artificial conversacional identificar problemas temprano y antes de que los clientes los noten. Esta capacidad es un factor crítico de decisión para los equipos de inteligencia artificial conversacional al seleccionar soluciones de monitoreo.

En resumen, Mona proporciona una solución integral para el monitoreo de inteligencia artificial conversacional. Comienza con la garantía de que hay una sola fuente de información para el comportamiento de los sistemas con el tiempo, y continúa con el seguimiento continuo de indicadores clave de rendimiento y perspicacias proactivas sobre bolsillos de mal comportamiento, lo que permite a los equipos tomar medidas correctivas preemptivas y eficientes.

¿Puedes ofrecer algunos detalles sobre el motor de insights de Mona?

Claro. Comencemos con la motivación. El objetivo del motor de insights es presentar anomalías a los usuarios, con solo la cantidad adecuada de información contextual y sin crear ruido o llevar a la fatiga de alertas.

El motor de insights es un flujo de trabajo analítico único. En este flujo de trabajo, el motor busca anomalías en todos los segmentos de los datos, lo que permite la detección temprana de problemas cuando aún son “pequeños” y antes de que afecten todo el conjunto de datos y las métricas de negocio descendentes. Luego, utiliza un algoritmo propietario para detectar las causas raíz de las anomalías y asegurarse de que cada anomalía se alerte solo una vez para evitar el ruido. Los tipos de anomalías admitidos incluyen: anomalías de series temporales, derivas, valores atípicos, degradación del modelo y más.

El motor de insights es altamente personalizable a través de la configuración sin código/bajo código de Mona. La personalización del motor hace que Mona sea la solución más flexible del mercado, cubriendo una amplia gama de casos de uso (por ejemplo, batch y streaming, con/sin retroalimentación comercial/verdad fundamental, a través de versiones de modelo o entre entrenamiento y inferencia, y más).

Finalmente, este motor de insights está respaldado por un panel de visualización, en el que las perspicacias se pueden ver, y un conjunto de herramientas de investigación para permitir el análisis de causa raíz y una mayor exploración de la información contextual. El motor de insights también está completamente integrado con un motor de notificación que permite alimentar perspicacias a los entornos de trabajo de los usuarios, incluyendo correo electrónico, plataformas de colaboración y así sucesivamente.

El 31 de enero, Mona lanzó su nueva solución de equidad de inteligencia artificial, ¿puedes compartir con nosotros detalles sobre esta función y por qué es importante?

La equidad de inteligencia artificial se trata de garantizar que los algoritmos y los sistemas impulsados por inteligencia artificial en general tomen decisiones imparciales y equitativas. Abordar y prevenir los sesgos en los sistemas de inteligencia artificial es crucial, ya que pueden resultar en consecuencias significativas en el mundo real. Con el creciente predominio de la inteligencia artificial, el impacto en la vida diaria de las personas sería visible en más y más lugares, incluyendo la automatización de nuestra conducción, la detección de enfermedades más precisa, la mejora de nuestra comprensión del mundo y incluso la creación de arte. Si no podemos confiar en que sea justo y sin sesgos, ¿cómo podemos permitir que continúe extendiéndose?

Una de las causas principales de los sesgos en la inteligencia artificial es simplemente la capacidad de los datos de entrenamiento para representar el mundo real en su totalidad. Esto puede deberse a la discriminación histórica, la subrepresentación de ciertos grupos o incluso la manipulación intencional de los datos. Por ejemplo, un sistema de reconocimiento facial entrenado con individuos de piel clara predominantemente probablemente tendrá una tasa de error más alta al reconocer a individuos con tonos de piel más oscuros. De manera similar, un modelo de lenguaje entrenado con datos textuales de un conjunto limitado de fuentes puede desarrollar sesgos si los datos están sesgados hacia ciertas perspectivas del mundo, en temas como la religión, la cultura, etc.

La solución de equidad de inteligencia artificial de Mona da a los equipos de inteligencia artificial y negocio la confianza de que su inteligencia artificial está libre de sesgos. En sectores regulados, la solución de Mona puede preparar a los equipos para la preparación de cumplimiento.

La solución de equidad de Mona es especial porque se encuentra en la plataforma de Mona, un puente entre los datos y modelos de inteligencia artificial y sus implicaciones en el mundo real. Mona examina todas las partes del proceso comercial que el modelo de inteligencia artificial sirve en producción, para correlacionar entre los datos de entrenamiento, el comportamiento del modelo y los resultados reales en el mundo para proporcionar la evaluación más completa de la equidad.

En segundo lugar, tiene un motor analítico único que permite la segmentación flexible de los datos para controlar parámetros relevantes. Esto permite evaluaciones de correlación precisas en el contexto correcto, evitando el paradigma de Simpson y proporcionando una puntuación de sesgo real “profunda” para cualquier métrica de rendimiento y en cualquier función protegida.

Así que, en general, diría que Mona es un elemento fundamental para los equipos que necesitan construir y escalar una inteligencia artificial responsable.

¿Cuál es tu visión para el futuro de la inteligencia artificial?

Esta es una gran pregunta.

Creo que es sencillo predecir que la inteligencia artificial continuará creciendo en uso e impacto en una variedad de sectores industriales y facetas de la vida de las personas. Sin embargo, es difícil tomar en serio una visión que es detallada y que intenta cubrir todos los casos de uso y las implicaciones de la inteligencia artificial en el futuro. Porque nadie realmente sabe lo suficiente para pintar esa imagen de manera creíble.

Eso dicho, lo que sabemos con certeza es que la inteligencia artificial estará en manos de más personas y servirá a más propósitos. La necesidad de gobernanza y transparencia aumentará significativamente.

La verdadera visibilidad en la inteligencia artificial y cómo funciona desempeñará dos roles principales. Primero, ayudará a instalar confianza en las personas y levantará las barreras de resistencia para una adopción más rápida. Segundo, ayudará a quien opera la inteligencia artificial a asegurarse de que no se salga de control.

Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar Mona Labs.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.