AGI
Noah Schwartz, Co-Fundador y CEO de Quorum AI – Serie de Entrevistas

Noah es un arquitecto de sistemas de inteligencia artificial. Antes de fundar Quorum AI, Noah pasó 12 años en investigación académica, primero en la Universidad del Sur de California y más recientemente en Northwestern como Presidente Asistente de Neurobiología. Su trabajo se centró en el procesamiento de información en el cerebro y ha traducido su investigación en productos de realidad aumentada, interfaces cerebro-ordenador, visión por computadora y sistemas de control de robots integrados.
Su interés en la inteligencia artificial y la robótica comenzó cuando era un niño. ¿Cómo se introdujo por primera vez a estas tecnologías?
La chispa inicial vino de las películas de ciencia ficción y el amor por la electrónica. Recuerdo ver la película Tron, a los 8 años, seguida de Electric Dreams, Short Circuit, DARYL, War Games, y otras durante los siguientes años. Aunque se presentaba a través de la ficción, la idea de la inteligencia artificial me dejó asombrado. Y aunque solo tenía 8 años, sentí una conexión inmediata y una atracción intensa hacia la inteligencia artificial que nunca ha disminuido con el tiempo.
¿Cómo evolucionaron sus pasiones por ambas?
Mi interés en la inteligencia artificial y la robótica se desarrolló en paralelo con una pasión por el cerebro. Mi padre era un maestro de biología y me enseñaba sobre el cuerpo, cómo funcionaba todo y cómo estaba conectado. Mirar la inteligencia artificial y mirar el cerebro se sentía como el mismo problema para mí, o al menos, tenían la misma pregunta final, que era, ¿cómo funciona? Me interesaba por ambas, pero no tuve mucha exposición a la inteligencia artificial o la robótica en la escuela. Por esa razón, inicialmente perseguí la inteligencia artificial en mi propio tiempo y estudié biología y psicología en la escuela.
Cuando llegué a la universidad, descubrí los libros de Procesamiento Distribuido Paralelo (PDP), que fue enorme para mí. Fueron mi primera introducción a la inteligencia artificial real, lo que luego me llevó a los clásicos como Hebb, Rosenblatt y incluso McCulloch y Pitts. Comencé a construir redes neuronales basadas en neuroanatomía y lo que aprendí de las clases de biología y psicología en la escuela. Después de graduarme, trabajé como ingeniero de redes de computadoras, construyendo redes de área amplia complejas y escribiendo software para automatizar y gestionar el flujo de tráfico en esas redes, algo así como construir grandes cerebros. El trabajo reavivó mi pasión por la inteligencia artificial y me motivó a ir a la escuela de posgrado para estudiar inteligencia artificial y neurociencia, y el resto es historia.
Antes de fundar Quorum AI, pasó 12 años en investigación académica, primero en la Universidad del Sur de California y más recientemente en Northwestern como Presidente Asistente de Neurobiología. En ese momento, su trabajo se centró en el procesamiento de información en el cerebro. ¿Podría explicarnos algo de esta investigación?
En un sentido amplio, mi investigación trataba de entender la pregunta: ¿Cómo hace el cerebro lo que hace usando solo lo que tiene disponible? Para empezar, no suscribo la idea de que el cerebro es un tipo de computadora (en el sentido de von Neumann). Lo veo como una red masiva que principalmente realiza operaciones de procesamiento de estímulos y codificación de señales. Dentro de esa red masiva, hay patrones claros de conectividad entre áreas especializadas funcionalmente. Al acercarnos, vemos que las neuronas no se preocupan por la señal que están llevando o en qué parte del cerebro están, operan según reglas muy predecibles. Así que si queremos entender la función de esas áreas especializadas, debemos hacer algunas preguntas: (1) ¿Cómo converge la entrada con otras entradas para producir una decisión a medida que viaja a través de la red? (2) ¿Cómo se forma la estructura de esas áreas especializadas como resultado de la experiencia? Y (3) ¿cómo siguen cambiando a medida que usamos nuestros cerebros y aprendemos con el tiempo? Mi investigación trató de abordar estas preguntas utilizando una mezcla de investigación experimental combinada con teoría de la información y modelado y simulación, algo que podría permitirnos construir sistemas de decisión artificiales y inteligencia artificial. En términos de neurobiología, estudié la neuroplasticidad y la microanatomía de áreas especializadas como la corteza visual.
Luego tradujo su trabajo en realidad aumentada y interfaces cerebro-ordenador. ¿Cuáles fueron algunos de los productos en los que trabajó?
Alrededor de 2008, estaba trabajando en un proyecto que ahora llamaríamos realidad aumentada, pero en ese momento era solo un sistema para rastrear y predecir movimientos oculares, y luego usar esas predicciones para actualizar algo en la pantalla. Para hacer que el sistema funcionara en tiempo real, construí un modelo biológicamente inspirado que predecía dónde miraría el espectador según sus microsacadas, movimientos oculares diminutos que ocurren justo antes de que muevas el ojo. Usando este modelo, podía predecir dónde miraría el espectador, y luego actualizar el búfer de trama en la tarjeta gráfica mientras sus ojos aún estaban en movimiento. Para cuando sus ojos llegaban a esa nueva ubicación en la pantalla, la imagen ya estaba actualizada. Esto funcionaba en una computadora de escritorio ordinaria en 2008, sin retrasos. La tecnología era bastante asombrosa, pero el proyecto no pasó a la siguiente ronda de financiamiento, así que murió.
En 2011, hice un esfuerzo más enfocado en el desarrollo de productos y construí una red neuronal que podía realizar el descubrimiento de características en datos de EEG de transmisión que medimos desde el cuero cabelludo. Esta es la función principal de la mayoría de los sistemas de interfaz cerebro-ordenador. El proyecto también fue un experimento en ¿cuán pequeña huella podía tener esto? Teníamos un headset que leía unos pocos canales de datos de EEG a 400Hz que se enviaban a través de Bluetooth a un teléfono Android para el descubrimiento de características y la clasificación, y luego se enviaban a un controlador Arduino que habíamos adaptado a un coche de control remoto de venta libre. Cuando se usaba, una persona que llevaba el headset de EEG podía conducir y dirigir el coche cambiando sus pensamientos de hacer cálculos mentales a cantar una canción. El algoritmo se ejecutaba en el teléfono y creaba una “huella dactilar” cerebral personalizada para cada usuario, lo que les permitía cambiar entre una variedad de dispositivos robóticos sin tener que volver a entrenar en cada dispositivo. El eslogan que creamos fue “Control cerebral con conectividad y reproducción”.
En 2012, extendimos el sistema para que funcionara de manera más distribuida en hardware más pequeño. Lo usamos para controlar un brazo robótico de múltiples segmentos y múltiples articulaciones, en el que cada segmento estaba controlado por un procesador independiente que ejecutaba una versión integrada de la inteligencia artificial. En lugar de usar un controlador centralizado para manipular el brazo, les permitimos a los segmentos autoorganizarse y alcanzar su objetivo de manera similar a un enjambre, de forma distribuida. En otras palabras, al igual que las hormigas forman un puente de hormigas, los segmentos del brazo cooperarían para alcanzar algún objetivo en el espacio.
Continuamos moviéndonos en la misma dirección cuando lanzamos Quorum AI, originalmente conocida como Quorum Robotics, en 2013. Nos dimos cuenta de que el sistema era increíble debido al algoritmo y la arquitectura, no al hardware, así que a finales de 2014, nos cambiamos completamente al software. Ahora, 8 años después, Quorum AI está volviendo a sus raíces robóticas al aplicar nuestro marco al Desafío de Robótica Espacial de la NASA.
Dejar su trabajo como profesor para lanzar una startup tuvo que haber sido una decisión difícil. ¿Qué lo inspiró a hacer esto?
Fue un gran salto para mí en muchos sentidos, pero una vez que surgió la oportunidad y se aclaró el camino, fue una decisión fácil. Cuando eres profesor, piensas en marcos de tiempo de varios años y trabajas en objetivos de investigación a largo plazo. Lanzar una startup es lo opuesto a eso. Sin embargo, una cosa que la vida académica y la vida de startup tienen en común es que ambas requieren que aprendas y resuelvas problemas constantemente. En una startup, eso podría significar intentar reinventar una solución para reducir el riesgo de desarrollo de productos o tal vez estudiar un nuevo vertical que podría beneficiarse de nuestra tecnología. Trabajar en inteligencia artificial es lo más cercano a una “vocación” que he sentido, así que a pesar de todos los desafíos y los altibajos, me siento inmensamente afortunado de estar haciendo el trabajo que hago.
Desde entonces, ha desarrollado Quorum AI, que desarrolla inteligencia artificial distribuida en tiempo real para todos los dispositivos y plataformas. ¿Podría explicar qué hace exactamente esta plataforma de inteligencia artificial?
La plataforma se llama Entorno para Agentes Virtuales (EVA), y permite a los usuarios construir, entrenar y desplegar modelos utilizando nuestro Motor de Inteligencia Engram. Engram es un envoltorio flexible y portable que construimos alrededor de nuestros algoritmos de aprendizaje no supervisado. Los algoritmos son tan eficientes que pueden aprender en tiempo real, mientras el modelo genera predicciones. Debido a que los algoritmos son agnósticos de la tarea, no hay entrada o salida explícita al modelo, por lo que las predicciones se pueden hacer de manera bayesiana para cualquier dimensión sin volver a entrenar y sin sufrir de olvido catastrófico. Los modelos también son transparentes y descomponibles, lo que significa que se pueden examinar y descomponer en dimensiones individuales sin perder lo que se ha aprendido.
Una vez construidos, los modelos se pueden desplegar a través de EVA en cualquier tipo de plataforma, desde hardware integrado personalizado hasta la nube. EVA (y el software de host integrable) también contienen varias herramientas para extender la funcionalidad de cada modelo. Algunos ejemplos rápidos: los modelos se pueden compartir entre sistemas a través de un sistema de publicación/suscripción, lo que permite a los sistemas distribuidos lograr el aprendizaje federado en el tiempo y el espacio. Los modelos también se pueden desplegar como agentes autónomos para realizar tareas arbitrarias, y debido a que el modelo es agnóstico de la tarea, la tarea se puede cambiar durante la ejecución sin volver a entrenar. Cada agente individual se puede extender con un EVA “virtual” privado, lo que permite al agente simular modelos de otros agentes de manera libre de escala. Finalmente, hemos creado algunos envoltorios para sistemas de aprendizaje profundo y aprendizaje por refuerzo (basados en Keras) para permitir que estos modelos operen en la plataforma, en concierto con sistemas basados en Engram más flexibles.
Anteriormente, ha descrito los algoritmos de Quorum AI como “poesía matemática”. ¿Qué quiso decir con esto?
Cuando estás construyendo un modelo, ya sea que estés modelando el cerebro o modelando datos de ventas para tu empresa, comienzas tomando un inventario de tus datos, y luego intentas probar clases de modelos conocidos para tratar de aproximar el sistema. En esencia, estás creando bocetos burdos del sistema para ver qué se ve mejor. No esperas que las cosas encajen muy bien con los datos, y hay algo de prueba y error mientras pruebas diferentes hipótesis sobre cómo funciona el sistema, pero con un poco de habilidad, puedes capturar los datos bastante bien.
Mientras modelaba la neuroplasticidad en el cerebro, comencé con el enfoque habitual de mapear todas las vías moleculares, los estados de transición y la dinámica que pensé que importaría. Pero encontré que cuando reducí el sistema a sus componentes más básicos y organicé esos componentes de una manera particular, el modelo se volvió más y más preciso hasta que encajó casi perfectamente con los datos. Fue como si cada operador y variable en las ecuaciones fueran exactamente lo que necesitaban ser, no había nada extra, y todo era esencial para encajar con los datos.
Cuando conecté el modelo a simulaciones más grandes, como el desarrollo del sistema visual o el reconocimiento de caras, por ejemplo, pudo formar patrones de conectividad complicados que coincidían con lo que vemos en el cerebro. Debido a que el modelo era matemático, esos patrones cerebrales podían entenderse a través del análisis matemático, lo que dio nuevas ideas sobre lo que el cerebro está aprendiendo. Desde entonces, hemos resuelto y simplificado las ecuaciones diferenciales que componen el modelo, mejorando la eficiencia computacional en varios órdenes de magnitud. Puede que no sea poesía real, pero ¡seguro que se sentía como tal!
La plataforma de herramientas de Quorum AI permite que los dispositivos se conecten entre sí para aprender y compartir datos sin necesidad de comunicarse a través de servidores basados en la nube. ¿Cuáles son las ventajas de hacerlo de esta manera en comparación con el uso de la nube?
Les damos a los usuarios la opción de poner su inteligencia artificial en cualquier lugar que deseen, sin comprometer la funcionalidad de la inteligencia artificial. El status quo en el desarrollo de inteligencia artificial es que las empresas generalmente se ven obligadas a comprometer la seguridad, la privacidad o la funcionalidad porque su única opción es utilizar servicios de inteligencia artificial basados en la nube. Si las empresas intentan construir su propia inteligencia artificial en casa, a menudo requiere mucho dinero y tiempo, y el ROI rara vez vale el riesgo. Si las empresas quieren desplegar inteligencia artificial en dispositivos que no están conectados a la nube, el proyecto rápidamente se vuelve imposible. Como resultado, la adopción de la inteligencia artificial se convierte en una fantasía.
Nuestra plataforma hace que la inteligencia artificial sea accesible y asequible, brindándoles a las empresas una forma de explorar el desarrollo y la adopción de la inteligencia artificial sin el sobrecoste técnico o financiero. Y además, nuestra plataforma les permite a los usuarios ir desde el desarrollo hasta la implementación en un solo paso sin problemas.
Nuestra plataforma también se integra y extiende la vida útil de otros modelos “heredados” como el aprendizaje profundo o el aprendizaje por refuerzo, ayudando a las empresas a reutilizar y integrar sistemas existentes en aplicaciones más nuevas. De manera similar, debido a que nuestros algoritmos y arquitecturas son únicos, nuestros modelos no son cajas negras, por lo que cualquier cosa que el sistema aprenda se puede explorar e interpretar por humanos, y luego extender a otras áreas del negocio.
Se cree que la Inteligencia Artificial Distribuida (DAI) podría liderar el camino hacia la Inteligencia Artificial General (AGI). ¿Suscritbe a esta teoría?
Sí, y no solo porque ese es el camino que hemos trazado para nosotros mismos. Cuando miras el cerebro, no es un sistema monolítico. Está compuesto por sistemas distribuidos separados que cada uno se especializa en un rango estrecho de funciones cerebrales. Podemos no saber qué está haciendo un sistema en particular, pero sabemos que sus decisiones dependen en gran medida de la tipo de información que está recibiendo y cómo cambia esa información con el tiempo. (Es por eso que los temas de neurociencia como el conectoma son tan populares).
En mi opinión, si queremos construir inteligencia artificial que sea flexible y que se comporte y actúe como el cerebro, entonces tiene sentido considerar arquitecturas distribuidas como las que vemos en el cerebro. Podría argumentarse que las arquitecturas de aprendizaje profundo, como las redes de capas múltiples o las CNN, se pueden encontrar en el cerebro, y eso es cierto, pero esas arquitecturas se basan en lo que sabíamos sobre el cerebro hace 50 años.
La alternativa a DAI es seguir iterando sobre arquitecturas monolíticas e inflexibles que están estrechamente acopladas a un solo espacio de decisión, como las que vemos en el aprendizaje profundo o el aprendizaje por refuerzo (o cualquier método de aprendizaje supervisado, en realidad). Sugiero que estas limitaciones no son solo una cuestión de ajuste de parámetros o agregar capas o acondicionamiento de datos, estos problemas son fundamentales para el aprendizaje profundo y el aprendizaje por refuerzo, al menos como los definimos hoy, por lo que se requieren nuevos enfoques si vamos a seguir innovando y construyendo la inteligencia artificial del mañana.
¿Cree que lograr la AGI utilizando DAI es más probable que los métodos de aprendizaje por refuerzo y/o aprendizaje profundo que actualmente están siendo perseguidos por empresas como OpenAI y DeepMind?
Sí, aunque desde lo que están publicando, sospecho que OpenAI y DeepMind están utilizando arquitecturas más distribuidas de lo que dejan entrever. Estamos empezando a escuchar más sobre desafíos de sistemas múltiples como el aprendizaje de transferencia o el aprendizaje federado/distribuido, y coincidentemente, sobre cómo los enfoques de aprendizaje profundo y aprendizaje por refuerzo no funcionarán para estos desafíos. También estamos empezando a escuchar a pioneros como Yoshua Bengio sobre cómo las arquitecturas inspiradas en la biología podrían tender un puente. He estado trabajando en inteligencia artificial inspirada en la biología durante casi 20 años, así que me siento muy bien con lo que hemos aprendido en Quorum AI y cómo lo estamos utilizando para construir lo que creemos que es la próxima generación de inteligencia artificial que superará estas limitaciones.
¿Hay algo más que le gustaría compartir sobre Quorum AI?
Estaremos previendo nuestra nueva plataforma para inteligencia artificial distribuida y basada en agentes en la Conferencia de Aprendizaje de Máquina Federada y Distribuida en junio de 2020. Durante la charla, planeo presentar algunos datos recientes sobre varios temas, incluido el análisis de sentimiento como un puente hacia el logro de la inteligencia artificial empática.
Me gustaría dar un agradecimiento especial a Noah por estas respuestas increíbles, y recomendaría que visiten Quorum para aprender más.












