Connect with us

Mike Clifton, Co-CEO en Alorica – Serie de entrevistas

Entrevistas

Mike Clifton, Co-CEO en Alorica – Serie de entrevistas

mm

Mike Clifton es Co-CEO de Alorica, un líder global en experiencias de cliente digitalmente potenciadas (CX). En este rol, Mike supervisa la estrategia de transformación digital de la empresa, incluidos sus productos de IA galardonados, para ofrecer una experiencia de cliente óptima en todos los canales (voz, chat, web, etc.) y en diversas industrias en nombre de marcas del Fortune 500. Con una sólida experiencia y conocimiento en innovación digital, IA y tecnología empresarial, Mike tiene un historial comprobado de impulsar el crecimiento rentable integrando soluciones tecnológicas escalables para satisfacer las demandas del mercado en constante evolución.

Alorica es un líder global en experiencia de cliente y externalización de procesos empresariales, brindando soluciones tecnológicas y humanas para industrias como banca, atención médica, comercio minorista y telecomunicaciones. Con más de 100,000 empleados en 17 países, la empresa gestiona miles de millones de interacciones anuales en más de 75 idiomas, ofreciendo servicios como centros de contacto, análisis, soluciones de IA, moderación de contenido y operaciones de back-office, todos enfocados en impulsar resultados medibles para los clientes.

La industria se está moviendo hacia la ampliación sobre la automatización, ¿cómo refleja la estrategia de Alorica este modelo híbrido?

La estrategia de Alorica refleja el modelo híbrido de ampliación sobre la automatización centrándose en mejorar el rendimiento de los agentes humanos con herramientas de IA, en lugar de reemplazarlos. Este enfoque garantiza que los humanos permanezcan en el núcleo de las interacciones con los clientes, apoyados por tecnologías avanzadas para mejorar la eficiencia y la eficacia.

Por ejemplo, Alorica ha lanzado varias soluciones avanzadas como evoAI, Knowledge IQ, Digital Trust & Safety Model y CX2GO®. Estas herramientas están diseñadas para amplificar el rendimiento de los agentes humanos proporcionando interacciones en tiempo real y conscientes del contexto que mejoran la gestión del conocimiento y garantizan la confianza y seguridad digitales.

Al integrar herramientas de IA que ofrecen interacciones conscientes del contexto y emocionalmente inteligentes en varios idiomas con tiempos de respuesta de menos de un segundo, Alorica permite a los agentes brindar apoyo personalizado y eficiente a los clientes. Esta capacidad de respuesta en tiempo real se traduce en mejores resultados para los clientes.

En general, la estrategia de Alorica enfatiza la importancia de los agentes humanos mientras aprovecha la IA para mejorar sus capacidades, reflejando el cambio de la industria hacia la ampliación sobre la automatización.

¿Podría compartir ejemplos específicos en los que la IA ha amplificado el rendimiento de los agentes humanos en lugar de reemplazarlos?

Hay muchos ejemplos de amplificación que hemos aprovechado al ofrecer nuestros servicios. Uno es la capacidad de los agentes para interactuar con un motor de conocimiento que escucha el habla en tiempo real y la traduce en un motor de respuesta automática que solicita asistencia; esta es una herramienta poderosa y preventiva que hemos utilizado en muchas soluciones. Otro ejemplo es el uso de motores de IA conversacional para mejorar nuestra capacidad para capacitar a los agentes en los escenarios de cliente más difíciles. Al ejecutar simulaciones de IA de interacciones en tiempo real, reducimos el estrés, y los modelos aprenden continuamente, actualizando a los agentes sobre sentimiento y empatía a medida que ganan más experiencia.

¿Cómo está rastreando el impacto en el rendimiento de estas herramientas de IA, por ejemplo, en la resolución de contacto inicial, el tiempo de manejo o la eficiencia del agente?

El seguimiento de las herramientas de IA en uso aumentado cae directamente en las métricas asignadas al agente como si no existieran herramientas. La diferencia está en la capacidad de manejar más llamadas con un rendimiento de satisfacción más alto y la confianza para predecir mejores estrategias de fuerza laboral cuando se tienen datos sólidos de los modelos.

Ha lanzado varias soluciones avanzadas este año, evoAI, Knowledge IQ, Digital Trust & Safety Model y CX2GO®. ¿Cuál considera que tiene el efecto de “superpoder” más inmediato para los agentes y por qué?

Nuestro uso interno de evoAI da a los agentes la capacidad de aprovechar llamadas de prueba para capacitarse con un mayor grado de conciencia situacional, lo que tiene el mayor impacto. Esto va seguido de Knowledge IQ, que aumenta la capacidad de un agente para encontrar la respuesta correcta. Estos dos han sido un juego cambiator para nuestros empleados, cambiando completamente cómo nuestros agentes pueden abordar las necesidades de los clientes de manera rápida y precisa.

Desde una perspectiva de aprendizaje automático, ¿cómo se entrenan sus modelos para mantener la precisión y la adaptabilidad a medida que evolucionan las necesidades de los clientes, el lenguaje y las condiciones del mercado?

Para mantener la precisión y la adaptabilidad ante la evolución de las necesidades de los clientes, el lenguaje y las condiciones del mercado, nuestros modelos de aprendizaje automático pasan por un entrenamiento y refinamiento continuos.

Aquí hay algunas estrategias clave que empleamos:

  • Aprendizaje Continuo: Nuestros modelos están diseñados para aprender de nuevos datos continuamente. Esto implica actualizar regularmente los conjuntos de datos de entrenamiento con interacciones recientes, comentarios y tendencias del mercado. Al incorporar la información más reciente, nuestros modelos pueden adaptarse a las preferencias y condiciones del mercado en constante evolución.
  • Fuentes de Datos Diversas: Utilizamos una amplia gama de fuentes de datos para entrenar nuestros modelos, incluyendo interacciones de los clientes, redes sociales, informes del mercado y más. Esta diversidad garantiza que nuestros modelos estén expuestos a varios escenarios y matices lingüísticos, mejorando su capacidad para comprender y responder con precisión.
  • Bucles de Retroalimentación: Implementamos bucles de retroalimentación sólidos donde las interacciones de los clientes y las entradas de los agentes se utilizan para afinar los modelos. Esta retroalimentación en tiempo real ayuda a identificar y corregir inexactitudes, manteniendo a los modelos relevantes y efectivos.
  • Capacidades Multilingües: Nuestros modelos están entrenados en conjuntos de datos multilingües para manejar interacciones en varios idiomas. Esto es crucial para proporcionar respuestas precisas, localizadas y conscientes del contexto a una base de clientes global.
  • Auditorías y Evaluaciones Regulares: Realizamos auditorías y evaluaciones regulares de nuestros modelos para evaluar su rendimiento. Esto incluye probar los modelos contra conjuntos de datos de referencia y escenarios del mundo real para garantizar que cumplan con los estándares de precisión y adaptabilidad.
  • Enfoque de Humanos en el Ciclo: Mantenemos un enfoque de humanos en el ciclo donde los agentes humanos colaboran con la IA para gestionar consultas complejas. Este modelo híbrido garantiza que la tecnología aprenda de la experiencia humana y mejore su rendimiento con el tiempo.
  • Aprovechando Modelos de Lenguaje Más Pequeños: El entrenamiento de modelos más pequeños y verticales (a través de un enfoque híbrido o de conjunto) junto con LLM comerciales disponibles permite eficiencias en cómputo, búsqueda y tiempo de respuesta, mientras que acorta los ciclos de prueba de sesgo y equidad.

Estas estrategias permiten que nuestros modelos de aprendizaje automático permanezcan precisos, adaptables y capaces de ofrecer experiencias de cliente de alta calidad en entornos dinámicos.

evoAI ofrece interacción consciente del contexto y emocionalmente inteligente en más de 120 idiomas con tiempos de respuesta de menos de un segundo. ¿Cómo se traduce esta capacidad de respuesta en tiempo real en apoyo al agente y resultados del cliente?

evoAI proporciona un mejor apoyo al agente y mejores resultados del cliente de varias maneras:

  • Rendimiento: Las interacciones conscientes del contexto ayudan a encontrar y ordenar vastas cantidades de información rápidamente para las consultas de los agentes.
  • Personalización: Ofrece adaptabilidad multilingüe, dando la libertad de seleccionar los idiomas de entrada y salida en tiempo real para cualquier prompt. Por ejemplo, un cliente que solicita en inglés una respuesta en francés para que un padre mayor que escucha pueda entender.
  • Eficiencia: Reduce los tiempos de respuesta y a menudo elimina la necesidad de que un humano responda.
  • Inteligencia Emocional: Permite a los agentes ajustar las opciones para los llamantes según la conciencia situacional (tono, estado de ánimo y elección de palabras), permitiendo una desescalada más rápida.

Con la IA agente ganando tracción, ¿cómo gestiona los riesgos como alucinaciones, sesgo o pérdida de control mientras garantiza que los agentes permanezcan como los tomadores de decisiones?

En Alorica, creemos que la arquitectura correcta detrás de la tecnología hace toda la diferencia. Por eso, gestionar los riesgos de la IA agente requiere un marco de gobernanza multilayer que hemos integrado en todas las operaciones de nuestra IA.

Aquí está cómo abordamos cada riesgo crítico:

  • Mitigación de Alucinaciones: Empleamos un sistema de verificación de tres niveles para minimizar las alucinaciones. Primero, nuestros modelos utilizan generación aumentada de recuperación (RAG) que basa las respuestas en bases de conocimiento verificadas y fuentes de datos en tiempo real, reduciendo la probabilidad de información fabricada en un 85%. Segundo, implementamos puntuaciones de confianza en todas las sugerencias generadas por la IA, donde las respuestas por debajo de un umbral de confianza del 80% desencadenan una revisión humana automática. Tercero, nuestros modelos están limitados a operar dentro de espacios de parámetros definidos específicos para cada regla de negocio y dominio de hechos del cliente; la IA no puede generar información sobre productos, políticas o procedimientos que no estén explícitamente documentados en los datos de entrenamiento.
  • Detección y Prevención de Sesgo: Nuestra estrategia de gestión de sesgo opera en todo el ciclo de vida de la IA. Durante el entrenamiento del modelo, utilizamos técnicas de desviación adversa y algoritmos de aprendizaje conscientes de la equidad que contrarrestan activamente los sesgos históricos en los datos de entrenamiento. Mantenemos métricas de paridad demográfica en categorías protegidas y realizamos auditorías mensuales utilizando herramientas como indicadores de equidad y evaluaciones de impacto desigual. Nuestros modelos pasan por pruebas con datos sintéticos diseñados para revelar sesgos en diferentes grupos demográficos, idiomas y contextos culturales. Cuando se detecta sesgo, empleamos un entrenamiento dirigido en conjuntos de datos equilibrados y ajustamos los pesos del modelo para garantizar resultados equitativos. Importante, mantenemos informes de transparencia que rastrean las métricas de sesgo con el tiempo, permitiendo a los clientes ver exactamente cómo nuestros modelos se desempeñan en diferentes poblaciones.
  • Mantenimiento del Control Humano: Los agentes humanos permanecen como los tomadores de decisiones finales a través de nuestra arquitectura “IA como Asesor”. El sistema de IA proporciona recomendaciones con características de explicabilidad; los agentes pueden ver por qué la IA sugirió una acción particular, qué factores consideró y qué alternativas existen. Hemos implementado paradas duras donde la IA no puede ejecutar acciones autónomas: transacciones financieras, modificaciones de contratos, compromisos legales o asesoramiento de salud siempre requieren autorización humana. Nuestros protocolos de escalación enrutan automáticamente escenarios complejos o de alto riesgo a agentes senior o supervisores cuando la IA detecta situaciones fuera de sus límites de competencia.
  • Monitoreo Continuo y Interruptores de Apagado: Cada interacción de IA se registra y se monitorea a través de nuestro Observatorio de Rendimiento de Modelo, que rastrea la desviación de comportamientos esperados en tiempo real. Mantenemos capacidades de reversión instantánea y “interruptores de apagado” en múltiples niveles; componentes de modelo individuales, modelos completos o características de IA del sistema pueden deshabilitarse en segundos si se detecta un comportamiento anómalo. Nuestros algoritmos de detección de deriva continúan comparando las salidas del modelo con decisiones de expertos humanos, señalizando divergencias para una revisión inmediata.
  • Validación de Humanos en el Ciclo: Hemos diseñado bucles de retroalimentación donde los agentes califican las sugerencias de la IA después de cada interacción, creando un sistema de aprendizaje continuo que se adapta a la experiencia humana. Nuestros agentes de mejor desempeño participan en sesiones de calibración semanales donde revisan casos límite y ayudan a refinar los límites de decisión de la IA. Esto crea un modelo de inteligencia colaborativa donde el juicio humano continúa dando forma y restringiendo el comportamiento de la IA.
  • Rastreo de Responsabilidad y Auditorías: Cada decisión influenciada por la IA mantiene un registro de auditoría completo que muestra la recomendación de la IA, el nivel de confianza, las fuentes de datos utilizadas y la decisión final del agente humano. Esto garantiza la responsabilidad y nos permite mejorar continuamente nuestros modelos basados en los resultados. Auditorías regulares de terceros validan nuestras prácticas de gestión de riesgos contra los estándares de la industria y los requisitos regulatorios.

Al implementar estas salvaguardas comprehensivas, garantizamos que nuestros sistemas de IA agente aumenten las capacidades humanas mientras mantienen la agencia humana, los estándares éticos y el control operativo.

¿Cómo aborda el entrenamiento de modelos y el aprendizaje continuo para garantizar que sus sistemas de IA permanezcan alineados con los requisitos de cumplimiento y las nuances de la opinión del cliente?

El enfoque de Alorica para el entrenamiento de modelos y el aprendizaje continuo en Alorica IQ se basa en un marco de MLOps robusto que equilibra los requisitos de cumplimiento con la optimización de la experiencia del cliente.

Hemos implementado una arquitectura de reentrenamiento multilayer que opera en diferentes ritmos. Nuestros modelos críticos para el cumplimiento pasan por detección de deriva diaria y auditorías de rendimiento semanales, con desencadenadores automatizados para el reentrenamiento inmediato cuando ocurren cambios regulatorios. Para los modelos de opinión del cliente, aprovechamos bucles de retroalimentación en tiempo real que capturan correcciones de los agentes y puntajes de satisfacción del cliente, alimentando esto en nuestra canalización de entrenamiento cada 72 horas.

Nuestra Capa de Inteligencia de Cumplimiento actúa como un sistema de guardrail, validando automáticamente las salidas del modelo contra marcos regulatorios específicos para cada geografía; desde GDPR en Europa hasta CCPA en California. Esta capa se actualiza continuamente a través de nuestra asociación con proveedores de tecnología legal y fuentes regulatorias, garantizando que nuestros sistemas de IA permanezcan cumpliendo sin intervención manual.

Para la nuance de la opinión, hemos desarrollado lo que llamamos “incrustaciones de contexto cultural” dentro de Alorica IQ, el incubador de innovación de la empresa. Estos son modelos regionales afinados que entienden no solo el lenguaje sino los patrones de comunicación cultural. Por ejemplo, nuestros modelos reconocen que los niveles de directividad varían significativamente entre interacciones de clientes alemanes y japoneses, y ajustan su puntuación de sentimiento en consecuencia.

Mantenemos registros de modelos versionados con capacidades de reversión completa, lo que nos permite revertir instantáneamente a versiones anteriores si el nuevo entrenamiento introduce comportamientos inesperados. Nuestro marco de prueba A/B se ejecuta continuamente, comparando nuevas versiones del modelo con líneas de base de producción en miles de interacciones antes del despliegue completo.

Lo más importante, hemos establecido un Protocolo de Integración de Retroalimentación Humana donde nuestros agentes de mejor desempeño revisan regularmente casos límite y proporcionan retroalimentación correctiva, creando un ciclo virtuoso donde la experiencia humana continúa mejorando nuestras capacidades de IA. Este enfoque ha reducido las violaciones de cumplimiento en un 94% mientras mejora la precisión de la detección de sentimiento al 92% en todos los idiomas admitidos.

Con una expansión internacional rápida, especialmente en mercados como la India, Egipto y EMEA, ¿cómo adapta su enfoque de IA-humano a las necesidades lingüísticas y culturales diversas?

Creemos que la localización no es solo cuestión de hablar el idioma; es reflejar la cultura.

Nuestras plataformas de IA como evoAI y ReVoLT están afinadas para capturar el tono, la nuance y el contexto en cientos de idiomas y dialectos, para que las interacciones se sientan familiares y auténticas. Pero no nos detenemos en la tecnología. Contratamos talento de dentro de cada región, capacitamos a los equipos en torno a expectativas culturales y adaptamos nuestro diseño de servicio para reflejar normas locales. Este modelo híbrido garantiza que cada interacción se sienta como si hubiera sido construida para ese mercado.

En la India, donde apoyamos 75 idiomas oficiales más numerosos dialectos, hemos desplegado nuestra Arquitectura de Malla Lingüística que no solo traduce sino que mantiene el contexto en escenarios de cambio de código; donde los clientes combinan naturalmente hindi, inglés y lenguas regionales en la misma conversación. Nuestros modelos están entrenados en patrones de conversación reales de ciudades de nivel 2 y 3, no solo áreas metropolitanas, garantizando que capturemos el espectro completo de estilos de comunicación.

Para nuestras operaciones en Egipto que sirven a la región MENA más amplia, hemos desarrollado modelos específicos de dialecto árabe que distinguen entre árabe egipcio, árabe del Golfo y árabe levantino, con un manejo especializado para registros formales (Fusha) versus coloquiales (Ammiya). Nuestra IA entiende cuándo un cliente cambia de árabe formal a informal como una señal de emoción, desencadenando la capacitación del agente en tiempo real.

En los mercados de EMEA, hemos implementado lo que llamamos “Diseño de IA de Primer Cumplimiento”. Cada despliegue de país incluye módulos de cumplimiento preconfigurados; desde los estrictos requisitos de localización de datos de Alemania hasta las leyes de protección del lenguaje de Francia que requieren interfaces en francés primero. Nuestros modelos están entrenados no solo en lenguaje sino en etiqueta empresarial local; por ejemplo, nuestro despliegue alemán enfatiza la precisión y la documentación detallada, mientras que nuestro modelo italiano permite más flexibilidad conversacional.

El soporte técnico es nuestro Marco de Aprendizaje Federado dentro de Alorica IQ, donde los modelos locales aprenden de datos regionales sin que los datos salgan del país, garantizando la soberanía de los datos mientras se benefician de mejoras globales del modelo. Mantenemos clústeres de GPU regionales para garantizar una latencia de menos de 100 ms para la asistencia del agente en tiempo real.

Nuestro Equipo de Inteligencia Cultural, que comprende expertos lingüísticos y científicos del comportamiento de cada región, valida continuamente las salidas de nuestra IA. Han ayudado a identificar más de 3,000 escenarios específicos de la cultura que requieren un manejo especial; desde observancias religiosas que afectan la disponibilidad del servicio hasta preferencias de pago locales que impactan los flujos de conversación.

Este enfoque ha producido resultados impresionantes: nuestras operaciones en la India muestran puntajes de satisfacción del cliente un 40% más altos cuando se utilizan modelos de IA adaptados culturalmente en comparación con modelos genéricos, y nuestros despliegues en EMEA han logrado una tasa de resolución de contacto inicial del 98% para consultas específicas del idioma.

¿Cómo ayuda la capacidad de evoAI para reconocer y adaptarse a dialectos regionales y señales de emoción a impulsar la adopción en nuevos mercados?

La adopción se acelera cuando la gente siente que la tecnología “los entiende”. evoAI va más allá de la traducción palabra por palabra al entender el argot, el acento y sogar el tono emocional en tiempo real.

La capacidad de evoAI para reconocer y adaptarse a dialectos y señales de emoción se ha convertido en nuestro principal diferenciador competitivo en la penetración de nuevos mercados, abordando directamente la brecha de confianza que a menudo inhibe la adopción de la IA en mercados emergentes.

Desde una perspectiva técnica, evoAI emplea nuestro Modelo de Fusión Acústico-Lingüístico, que procesa simultáneamente patrones fonéticos, características prosódicas y contenido semántico. Este enfoque tri-modal nos permite detectar estados emocionales sutiles expresados de manera diferente en culturas diversas. Por ejemplo, en mercados japoneses, podemos detectar “honne” versus “tatemae” (sentimientos verdaderos versus fachada pública) a través de microvariaciones en el tono y el ritmo de habla, mientras que en mercados del Medio Oriente, reconocemos dinámicas de honor y vergüenza a través de construcciones de frases y patrones de énfasis específicos.

Nuestro reconocimiento de dialectos va más allá de la simple detección de acentos. evoAI mantiene mapas de dialectos dinámicos que entienden indicadores socioeconómicos incrustados en los patrones de habla. En la India, por ejemplo, el sistema reconoce no solo si alguien habla tamil o telugu, sino que también identifica el trasfondo educativo y la procedencia urbana versus rural, permitiendo a los agentes calibrar su estilo de comunicación adecuadamente. Esta comprensión granular ha demostrado aumentar los puntajes de confianza del cliente en un 67% en programas piloto.

La capa de inteligencia emocional utiliza nuestra Tecnología de Gráficos de Emoción Contextual, que mapea trayectorias emocionales a lo largo de conversaciones en lugar de solo sentimiento en un momento dado. Esto permite a evoAI predecir la escalada emocional 30 segundos antes de que ocurra con una precisión del 89%, dando a los agentes un tiempo crucial para intervenir con técnicas de desescalada específicas de esa cultura.

Para la adopción de nuevos mercados, nuestro laboratorio de acción tiene una estrategia de “Localización Progresiva” a través de Alorica IQ. Comenzamos con un modelo base entrenado en el contenido de los medios, las redes sociales y el discurso público del mercado objetivo. Dentro de los primeros 30 días de despliegue, evoAI se adapta a los patrones de los clientes locales a través de nuestra Canalización de Aprendizaje Activo, que prioriza el aprendizaje de conversaciones con la mayor variación emocional. Para el día 90, nuestros modelos deberían alcanzar una precisión del 95% en el reconocimiento de dialectos y una detección del estado emocional del 88%.

El impacto comercial sería sustancial. Nuestros estudios muestran que un despliegue en Egipto, con la capacidad de evoAI para reconocer y responder a dialectos cairota versus alejandrino, combinada con patrones de cortesía cultural adecuados, reduciría el tiempo de penetración de mercado típico de 6 meses a solo 8 semanas. Los costos de adquisición de clientes podrían disminuir hasta un 45% a medida que aumentan las recomendaciones de boca a boca debido a las interacciones naturales y culturalmente conscientes.

La capacidad de evoAI para adaptarse a señales de emoción también podría abrir categorías de servicio completamente nuevas. Por ejemplo, hemos hipotetizado que un servicio de apoyo a la salud mental impulsado por evoAI podría ayudar a reconocer marcadores tempranos de depresión y ansiedad basados en patrones de expresión natural, permitiendo una intervención oportuna y la escalada a nuestro equipo de bienestar y salud; garantizando que el bienestar del agente siempre sea una prioridad.

Esta ventaja tecnológica se traduce directamente en la adopción del mercado: las regiones que utilizan las capacidades completas de dialecto y emoción de evoAI muestran tasas de adopción 3,2 veces más rápidas en comparación con despliegues de IA estándar, con puntajes de satisfacción del agente mejorando en un 78% a medida que se sienten más seguros al manejar interacciones culturalmente complejas.

Mirando más allá de 2025, ¿qué vislumbra como el próximo frente para la IA centrada en humanos en la experiencia del cliente?

El próximo frente es la convergencia de la IA conversacional, la IA agente y las redes neuronales para orquestar un nivel de resultados no contemplados anteriormente. Esto rediseñará la forma en que hacemos negocios. La orquestación ya no es de humano a máquina; es de máquina a máquinas o de máquina a miles de máquinas simultáneamente.

Imagínese que está planeando un viaje de negocios: visitar un sitio web para seleccionar una aerolínea, luego reservar un hotel, organizar el transporte, programar la cena y planificar el regreso. Esto es un ejemplo simple de dar una sola indicación y dejar que los bots integrados, impulsados por una red neuronal, procesen todas las opciones disponibles y construyan una respuesta de múltiple opción para que usted seleccione. En este modelo, la orquestación es neuronal, la IA agente impulsa a los bots y la conversación es la respuesta.

Gracias por la gran entrevista, los lectores que deseen aprender más pueden visitar Alorica.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.