Entrevistas
Mark Hughes, Co-Fundador y CEO en Solidroad – Serie de Entrevistas

Mark Hughes, Co-Fundador y CEO en Solidroad, es un emprendedor repetido y líder de lanzamiento al mercado que ha construido su carrera en la intersección de las ventas, la experiencia del cliente y la tecnología. Anteriormente, fundó Gradguide, una plataforma de carreras y contratación que recaudó 2 millones de euros y fue adquirida posteriormente, y ocupó puestos comerciales senior en Chargify, donde lideró las operaciones de EMEA después de su fusión con Maxio. Al comienzo de su carrera, desarrolló una profunda experiencia en ventas de alta velocidad y empresariales en Intercom, gestionando ciclos de tratos complejos y ayudando a escalar los equipos de ingresos. Hoy en día, lidera Solidroad desde San Francisco, aplicando esa experiencia para replantear cómo las empresas evalúan y mejoran las interacciones con los clientes utilizando la IA, centrándose en elevar el nivel de calidad en ambos sistemas de soporte humanos y automatizados.
Solidroad es una plataforma de aseguramiento de la calidad y capacitación impulsada por IA diseñada para equipos modernos de experiencia del cliente, construida para analizar y mejorar cada interacción con el cliente a gran escala. La plataforma ingiere conversaciones en varios canales, evalúa el rendimiento en relación con los estándares de la empresa y genera simulaciones de capacitación personalizadas para optimizar continuamente tanto a los agentes humanos como a los sistemas de IA. En lugar de reemplazar a los equipos de soporte al cliente, Solidroad se centra en mejorarlos, convirtiendo cada interacción en un bucle de retroalimentación que mejora los resultados como la calidad de la respuesta, la eficiencia y la satisfacción del cliente. La empresa se posiciona como infraestructura para equipos de CX de alto rendimiento, ayudando a las organizaciones a ofrecer experiencias consistentes y de alta calidad sin aumentar los costos operativos.
La mayoría de las empresas todavía dependen de revisar una pequeña muestra de interacciones con los clientes para evaluar el rendimiento. ¿Qué lo convenció de que este enfoque está fundamentalmente roto, y cómo llevó eso a construir el enfoque de Solidroad para monitorear, puntuar y mejorar continuamente tanto a los agentes humanos como a los de IA?
Patrick y yo habíamos pasado años alrededor de equipos de soporte al cliente antes de iniciar Solidroad, y un problema siempre destacaba: las empresas tenían cientos de miles de conversaciones con los clientes, pero si les preguntabas cómo estaban yendo esas conversaciones, realmente no lo sabían. Y lo que sabían se basaba en una muestra tan pequeña de las interacciones que no era precisa.
Eso ya era una base inestable cuando los humanos manejaban cada ticket. Ahora, con la IA entrando en escena, las apuestas han cambiado. Un patrón malo podría reproducirse en miles de conversaciones simultáneamente y pasar desapercibido porque la mayoría de los equipos solo revisan el 1-2% de las interacciones.
Vimos que esto sucedía en empresas una y otra vez, y estaban perdiendo clientes por eso, así que decidimos crear una solución. Reconocimos que, en última instancia, se trataba de un problema de infraestructura. Las empresas simplemente no tenían los sistemas necesarios para comprender realmente el rendimiento de sus agentes de soporte al cliente.
Solidroad se construyó para abordar ese punto ciego. Les damos a las empresas las herramientas para ver lo que realmente está sucediendo a gran escala y asegurarse de que cada conversación —humana, de IA o ambas— brinde valor.
Solidroad ha sido descrito como un “simulador de vuelo” para equipos que enfrentan al cliente. ¿Puede explicarnos cómo su IA simula realmente las interacciones con los clientes, y qué hace que esas simulaciones sean efectivas para la capacitación a gran escala?
La analogía del simulador de vuelo funciona porque la idea central es la misma. No quieres que la primera experiencia de alguien manejando una situación difícil suceda frente a un cliente real.
Lo que hace que nuestras simulaciones sean efectivas es que están basadas en lo que realmente está sucediendo en las conversaciones reales de esa empresa. Cuando un agente se equivoca en una interacción en vivo, el sistema genera una simulación dirigida alrededor de exactamente ese tipo de escenario para que puedan practicarlo antes de que vuelva a suceder. No es contenido de capacitación genérico.
El bucle de retroalimentación es lo que impulsa el aprendizaje. Los agentes pasan por un escenario, reciben orientación específica sobre lo que funcionó y lo que no, e intentan nuevamente. Los errores ocurren en un entorno seguro, y el aprendizaje se mantiene porque está vinculado a situaciones reales en lugar de ejercicios abstractos de aula.
Su plataforma no solo capacita a los agentes, sino que también puntuación las interacciones en vivo contra pautas personalizadas. ¿Cómo diseñan estos sistemas de puntuación para reflejar resultados comerciales reales como CSAT, retención o ingresos?
Para crear estas pautas, siempre comenzamos con lo que esa empresa específica realmente se preocupa. Una empresa de servicios financieros que maneja disputas de facturación tiene diferentes estándares de calidad que una marca de comercio electrónico que maneja devoluciones durante la temporada pico. Así que la puntuación se construye alrededor de las propias pautas de la organización, sus políticas, su voz de marca y lo que una buena resolución se parece para ellos.
Y los resultados comerciales como mejores puntajes de CSAT y retención provienen de interacciones con los clientes de alta calidad. En lugar de rastrear puntajes de manera retrospectiva, nos centramos en los comportamientos que predicen esos resultados: rendimiento consistente en todos los agentes, seguir los procesos correctos y las habilidades blandas que dan forma a cómo se sienten los clientes al final de una conversación.
El objetivo es dar a los líderes una imagen clara y práctica de lo que es bueno para su empresa, para que puedan capacitar a sus equipos, replicar el éxito y hacerlo crecer en toda su organización.
Muchas empresas solo revisan un pequeño porcentaje de conversaciones con los clientes. ¿Cómo habilita Solidroad el análisis de cobertura completa, y qué tipo de información se vuelve posible cuando se pasa de muestrear a analizar todo?
Nuestra reciente encuesta Estado de CX mostró que alrededor del 81% de las conversaciones de soporte nunca se revisan para la calidad, dejando a los equipos revisando una fracción tan pequeña de las conversaciones que esencialmente están muestreando y esperando que sea representativo. Cuando una empresa comienza a evaluar todas las conversaciones con los clientes, los patrones que nunca surgirían en una muestra aleatoria se vuelven obvios. Los equipos comienzan a ver qué tipos de solicitudes se manejan consistentemente de manera deficiente, dónde los agentes humanos y de IA se desvían de maneras inesperadas y qué problemas son recurrentes antes de que siquiera aparezcan en una queja del cliente.
Solidroad utiliza la IA para revisar automáticamente cada conversación con el cliente a través del chat, correo electrónico y voz, haciendo posible el análisis de cobertura completa. Ese cambio de muestreo a revisión del 100% es lo que revela patrones consistentes en la calidad, la fricción del cliente y el rendimiento que de otra manera permanecerían ocultos.
Crypto.com es un gran ejemplo de lo que realmente desbloquea la cobertura completa. Antes de Solidroad, su equipo no tenía una forma confiable de medir la calidad del agente a gran escala o verificar que los agentes estuvieran listos antes de manejar tickets en vivo. Los problemas solo surgían después de que ya habían afectado a los clientes. Al moverse a la puntuación automatizada en 800,000 conversaciones mensuales, pudieron detectar problemas de calidad temprano, validar a los agentes antes de la implementación y confirmar que las mejoras realmente se estaban manteniendo. Los resultados fueron una reducción del 18% en el tiempo de manejo promedio y un aumento del 3% en la CSAT (lo cual es significativo a la escala en la que operan). A medida que su volumen de conversaciones continúa creciendo, su visibilidad de calidad se escala con él en lugar de quedarse atrás.
Eso es realmente lo que cambia la cobertura completa. Cambia la calidad de algo reactivo a algo proactivo que se puede gestionar con anticipación.
Trabaja con empresas como Crypto.com y Ryanair, donde la experiencia del cliente es crítica para la misión. ¿Qué patrones o debilidades comunes ha identificado en equipos de soporte a gran escala?
Unas pocas cosas surgen consistentemente. La primera es la brecha entre lo que las empresas creen que está sucediendo en sus conversaciones con los clientes y lo que realmente está sucediendo. La mayoría de los equipos están seguros de la calidad de su soporte justo hasta que obtienen visibilidad completa, entonces se dan cuenta de que la imagen es más complicada de lo que sus métricas inicialmente sugirieron.
Hay una desconexión consistente entre cómo los equipos miden el rendimiento y lo que realmente impulsa los resultados del cliente. Las métricas de velocidad y el recuento de tickets son fáciles de rastrear, así que tienden a dominar las evaluaciones. Pero esos números no les dicen a las empresas si el problema del cliente se resolvió, el agente representó con precisión a la marca o si la interacción dejó al cliente sintiéndose bien con la empresa. En entornos de alto riesgo como fintech o atención médica, esa desconexión entre la medición y el resultado puede tener consecuencias graves.
Hay una creciente preocupación de que la IA en el servicio al cliente pueda degradar la experiencia humana. ¿Cómo garantiza que su sistema mejora la calidad en lugar de empujar a los equipos hacia interacciones demasiado scriptizadas o robotizadas?
Es una preocupación válida, pero una que generalmente proviene de sistemas de QA (Aseguramiento de la Calidad) que aprovechan la IA para las cosas equivocadas. Si una empresa califica a los agentes puramente por la adherencia a un guión o por la velocidad con la que cierran un ticket, terminarán con interacciones que técnicamente marcan los casilleros pero se sienten huecas o impersonales para el cliente.
Nuestro enfoque es construir la puntuación alrededor de lo que realmente hace que un cliente se sienta apoyado en una interacción. Miramos cosas como si el agente escuchó activamente, mostró empatía cuando fue necesario y realmente ayudó al cliente a resolver su problema.
Lo mismo se aplica a los agentes de IA. El objetivo es utilizar la IA para hacer que las interacciones con los clientes sean más consistentes, precisas y apropiadamente responsivas a lo que el cliente está experimentando. Cuando la supervisión de la calidad se construye alrededor de esos resultados en lugar de solo el cumplimiento del proceso, tiende a empujar las interacciones en una mejor dirección, no en una más scriptizada.
Solidroad se encuentra en la intersección de los agentes humanos y los agentes de IA. ¿Cómo ve evolucionar la relación entre ambos, especialmente a medida que la IA comienza a manejar más interacciones en la línea del frente?
Es importante ver a los agentes humanos y los agentes de IA como un equipo, dividiendo la división del trabajo. Creo que el futuro para los agentes humanos y de IA es híbrido.
La IA maneja muy bien las solicitudes de alto volumen y directas, y los mejores agentes de IA incluso resuelven la mayoría de esas conversaciones por su cuenta, lo cual es realmente impresionante.
Pero el resultado de eso es que las interacciones que llegan a los agentes humanos son cada vez más complejas, cargadas emocionalmente y de alto riesgo. El cliente que está frustrado, la situación que no encaja en un modelo estándar, la conversación que requiere un juicio real. Así que la barra para los agentes humanos en realidad está subiendo, no bajando.
Eso es exactamente por lo que la supervisión en ambos se vuelve tan importante. La IA necesita manejar su volumen consistentemente y con precisión. Los humanos necesitan estar bien preparados para las conversaciones más difíciles que ahora están manejando principalmente. Y necesita haber una capa independiente sentada en ambos, dando a las empresas una imagen clara de lo que funciona y lo que no. Ese es el modelo híbrido que creemos definirá CX en el futuro, y es hacia lo que estamos construyendo.
Su sistema proporciona retroalimentación y capacitación en tiempo real. ¿Qué tan importante es la inmediatez para mejorar el rendimiento del agente, y cómo se compara con los flujos de trabajo de capacitación y QA tradicionales?
La inmediatez es realmente importante, y la investigación lo respalda: la retroalimentación es más efectiva cuando está conectada a la situación específica que la generó. Los flujos de trabajo de QA tradicionales rompen esa conexión casi por diseño. Un gerente revisa una conversación días o semanas después de que sucedió, comparte retroalimentación en una revisión periódica, y para entonces el agente ha tenido docenas de otras interacciones donde ese error probablemente se repitió. Sin proporcionar retroalimentación en tiempo real, los errores persisten y los agentes tienen que desaprender prácticas a las que están acostumbrados.
Lo que hemos encontrado es que la retroalimentación es más efectiva cuando surge inmediatamente después de una conversación real. Funciona mejor cuando está directamente vinculada a lo que el agente acaba de manejar y emparejada con una simulación específica que pueden ejecutar de inmediato. En este formato, se traduce en un cambio de comportamiento real mucho más rápido. Los agentes no solo escuchan que necesitan mejorar, están practicando la mejora en contexto, mientras todavía está fresco.
El contraste con la capacitación tradicional es el ejemplo más claro de esto. Nuestros datos muestran que más de la mitad de los agentes humanos dicen que la parte más difícil de la capacitación es aplicar lo que aprendieron en la capacitación a situaciones reales con los clientes. Esa discrepancia existe porque el aprendizaje en el aula y el soporte en vivo se sienten nada parecidos. La retroalimentación continua y situacional resuelve esto de una manera que las revisiones periódicas nunca realmente pudieron.
Ha demostrado mejoras como la reducción del tiempo de incorporación y una mayor CSAT. ¿Qué métrica les importa más a los clientes cuando adoptan su plataforma, y cómo demuestra el ROI temprano en la relación?
Varía según dónde se encuentran los puntos dolorosos del cliente, pero las dos cosas que surgen con más frecuencia son la cobertura de aseguramiento de la calidad y el ahorro de tiempo. Los equipos que revisan manualmente una pequeña fracción de conversaciones inmediatamente ven el valor en moverse a una cobertura del 100%, tanto por las perspectivas que Solidroad presenta como por las horas que les devuelve a sus equipos de QA. En nuestra base de clientes, típicamente vemos un aumento de 20 veces en la cobertura de QA y una reducción del 90% en el tiempo de revisión manual.
En el lado del ROI, tratamos de conectar los resultados con las métricas que ya son importantes para ese negocio. En Podium, el titular fue el tiempo de incorporación. Nuevos agentes alcanzando los estándares de rendimiento en 60 días en lugar de 90, y resolviendo problemas un 33% más rápido una vez que se pusieron en vivo. Con Crypto.com, fue el tiempo de resolución y la visibilidad del volumen de conversaciones. Para Ryanair, se reflejó en las horas de reclutador ahorradas.
Los detalles difieren, pero el patrón es el mismo: cuando realmente puedes ver lo que está sucediendo en tus interacciones con los clientes y actuar rápidamente, las mejoras siguen en las métricas que importan.
Mirando hacia adelante, ¿ve a Solidroad permaneciendo enfocado en la capacitación y el QA, o evolucionando hacia una capa de orquestación más amplia para gestionar tanto las interacciones con los clientes humanos como las de IA?
La capacitación y el QA son donde comenzamos, pero la visión es más grande que eso. La forma en que pensamos al respecto es que la supervisión de la calidad se convertirá en infraestructura clave para cualquier empresa que ejecute la IA en el soporte al cliente. De la misma manera que las certificaciones de seguridad se volvieron indispensables una vez que las empresas movieron los datos a la nube, la certificación de calidad se volverá esencial a medida que las conversaciones de los clientes se muevan a la IA.
La estrella del norte es que “Solidroad Certified” lleva un significado real: prueba de que una empresa cumple con un alto estándar de cómo trata a los clientes, independientemente de si la interacción fue manejada por una persona o una IA.
Lo que significa prácticamente es que queremos ser el sistema en el que las organizaciones confíen para gestionar y mejorar la calidad de la interacción con el cliente en general, no solo para señalarizar los problemas en el backend. Esa es una gran parte de por qué recaudamos nuestros $25 millones en la ronda Serie A liderada por Hedosophia —nos da el margen de maniobra para construir hacia esa visión. Eso incluye expandir nuestras capacidades de producto y equipos para ayudar a aún más empresas a evaluar el 100% de sus interacciones con los clientes.
Gracias por la gran entrevista, los lectores que deseen aprender más deben visitar Solidroad.












