Connect with us

Alex Levin, Co-Fundador e CEO da Regal – Série de Entrevistas

Entrevistas

Alex Levin, Co-Fundador e CEO da Regal – Série de Entrevistas

mm

Alex Levin é o Co-Fundador e CEO da Regal, uma plataforma de IA de voz que ajuda as empresas a gerar receita por meio de conversas de clientes impulsionadas por IA e conformes. Antes de fundar a Regal em 2020, ele liderou equipes de crescimento e produto na Handy, Thomson Reuters e outras startups. Formado em Harvard e membro do Conselho de Tecnologia da Forbes, Alex se concentra em construir infraestruturas de voz escaláveis que combinam inovação com guardiões de nível empresarial.

Regal fornece agentes de voz de IA para vendas, suporte, agendamento e cobrança – projetados para soar naturais, integrar-se a sistemas de CRM e lidar com milhões de conversas em escala. A plataforma apresenta um construtor sem código, análise em tempo real, teste A/B e conformidade incorporada para setores regulamentados, como saúde, seguros e serviços financeiros.

O que o inspirou a mudar de funções de liderança na Angi e Handy para fundar a Regal, e houve um momento específico em que você e seu co-fundador perceberam que a experiência do centro de contato precisava ser completamente reconstruída?

Enquanto estávamos na Angi/Handy, vimos o poder da voz para construir confiança com os clientes. Os clientes nos disseram que, quando tinham um problema importante, queriam ligar, e os clientes que atendíamos por telefone tinham um valor de vida mais alto e, quando ligávamos para os clientes, eles atendiam a uma taxa muito mais alta do que qualquer outro canal. No entanto, os fornecedores de software de centro de contato estavam focados em “desvio” e “automação” em vez do que era certo para os clientes. O resultado foi um jogo interminável de esconder o número de telefone que punia injustamente os clientes.

Meu co-fundador e eu saímos porque acreditávamos firmemente que podíamos tornar a voz o canal mais eficaz, reduzindo o custo e facilitando a operação. Eu gostaria de ter tido a Regal enquanto estava executando um grande centro de contato.

Você lançou a Regal em 2020, justo antes do boom da IA gerativa. Como você avaliou se a IA de voz era tecnicamente viável – e o que lhe deu a convicção para agir cedo?

Estávamos convencidos muito antes de 2020 de que a voz era o canal mais importante. E em 2020, sabíamos que podíamos construir orquestração, teste A/B e ferramentas de personalização que reduziriam os custos e simplificariam a gestão da voz como um canal – seja um humano, um bot de voz antigo ou algo melhor no final do espectro. Então, vendemos ferramentas para centros de contato para melhor gerenciar agentes humanos no início. Esse produto cresceu muito rapidamente.

Mas, como você mencionou, iniciar uma empresa é um salto de fé, e levou tempo para realmente ver como podíamos ir além das limitações dos agentes humanos. Não foi até o lançamento do ChatGPT no final de 2022 que realmente vimos “IA” que era boa o suficiente para conduzir uma conversa. E não foi até o final de 2023 que fomos capazes de criar um demonstrativo para um agente de voz que achamos que um cliente gostaria de conversar.

Quais foram alguns dos desafios técnicos mais difíceis no treinamento de agentes de voz que pudessem corresponder ou superar o desempenho humano em conversas naturais?

Existem muitos desafios técnicos maravilhosos para trabalhar. Desde garantir que a latência esteja em torno de 500ms, até descobrir como garantir que os agentes de IA tenham todo o contexto das bases de conhecimento da empresa e dados do cliente em tempo real, até ter agentes de IA que tomem ações em chamadas e após, até guardiões ou recursos de segurança, e como fazer com que a interação do agente se sinta humana com a tomada de turno e os sinais verbais certos.

Um dos meus projetos favoritos que nossa equipe está trabalhando hoje é como melhorar as avaliações automatizadas para que um agente de IA possa ser testado mais facilmente antes de ser colocado em produção. Isso cortaria centenas de horas de QA manual que estão acontecendo constantemente hoje para cada alteração em cada agente de IA.

Nós temos que criar primeiro centenas de conversas de clientes simuladas variadas (usando IA), elas têm o agente de IA passar por elas, então temos o supervisor de IA QA e retornar sugestões de melhorias para o agente de IA ou as políticas e base de conhecimento da empresa. Nós temos um produto de avaliação funcionando agora, o feedback do cliente foi ótimo, e está melhorando a um ritmo incrível.

Isso é crítico para a nova métrica de contagem de gerentes por agente de IA. Em breve, muito poucos gerentes serão capazes de gerenciar centenas de agentes de IA diferentes.

Como a Regal aproveita o aprendizado de máquina para personalizar conversas em tempo real? É baseado na história do cliente, tom, reconhecimento de intenção – ou uma combinação?

Nós investimos profundamente em personalização em comparação com o restante do mercado, porque acreditamos em ajudar as marcas a testar milhões de clientes como um em um milhão. Não apenas recriando a manipulação genérica do agente humano que é frequentemente usada hoje.

Nós começamos construindo um perfil de cliente unificado que vincula todos os dados de CRM, dados de eventos e histórico de conversa. Ao construir um agente, as empresas podem então dar ao agente de IA acesso a todos os dados sobre um cliente ou apenas os pontos de dados específicos necessários para uma conversa particular. O LLM fornece uma resposta conversacional humana usando os dados disponíveis.

Os LLMs ainda são limitados no que fazem bem, então precisamos da capacidade de aproveitar outras ferramentas, como serviços de dados de terceiros, aplicativos personalizados e ML. Então, construímos “Ações Personalizadas” que podem ser usadas em um prompt de agente de IA para aproveitar outros serviços. Por exemplo, muitas marcas têm modelos de propensão para indicar qual produto sugerir ao cliente em seguida, e podemos nos conectar a esses ajustando a conversa.

Como o seu sistema usa a geração aumentada de recuperação (RAG) sem sacrificar a responsividade ou a cadência natural que os clientes esperam de uma ligação ao vivo?

RAG é uma área de diferenciação para nós, pois precisava ser mais rápido para agentes de IA de voz do que para agentes de IA em bate-papo ou outros canais digitais. Alguns segundos de tempo de inatividade completamente arruinariam a ligação.

Nós reduzimos a latência da recuperação e garantimos que, se a recuperação levasse mais tempo, o agente de IA pudesse continuar conversando com o cliente para deixá-los saber que levaria mais tempo.

Os agentes da Regal são modelados após vozes humanas reais, incluindo as de investidores reais. O que é necessário – tecnicamente e eticamente – para construir réplicas de alta fidelidade?

É surpreendentemente fácil tecnicamente “clonar” uma voz para que um agente de IA possa soar como um ator de voz profissional ou um amigo. 5-10 minutos de áudio de alta qualidade são tudo o que é necessário.

Por exemplo, fui solicitado recentemente a fazer isso para um membro da família que está morrendo, para que a geração mais jovem possa experimentá-los quando estiverem mais velhos. Então, com um pouco de orientação, eles vão gravar o avô moribundo agora.

Para o seu segundo ponto, o avô está consentindo com isso, e atores de voz profissionais ou nossos investidores consentem com isso. Atores ruins que permitem a clonagem de voz sem consentimento (como o que aconteceu durante a última eleição presidencial) devem ser fechados.

Um conselho – se você permitir uma clonagem de voz (ou é uma figura pública que pode ser clonada por atores ruins), certifique-se de criar uma palavra segura que apenas sua família saiba, para que eles possam identificar o verdadeiro você em uma ligação.

Você destaca a importância de integrar a Regal em CRMs, sistemas de pagamento e APIs internas. Quais foram alguns dos desafios de integração mais difíceis que você teve que resolver?

Integrar-se com produtos principais de CRMs como Salesforce para software de centro de contato como NICE é direto. O pedido mais difícil é garantir que a marca torne as APIs disponíveis para nós para qualquer ação que o agente de IA possa precisar tomar. Um agente humano pode clicar em um botão para reservar um quarto de hotel. Mas o agente de IA realmente precisa de uma API de reserva.

Como você aborda a medição e melhoria do desempenho do modelo ao longo do tempo? Qual é o papel do ajuste fino supervisionado ou do aprendizado por reforço nesse processo?

Nós construímos uma suíte de teste A/B desde o início, então é trivial para os clientes testarem agentes de IA versus agentes humanos ou o agente com a versão 1 do LLM versus a versão 2. Isso nos dá uma maneira clara de ver variações nos resultados para diferentes modelos.

No entanto, não usamos aprendizado por reforço hoje, pois isso deixa as equipes jurídicas desconfortáveis (elas não querem uma situação em que haja uma alteração no cheiro que não é intencional). Acho que estamos a 13 meses das equipes jurídicas permitindo o aprendizado por reforço em nosso caso de uso. Em vez disso, hoje nos concentramos em sugerir alterações que um gerente humano possa aceitar. Essas podem ser para um prompt, uma base de conhecimento, ajuste fino de um LLM, etc.

Falar com um VC – ou uma clonagem de voz de um – é um conceito ousado. Qual foi a sua intenção em tornar esses conselheiros de IA disponíveis para fundadores, e como eles estão sendo usados hoje?

Nós tivemos a sorte de ter acesso a investidores maravilhosos e queríamos retribuir com esse projeto. Eu me divirto conversando com o Satya AI a qualquer momento, e ouvi feedback incrível de executivos que usaram os VCs de IA para tudo, desde conselhos sobre como criar uma estrada de produto até qual modelo de preços usar.

Nós amamos mostrar em vez de dizer, e esse projeto realmente destaca o poder de nossas capacidades de RAG/conhecimento. Nós até tivemos dois pais de nossos investidores que nos deram o polegar para cima!

Mas uma palavra de sabedoria – você não pode delegar a tomada de decisões para conselheiros, e uma das partes mais difíceis de ser um executivo é decidir entre duas opções ruins ou mesmo duas opções aparentemente boas.

Esses agentes de investidores dependem do conhecimento de startup generalizado, ou são treinados em conselhos específicos de firma e filosofias ligadas ao VC individual?

Todos os agentes de IA têm algum conhecimento genérico do treinamento do LLM. Mas para obter os resultados que precisávamos, carregamos os escritos prolíficos dos investidores em suas respectivas bases de conhecimento de agentes de IA.

Além disso e da clonagem de voz, acho que também fomos capazes de capturar some das personalidades únicas dos investidores ou essência, como a positividade de Jake Saper ou a ebuliência de Alexa Von Tobel.

Olhando para frente, como você vê a IA da Regal evoluindo – veremos mais tomada de decisão autônoma, mais inteligência emocional ou até mesmo suporte multimodal?

A parte mais emocionante do último ano foi ver nossos agentes de IA performarem melhor do que os agentes humanos. Acho que no próximo ano, melhorias nos modelos de IA subjacentes e avanços na aplicação da Regal resultarão em agentes de IA que sejam indistinguíveis dos humanos, e mais importante, que superem as habilidades dos agentes humanos. As empresas que se inclinam para os agentes de IA reduzirão seus custos e melhorarão a experiência do cliente mais rápido do que qualquer um imaginou.

Obrigado pela grande entrevista, leitores que desejam aprender mais devem visitar Regal.

Antoine é um líder visionário e sócio-fundador da Unite.AI, impulsionado por uma paixão inabalável em moldar e promover o futuro da IA e da robótica. Um empreendedor serial, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego falando sobre o potencial das tecnologias disruptivas e da AGI. Como um futurista, ele está dedicado a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Securities.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.