Líderes de pensamento
Escolhendo os olhos do veículo autônomo: uma batalha de sensores, estratégias e compensações

Até 2030, o mercado de veículos autônomos é esperado ultrapassar US$ 2.2 trilhões, com milhões de carros trafegando pelas ruas usando IA e sistemas avançados de sensores. No entanto, em meio a esse rápido crescimento, um debate fundamental permanece sem solução: quais sensores são mais adequados para a direção autônoma — lidars, câmeras, radares ou algo totalmente novo?
Esta questão está longe de ser acadêmica. A escolha dos sensores afeta tudo, desde a segurança e o desempenho até o custo e a eficiência energética. Algumas empresas, como a Waymo, apostam em redundância e variedade, equipando seus veículos com um conjunto completo de lidars, câmeras e radares. Outras, como a Tesla, adotam uma abordagem mais minimalista e econômica, apostando fortemente em câmeras e inovação em software.
Vamos explorar essas estratégias divergentes, os paradoxos técnicos que elas enfrentam e a lógica de negócios que orienta suas decisões.
Por que máquinas mais inteligentes exigem soluções de energia mais inteligentes
Esta é de fato uma questão importante. Enfrentei um dilema semelhante quando lancei uma startup de drones em 2013. Estávamos tentando criar drones capazes de rastrear o movimento humano. Naquela época, a ideia estava avançada, mas logo ficou claro que havia um paradoxo técnico.
Para que um drone rastreie um objeto, ele precisa analisar os dados do sensor, o que requer poder computacional — um computador de bordo. No entanto, quanto mais potente o computador precisa ser, maior o consumo de energia. Consequentemente, uma bateria com maior capacidade é necessária. No entanto, uma bateria maior aumenta o peso do drone, e mais peso requer ainda mais energia. Surge um ciclo vicioso: o aumento da demanda de energia leva a um maior consumo de energia, peso e, por fim, custo.
O mesmo problema se aplica aos veículos autônomos. Por um lado, você quer equipar o veículo com todos os sensores possíveis para coletar o máximo de dados possível, sincronizá-los e tomar as decisões mais precisas. Por outro lado, isso aumenta significativamente o custo e o consumo de energia do sistema. É importante considerar não apenas o custo dos próprios sensores, mas também a energia necessária para processar seus dados.
A quantidade de dados está aumentando e a carga computacional também. É claro que, com o tempo, os sistemas de computação se tornaram mais compactos e energeticamente eficientes, e os softwares se tornaram mais otimizados. Na década de 1980, o processamento de uma imagem de 10x10 pixels levava horas; hoje, os sistemas analisam vídeos 4K em tempo real e realizam cálculos adicionais no dispositivo sem consumir energia excessiva. No entanto, o dilema do desempenho ainda persiste, e as empresas de AV estão aprimorando não apenas os sensores, mas também o hardware computacional e os algoritmos de otimização.
Processamento ou Percepção?
Os problemas de desempenho em que o sistema precisa decidir quais dados liberar são principalmente devido a limitações computacionais, e não a problemas com sensores LiDAR, câmera ou radar. Esses sensores funcionam como os olhos e ouvidos do veículo, capturando continuamente grandes quantidades de dados ambientais. No entanto, se o "cérebro" computacional de bordo não tiver o poder de processamento necessário para processar todas essas informações em tempo real, ele se torna sobrecarregado. Como resultado, o sistema precisa priorizar determinados fluxos de dados em detrimento de outros, potencialmente ignorando alguns objetos ou cenas em situações específicas para se concentrar em tarefas de maior prioridade.
Esse gargalo computacional significa que, mesmo que os sensores estejam funcionando perfeitamente, e muitas vezes possuam redundâncias para garantir a confiabilidade, o veículo ainda pode ter dificuldades para processar todos os dados de forma eficaz. Culpar os sensores não é apropriado neste contexto, pois o problema reside na capacidade de processamento de dados. Aprimorar o hardware computacional e otimizar algoritmos são etapas essenciais para mitigar esses desafios. Ao aprimorar a capacidade do sistema de lidar com grandes volumes de dados, os veículos autônomos podem reduzir a probabilidade de perda de informações críticas, resultando em operações mais seguras e confiáveis.
Sistemas Lidar, Câmera e Radar: Prós e Contras
É impossível dizer que um tipo de sensor é melhor que outro — cada um serve ao seu propósito. Os problemas são resolvidos selecionando o sensor apropriado para uma tarefa específica.
O LiDAR, embora ofereça mapeamento 3D preciso, é caro e tem dificuldades em condições climáticas adversas, como chuva e neblina, que podem dispersar seus sinais de laser. Ele também requer recursos computacionais significativos para processar seus dados densos.
Câmeras, embora econômicas, são altamente dependentes das condições de iluminação, apresentando baixo desempenho em condições de pouca luz, ofuscamento ou mudanças bruscas de iluminação. Elas também carecem de percepção de profundidade inerente e têm dificuldades com obstruções como sujeira, chuva ou neve na lente.
O radar é confiável na detecção de objetos em diversas condições climáticas, mas sua baixa resolução dificulta a distinção entre objetos pequenos ou muito próximos. Frequentemente, gera falsos positivos, detectando itens irrelevantes que podem desencadear respostas desnecessárias. Além disso, o radar não consegue decifrar o contexto nem ajudar a identificar objetos visualmente, ao contrário das câmeras.
Ao aproveitar a fusão de sensores — combinando dados de LiDAR, radar e câmeras — esses sistemas obtêm uma compreensão mais holística e precisa de seu ambiente, o que, por sua vez, melhora a segurança e a tomada de decisões em tempo real. Keymakr'A colaboração da com os principais desenvolvedores de ADAS demonstrou a importância dessa abordagem para a confiabilidade do sistema. Trabalhamos consistentemente em conjuntos de dados diversos e de alta qualidade para apoiar o treinamento e o refinamento do modelo.
Waymo vs Tesla: Uma história de duas visões autônomas
No setor de veículos autônomos, poucas comparações geram tanto debate quanto a Tesla e a Waymo. Ambas são pioneiras no futuro da mobilidade — mas com filosofias radicalmente diferentes. Então, por que um carro da Waymo parece uma nave espacial repleta de sensores, enquanto a Tesla parece quase isenta de sensores externos?
Vamos dar uma olhada no veículo da Waymo. É um Jaguar básico modificado para direção autônoma. Em seu teto, há dezenas de sensores: lidars, câmeras, sistemas de laser giratórios (os chamados "spinners") e radares. São muitos: câmeras nos retrovisores, sensores nos para-choques dianteiro e traseiro, sistemas de visão de longo alcance — tudo isso sincronizado.
Caso um veículo desse tipo sofra um acidente, a equipe de engenharia adiciona novos sensores para coletar as informações faltantes. A abordagem deles é usar o máximo de tecnologias disponíveis.
Então, por que a Tesla não segue o mesmo caminho? Um dos principais motivos é que a Tesla ainda não lançou seu Robotaxi no mercado. Além disso, sua abordagem se concentra na minimização de custos e na inovação. A Tesla acredita que o uso de lidars é impraticável devido ao seu alto custo: o custo de fabricação de uma câmera RGB é de cerca de US$ 3, enquanto um lidar pode custar US$ 400 ou mais. Além disso, lidars contêm peças mecânicas — espelhos giratórios e motores — o que os torna mais propensos a falhas e substituição.
As câmeras, por outro lado, são estáticas. Não possuem partes móveis, são muito mais confiáveis e podem funcionar por décadas até que a carcaça se degrade ou a lente fique opaca. Além disso, as câmeras são mais fáceis de integrar ao design de um carro: podem ser escondidas dentro da carroceria, ficando quase invisíveis.
As abordagens de produção também diferem significativamente. A Waymo usa uma plataforma existente — um Jaguar de produção — na qual os sensores são montados. Eles não têm escolha. A Tesla, por outro lado, fabrica veículos do zero e pode planejar a integração dos sensores na carroceria desde o início, ocultando-os da vista. Formalmente, eles serão listados nas especificações, mas visualmente, serão quase imperceptíveis.
Atualmente, a Tesla usa oito câmeras ao redor do carro — nos retrovisores dianteiro, traseiro, laterais e nas portas. Eles usarão sensores adicionais? Acredito que sim.
Com base na minha experiência como motorista da Tesla que também andou em veículos da Waymo, acredito que a incorporação do lidar aprimoraria o sistema de direção totalmente autônoma da Tesla. Sinto que o sistema de direção totalmente autônoma da Tesla atualmente carece de alguma precisão ao dirigir. Adicionar a tecnologia lidar poderia aprimorar sua capacidade de navegar em condições desafiadoras, como forte ofuscamento solar, poeira no ar ou neblina. Essa melhoria tornaria o sistema potencialmente mais seguro e confiável em comparação com a dependência exclusiva de câmeras.
Mas, da perspectiva empresarial, quando uma empresa desenvolve sua própria tecnologia, ela busca uma vantagem competitiva — uma vantagem tecnológica. Se conseguir criar uma solução significativamente mais eficiente e barata, ela abre as portas para o domínio do mercado.
A Tesla segue essa lógica. Musk não quer seguir o caminho de outras empresas como Volkswagen ou Baidu, que também fizeram progressos consideráveis. Até mesmo sistemas como Mobileye e iSight, instalados em carros mais antigos, já demonstram uma autonomia decente.
Mas a Tesla almeja ser única — e essa é a lógica dos negócios. Se você não oferecer algo radicalmente melhor, o mercado não o escolherá.












