Regulação
A Maioria dos Executivos de Tecnologia dos EUA Quer Regulação de IA, Mas Quem Deve Liderá-la?

Assim como os anos 90 tiveram a comercialização da Internet, os anos 2000 o smartphone e os anos 2010 o surgimento das mídias sociais, os anos 2020 pertencem à IA. Como essas inovações tecnológicas anteriores, a IA também parece estar se expandindo mais rápido do que os reguladores e legisladores podem acompanhar.
A bolha das ponto-com explodiu em 1993 com o lançamento do navegador Mosaic inclusivo, e não foi até 1996 que o Congresso dos EUA aprovou a Lei de Telecomunicações, a primeira a abordar explicitamente a Internet. Da mesma forma, a Apple lançou o iPhone em 2007, embora os legisladores aprovaram a Lei de Comunicações e Acessibilidade de Vídeo do Século 21 em 2010, exigindo que todos os smartphones incluíssem recursos de acessibilidade.
E embora a “década das mídias sociais” dos anos 2010 tenha visto o estabelecimento e expansão de plataformas como Facebook, WhatsApp, YouTube e Instagram, não foi até a segunda metade da década que a lei FOSTA-SESTA foi aprovada, tornando as plataformas responsáveis por facilitar o tráfico de seres humanos.
A IA foi lançada no mainstream após o lançamento chocante da OpenAI do ChatGPT em 2022, mas o país de origem da ferramenta ainda não aprovou legislação federal para regulamentá-la. Os EUA, em vez disso, mudaram sua posição – de restritiva para desregulamentada – à medida que as administrações mudaram.
IA nos EUA: Uma Questão Bipartidária
O ex-presidente Joe Biden exigiu que as agências federais tomassem medidas para garantir a segurança, os direitos civis, a equidade e a transparência da IA em 2023. “Utilizar a IA para o bem e realizar seus muitos benefícios requer mitigar seus riscos substanciais”, disse a lei.
Em janeiro de 2025, o presidente Donald Trump revogou as políticas e diretrizes de IA existentes “que atuam como barreiras à inovação de IA americana, abrindo caminho para que os EUA atuem decisivamente para manter a liderança global em inteligência artificial”.
A administração atual, então, busca acelerar a inovação em IA nos EUA por meio de esforços de desregulamentação, contrariando riscos potenciais por meio de investimentos em pesquisa e desenvolvimento. A pergunta permanece, no entanto, se é o governo que deve abordar essas preocupações.
Hoje, há ansiedades quase universais sobre os riscos da IA, incluindo ética, interrupção e confiança. Um estudo de 2024 sobre preocupações de multistakeholders decorrentes da IA, de fato, encontrou que as principais preocupações incluem viés, mau uso, ação de máquina inesperada, desigualdade, ansiedade social e mudanças nas cadeias de suprimentos, para citar algumas.
A maioria dos executivos de tecnologia dos EUA concorda, mas destaca a paradoxo. Um relatório de setembro de 2025 da Solvd, uma empresa de consultoria e engenharia digital de IA, concluiu que embora 97% dos diretores de informática (CIOs) e diretores de tecnologia (CTOs) estejam um pouco preocupados com o uso antiético da IA, 87% acreditam que uma regulação excessiva da IA pode limitar a inovação e se tornar uma desvantagem competitiva.
As principais preocupações desses líderes ecoam as identificadas pelo estudo de 2024: modelos de IA se tornando tão poderosos que não podem ser controlados, atores mal-intencionados potencialmente se aproveitando de vulnerabilidades de IA, modelos de IA obtendo acesso demais a dados da empresa e a desinformação ou viés que a tecnologia pode apresentar.
Entre os 500 CIOs e CTOs americanos em empresas que fazem mais de $500M em ARR que a Solvd pesquisou, 61% preferiram a regulação pública, enquanto 36% favoreceram a regulação liderada pela indústria.
A regulação liderada pela indústria pode significar um modelo misto, afastando-se da dicotomia público-privada. A administração Biden, de fato, negociou um acordo com os principais executivos de tecnologia em 2023 que detalhava compromissos voluntários sobre guardrails de IA. Tais promessas incluíam garantir que os produtos fossem seguros antes do seu lançamento público, construir sistemas que colocassem a segurança em primeiro lugar e conquistar a confiança do público por meio da transparência e divulgando as capacidades, limitações e áreas de uso apropriado e inadequado dos sistemas de IA.
Uma Conversa Global
Apesar da divergência na preferência dos executivos de empresas sobre quadros regulatórios públicos ou liderados pela indústria, o fato permanece que 82% deles são principalmente responsáveis por liderar a governança interna de IA, de acordo com a Solvd. Apenas 8% dos respondentes apontaram a liderança sênior para a regulação interna de IA, e 5% disseram que suas empresas tinham um conselho de ética de IA ou comitê de conformidade dedicado.
As empresas – e seus funcionários – estão, portanto, presas entre esperar por uma política pública que pode ou não vir, e agir principalmente de forma independente da liderança sênior e equipes treinadas em ética de IA.
Diferentes contextos encontraram soluções distintas para essa complicação. A União Europeia (UE), por exemplo, contrasta fortemente a abordagem desregulamentada da administração Trump por meio da Lei de IA da UE, a primeira lei abrangente de IA do mundo. Aprovada em março de 2024, a Lei proibiu certas aplicações de IA, estabeleceu um quadro de avaliação baseado em risco e exigiu legalmente transparência e comunicação com os usuários.
Outros estão seguindo o exemplo da UE. O Chile, líder em IA na América do Sul, recentemente propôs um projeto de lei para regular a IA, inspirado na Lei de IA da UE. A China, por outro lado, largamente contorna esses obstáculos, pois seu sistema político favorece a regulação sancionada pelo Estado, subsídios e parcerias com empresas privadas de IA. Os desafios do país decorrem menos de uma dicotomia regulatória e mais dos riscos de censura e interferência estatal na inovação.
Mas os EUA, como o líder global em IA, está destinado a definir o tom para o futuro dos quadros regulatórios.
Pensamentos Finais
A implementação e inovação de IA se tornaram uma vantagem competitiva em quase todas as indústrias em todo o mundo. Mas, sem clareza regulatória e política em mudança, os executivos de tecnologia devem estabelecer suas próprias guardrails, e ser responsáveis por proteger os consumidores, conquistar sua confiança em meio a um medo generalizado de IA, e inovar – tudo ao mesmo tempo.
Apesar das preocupações setoriais de que regulamentações estritas possam impedir a inovação, o oposto pode ser o caso. De acordo com a RegulatingAI, uma organização sem fins lucrativos dos EUA dedicada a explorar a interseção da IA e regulação, a incerteza sobre a polícia de IA impede a adoção da tecnologia, o que atrasa a realização dos benefícios econômicos, falta de investimento e impede as margens de escalabilidade das empresas.
“Esclarecer como os sistemas de IA são definidos dentro dos contextos regulatórios é crucial, pois a ambiguidade nas definições adiciona desafios de conformidade”, observou a organização sem fins lucrativos.
Da mesma forma, a Solvd enfatizou a importância das empresas aproveitarem a confusão regulatória atual. “Agora é o momento perfeito para as empresas estabelecerem uma governança interna eficaz antes que os reguladores externos intervenham e possivelmente imponham soluções menos flexíveis”, concluiu o relatório da empresa.
Nesse contexto, os inovadores de IA nos EUA enfrentam desafios sem precedentes: riscos de reputação por não adotar políticas de supervisão, e a possibilidade de lacunas de conformidade quando a regulação for implementada.
Mas a oportunidade também brilha. Com a visão retrospectiva da Internet, smartphones e mídias sociais, agora é exatamente o momento de olhar para o futuro e construir um ecossistema que equilibre inovação com responsabilidade, fomente a confiança e se prepare para a inevitabilidade da regulação.












