Líderes de pensamento
O Novo Modelo GPAI da Comissão Europeia – O que Isso Significa para o Treinamento de IA?

Em julho, a Comissão Europeia (CE) lançou um novo modelo de inteligência artificial de propósito geral (GPAI). Isso significa que os fornecedores de IA devem divulgar o conteúdo inserido nos modelos para treiná-los. Isso vem após meses e meses de manchetes sobre criadores alegando que o conteúdo foi usado sem consentimento para treinar IA.
Com esse novo modelo, a UE deixou claro sua posição: a transparência agora é inegociável. O treinamento de caixa preta, onde algo é criado sem revelar seu funcionamento interno, não será uma opção para os desenvolvedores de IA. Isso marca uma mudança significativa, pois operar na Europa agora exigirá total visibilidade sobre as entradas do modelo e a proveniência dos dados de treinamento, forçando uma reavaliação da coleta e uso de dados.
Muitos apontaram a diferença gritante entre isso e o recentemente lançado Plano de Ação de IA dos EUA, que se concentra fortemente na desregulação. Como qualquer nova lei ou regulamento, as empresas agora têm que avaliar exatamente como o modelo GPAI afetará as operações.
Se elas estiverem operando em várias regiões, elas estarão fazendo o mesmo com o Plano de Ação de IA dos EUA, confundindo ainda mais as coisas. Devido à natureza complexa desses e ao fato de que regular o desenvolvimento de IA dessa forma é um território inexplorado, os resultados dos desenvolvedores provavelmente serão muito diferentes.
Dissecando o Modelo de IA de Propósito Geral
Em julho deste ano, a Comissão Europeia publicou um modelo obrigatório para fornecedores de GPAI para que eles possam publicar um resumo público dos dados usados para treinar seus modelos. Como parte do Ato de IA da UE, os fornecedores devem divulgar categorias de dados, como conjuntos de dados publicamente disponíveis, dados licenciados privados, conteúdo da web raspado, dados de usuário e dados sintéticos. O objetivo é permitir que os titulares de direitos autorais, usuários e desenvolvedores downstream exerçam seus direitos legais de acordo com a lei da UE.
Os GPTs são treinados com grandes quantidades de dados; no entanto, no mercado atual, há pouca informação disponível sobre a origem desses dados. O resumo público que este modelo estabelece fornecerá uma visão geral abrangente dos dados usados para treinar um modelo, listará as principais coleções de dados e explicará outras fontes usadas.
Comparar e Contrastar, Plano de Ação de IA dos EUA
Em comparação, os EUA estão determinados a vencer a corrida de IA e manter sua vantagem competitiva sobre a China, à medida que a administração Trump anunciou seu Plano de Ação de IA no início do verão. Este novo quadro de IA visa acelerar a construção de centros de dados de alta intensidade de energia que alimentam os sistemas de IA, facilitando as regulamentações ambientais. Ao mesmo tempo, busca aumentar a exportação global de tecnologias de IA americanas. Com 90 recomendações, o plano reflete os esforços crescentes dos EUA para manter a dianteira sobre seus concorrentes globais.
O plano é construído em torno de três pilares principais – acelerar a inovação, construir a infraestrutura de IA da América e promover a liderança na diplomacia e segurança de IA internacional.
Como parte disso, um ponto importante do plano destacou a ênfase dos EUA em ‘código aberto’ para impulsionar a inovação e a acessibilidade. Da mesma forma, o plano destaca como o governo dos EUA ‘ liderará pelo exemplo ‘ quando se trata de crescimento de IA – por meio de treinamento, trocas de talentos e expansão da adoção em várias indústrias.
Com esse plano, os EUA visam simplificar todas as regulamentações de tecnologia atuais, particularmente as ambientais, para garantir que a legislação não esteja retardando o crescimento, enquanto encoraja a distribuição internacional mais ampla de software e hardware de IA dos EUA. Essa abordagem ‘anti-regulatória’ marca uma clara mudança em relação a quadros anteriores centrados em ética, transparência e inovação responsável – em vez de se mover em direção a um plano de ação mais agressivo ‘inovação em primeiro lugar’.
A Peça Faltante
Vale a pena dar um passo atrás nesse estágio e considerar se esses atos, embora diferentes, podem sofrer dos mesmos defeitos que farão com que os desenvolvedores vejam uma falta de valor em aderir a eles. As abordagens da UE e dos EUA deixam uma lacuna crítica em torno da propriedade intelectual nos conjuntos de dados de treinamento de IA. O Ato de IA da UE exige resumos de dados de treinamento e uma política de conformidade com direitos autorais, mas não estabelece um quadro escalável para identificar ou licenciar obras protegidas por direitos autorais.
Nos EUA, não existem regras específicas – deixando as empresas de IA para navegar em um quadro legal em evolução, moldado por decisões judiciais e disputas em andamento com titulares de direitos. Além do texto legal, o que está faltando é o lado prático; nenhuma das abordagens estabelece métodos viáveis e amplamente adotados pela indústria para detectar conteúdo protegido em larga escala, verificar o uso legítimo ou simplificar a licença. Até que soluções práticas sejam definidas, a incerteza em torno dos direitos autorais nos conjuntos de dados de treinamento de IA permanecerá um desafio significativo para a indústria.
O Custo Oculto das Empresas que Ignoram a Rastreabilidade de IA
Apesar de alguns dos defeitos nesses regulamentos, será assumido que eles farão com que os desenvolvedores de IA se concentrem fortemente em como permanecer à tona do ponto de vista legal – mas nem sempre é o caso. Na verdade, a verdadeira divisão na IA agora não está entre a regulamentação da UE e dos EUA, mas entre as empresas que estão investindo em rastreabilidade hoje e aquelas que apostam que não terão que fazê-lo. Isso é uma repetição do que vimos anos atrás com a implementação do Regulamento Geral de Proteção de Dados (GDPR) – as empresas que construíram a privacidade desde o início não apenas evitaram multas, mas também ganharam a confiança do consumidor e um acesso mais suave a outros mercados que mais tarde espelharam os padrões do GDPR.
O mesmo padrão pode estar surgindo com a IA. A rastreabilidade dos dados de treinamento e das decisões do modelo provavelmente se tornará um padrão global, e as empresas que atrasam terão que redesenhar seus sistemas no futuro. Voltar para adicionar documentação, rastreabilidade e recursos de auditoria a um sistema existente é muito mais caro e complexo do que construí-los desde o início, tirando o foco de construções mais focadas no ROI que a empresa deseja concluir.
Em outras palavras, a rastreabilidade e a transparência não são recursos adicionais opcionais; elas devem ser incorporadas aos sistemas de IA desde o início. As empresas que as tratam como uma afterthought arriscam estagnar a inovação, enfrentar reações regulatórias e perder a corrida indefinidamente.
A IA Ética Precisa de Unidade Global
De uma perspectiva macro, essas abordagens polarizadas criam um problema real para as empresas globais. As empresas em mercados de toque mais leve, como os EUA, podem escalar mais rapidamente no curto prazo, mas quando decidem entrar na UE, elas enfrentam uma parede de conformidade: as regras de rastreabilidade e documentação do Ato de IA exigem capacidades que elas nunca construíram.
Reconstruir a rastreabilidade, a documentação e os recursos de auditoria em um sistema existente é caro, lento e disruptivo, especialmente porque a rastreabilidade é uma das partes mais intensivas em recursos da conformidade. É o mesmo padrão que vimos com o GDPR, onde os retardatários na privacidade por design lutaram com reformulações caras e atrasos no acesso ao mercado, enquanto os primeiros movimentos ganharam uma vantagem duradoura.












