Líderes de pensamento
Novo modelo GPAI da Comissão Europeia: O que isso significa para o treinamento em IA?

Em Julho, a Comissão Europeia (CE) divulgou uma nova inteligência artificial de propósito geral (GPAI) modelo. Isso significa que os provedores de IA devem divulgar o conteúdo inserido nos modelos para treiná-los. Isso ocorre após meses e meses de manchetes sobre criadores alegando que o conteúdo foi usado sem consentimento para treinar IA.
Com este novo modelo, a UE deixou clara sua posição: a transparência agora é inegociável. Treinamento em caixa-preta, onde algo é criado sem revelar seu funcionamento interno, não será uma opção para desenvolvedores de IA. Isso marca uma mudança significativa, pois operar na Europa agora exigirá visibilidade total das entradas do modelo e da procedência dos dados de treinamento, forçando uma reavaliação da coleta e do uso de dados.
Muitos apontaram a grande diferença entre este e o recentemente lançado Plano de Ação de IA dos EUA, que se concentra fortemente na desregulamentação. Como acontece com qualquer nova lei ou regulamentação, as empresas agora precisam fazer um balanço e avaliar exatamente como o modelo do GPAI impactará suas operações.
Se estiverem operando em diferentes regiões, farão o mesmo com o Plano de Ação para IA dos EUA, complicando ainda mais as coisas. Devido à natureza complexa desses planos e ao fato de que regular o desenvolvimento da IA dessa forma é um território inexplorado, os resultados dos desenvolvedores provavelmente serão muito diferentes.
Dissecando o Modelo de IA de Uso Geral
Em julho deste ano, a Comissão Europeia publicou um modelo obrigatório para provedores de GPAI, permitindo que eles publiquem um resumo público dos dados usados para treinar seus modelos. Como parte da Lei de IA da UE, os provedores devem divulgar categorias de dados como conjuntos de dados disponíveis publicamente, dados privados licenciados, conteúdo da web extraído, dados de usuários e dados sintéticos. O objetivo é permitir que detentores de direitos autorais, usuários e desenvolvedores a jusante exerçam seus direitos legais sob a legislação da UE.
Os GPTs são treinados com grandes quantidades de dados; no entanto, no mercado atual, há poucas informações disponíveis sobre a origem desses dados. O resumo público que este modelo apresenta fornecerá uma visão geral abrangente dos dados usados para treinar um modelo, listará as principais coleções de dados e explicará outras fontes utilizadas.
Comparar e contrastar, Plano de Ação de IA dos EUA
Em comparação, o EUA são inflexíveis A China vencerá a corrida da IA e manterá sua vantagem competitiva sobre a China, já que o governo Trump anunciou seu Plano de Ação para IA no início deste verão. Essa nova estrutura de IA visa acelerar a construção de data centers com alto consumo de energia que alimentarão sistemas de IA, flexibilizando as regulamentações ambientais. Ao mesmo tempo, busca aumentar a exportação global de tecnologias de IA americanas. Com 90 recomendações, o plano reflete os crescentes esforços dos EUA para se manter à frente de seus concorrentes globais.
O plano é construído em torno de três pilares principais: acelerar a inovação, construir a infraestrutura de IA dos Estados Unidos e promover a liderança na diplomacia e segurança internacional de IA.
Como parte disso, uma conclusão fundamental do plano destacou o impulso americano em direção ao "código aberto" para impulsionar tanto a inovação quanto a acessibilidade. Da mesma forma, o plano destaca como o governo dos EUA irá...lidere pelo exemplo' quando se trata de crescimento da IA – por meio de treinamento, intercâmbio de talentos e expansão da adoção em todos os setores.
Com este plano, os EUA pretendem simplificar todas as suas regulamentações tecnológicas atuais, especialmente as ambientais, para garantir que a legislação não esteja desacelerando o crescimento, ao mesmo tempo em que incentivam uma distribuição internacional mais ampla de software e hardware de IA dos EUA. Essa abordagem "antirregulatória" marca uma mudança clara em relação às estruturas anteriores centradas em ética, transparência e inovação responsável – caminhando para um plano de ação mais agressivo, com foco em "inovação em primeiro lugar".
O Missing Piece
Vale a pena dar um passo para trás neste momento e considerar se essas leis, embora diferentes, podem sofrer das mesmas falhas que farão com que os desenvolvedores vejam falta de valor em cumpri-las. As abordagens da UE e dos EUA deixam uma lacuna crítica em relação à propriedade intelectual em conjuntos de dados de treinamento de IA. A Lei de IA da UE exige resumos de dados de treinamento e uma política de conformidade com direitos autorais, mas não estabelece uma estrutura escalável para identificar ou licenciar obras protegidas por direitos autorais.
Nos EUA, não existem regras específicas, o que deixa as empresas de IA à mercê de um arcabouço jurídico em constante evolução, moldado por decisões judiciais e disputas em andamento com detentores de direitos. Além do texto legal, o que falta é o lado prático; nenhuma das abordagens estabelece métodos viáveis e abrangentes para detectar conteúdo protegido em larga escala, verificar o uso legal ou agilizar o licenciamento. Até que tais soluções sejam definidas, a incerteza em torno dos direitos autorais no treinamento de IA continuará sendo um desafio significativo para o setor.
O custo oculto das empresas que ignoram a rastreabilidade da IA
Apesar de algumas falhas nessas regulamentações, presume-se que elas farão com que os desenvolvedores de IA se concentrem muito em como se manter à tona do ponto de vista legal – mas nem sempre é esse o caso. Na verdade, a verdadeira divisão na IA atualmente não é entre a regulamentação da UE e dos EUA, mas entre as empresas que estão investindo em rastreabilidade hoje e aquelas que apostam que não precisarão. Isso é uma repetição do que vimos anos atrás com a implementação do Regulamento Geral sobre a Proteção de Dados (GDPR) – empresas que desenvolveram a privacidade desde o design antecipadamente não apenas evitaram multas, mas também conquistaram a confiança do consumidor e acesso mais fácil a outros mercados que posteriormente espelharam os padrões do GDPR.
O mesmo padrão pode estar surgindo com a IA. A rastreabilidade dos dados de treinamento e das decisões de modelo provavelmente se tornará uma referência global, e as empresas que adiarem terão que redesenhar seus sistemas no futuro. Voltar para adicionar documentação, rastreamento de procedência e recursos de auditoria a um sistema existente é muito mais caro e complexo do que incorporá-los desde o início, desviando o foco de projetos mais focados em ROI que a empresa deseja concluir.
Em outras palavras, rastreabilidade e transparência não são opcionais; devem ser incorporadas aos sistemas de IA desde o primeiro dia. Empresas que as tratam como algo secundário correm o risco de estagnar a inovação, enfrentar reações regulatórias negativas e perder a corrida indefinidamente.
A IA ética precisa de unidade global
De uma perspectiva macro, essas abordagens polarizadas criam um problema real para as empresas globais. Empresas em mercados mais leves, como os EUA, podem crescer mais rapidamente no curto prazo, mas, ao decidirem entrar na UE, enfrentam um obstáculo à conformidade: as regras de rastreabilidade e documentação da Lei de IA exigem capacidades que elas nunca desenvolveram.
Adaptar recursos de rastreamento de procedência, documentação e auditoria a um sistema existente é custoso, lento e disruptivo, especialmente porque a rastreabilidade é uma das partes da conformidade que mais consome recursos. É o mesmo padrão que vimos com o GDPR, onde os retardatários da privacidade por design enfrentaram revisões caras e atrasos no acesso ao mercado, enquanto os pioneiros obtiveram uma vantagem duradoura.












