Connect with us

Inteligência artificial

Os Modelos de IA Estão se Tornando Commodities?

mm

O CEO da Microsoft, Satya Nadella, recentemente despertou um debate ao sugerir que os modelos de IA avançados estão no caminho da commoditização. Em um podcast, Nadella observou que os modelos fundamentais estão se tornando cada vez mais semelhantes e amplamente disponíveis, a ponto de “os modelos por si só não são suficientes” para uma vantagem competitiva duradoura. Ele destacou que a OpenAI – apesar de suas redes neurais de ponta – “não é uma empresa de modelos; é uma empresa de produtos que acontece de ter modelos fantásticos”, enfatizando que a verdadeira vantagem vem de construir produtos em torno dos modelos.

Em outras palavras, simplesmente ter o modelo mais avançado pode não garantir mais a liderança no mercado, pois qualquer vantagem de desempenho pode ser de curta duração diante do ritmo acelerado da inovação em IA.

A perspectiva de Nadella tem peso em uma indústria onde os gigantes da tecnologia estão correndo para treinar modelos cada vez maiores. Seu argumento implica uma mudança de foco: em vez de se obsessar com a supremacia do modelo, as empresas devem direcionar energia para integrar a IA em “uma pilha de sistema completa e produtos bem-sucedidos”.

Isso ecoa um sentimento mais amplo de que as breakthroughs de IA de hoje se tornam rapidamente as funcionalidades básicas de amanhã. À medida que os modelos se tornam mais padronizados e acessíveis, o foco muda para como a IA é aplicada em serviços do mundo real. Empresas como a Microsoft e o Google, com vastos ecossistemas de produtos, podem estar melhor posicionadas para capitalizar essa tendência de IA commoditizada, incorporando modelos em ofertas amigáveis ao usuário.

Acesso Ampliado e Modelos Abertos

Não faz muito tempo, apenas alguns laboratórios podiam construir modelos de IA de ponta, mas essa exclusividade está desaparecendo rapidamente. As capacidades de IA estão se tornando cada vez mais acessíveis a organizações e até mesmo a indivíduos, alimentando a noção de modelos como commodities. O pesquisador de IA Andrew Ng já em 2017 comparou o potencial da IA a “a nova eletricidade,” sugerindo que, assim como a eletricidade se tornou uma commodity ubíqua que sustenta a vida moderna, os modelos de IA poderiam se tornar utilidades fundamentais disponíveis de muitos fornecedores.

A recente proliferação de modelos de código aberto acelerou essa tendência. A Meta (empresa-mãe do Facebook), por exemplo, fez ondas ao liberar modelos de linguagem poderosos como LLaMA abertamente para pesquisadores e desenvolvedores sem custo. O raciocínio é estratégico: ao abrir o seu IA, a Meta pode estimular uma adoção mais ampla e obter contribuições da comunidade, enquanto subverte as vantagens proprietárias dos rivais. E ainda mais recentemente, o mundo de IA explodiu com o lançamento do modelo chinês DeepSeek.

No domínio da geração de imagens, o modelo Stable Diffusion da Stability AI mostrou como rapidamente uma breakthrough pode se tornar commoditizada: dentro de meses de seu lançamento aberto em 2022, ele se tornou um nome familiar na IA gerativa, disponível em inúmeras aplicações. De fato, o ecossistema de código aberto está explodindo – existem dezenas de milhares de modelos de IA disponíveis publicamente em repositórios como o Hugging Face.

Essa ubiquidade significa que as organizações não enfrentam mais uma escolha binária de pagar por um modelo secreto de um único fornecedor ou nada. Em vez disso, elas podem escolher de um menu de modelos (abertos ou comerciais) ou até mesmo ajustar finamente os seus próprios, assim como selecionar commodities de um catálogo. A mera quantidade de opções é uma forte indicação de que a IA avançada está se tornando um recurso amplamente compartilhado em vez de um privilégio estreitamente guardado.

Os Gigantes das Nuvens Transformando a IA em um Serviço de Utilidade

Os principais fornecedores de nuvem têm sido os principais facilitadores – e impulsionadores – da commoditização da IA. Empresas como a Microsoft, Amazon e Google estão oferecendo modelos de IA como serviços sob demanda, semelhantes a utilidades entregues pela nuvem. Nadella observou que “os modelos estão se tornando commodities na [nuvem],” destacando como a nuvem torna a IA poderosa amplamente acessível.

De fato, a nuvem Azure da Microsoft tem uma parceria com a OpenAI, permitindo que qualquer desenvolvedor ou empresa acesse o GPT-4 ou outros modelos de ponta por meio de uma chamada de API, sem construir sua própria IA do zero. A Amazon Web Services (AWS) deu um passo além com sua plataforma Bedrock, que atua como um mercado de modelos. A AWS Bedrock oferece uma seleção de modelos fundamentais de várias empresas de IA líderes – desde os próprios modelos da Amazon até os da Anthropic, AI21 Labs, Stability AI e outros – todos acessíveis por meio de um serviço gerenciado.

Essa abordagem “muitos modelos, uma plataforma” exemplifica a commoditização: os clientes podem escolher o modelo que atende às suas necessidades e mudar de fornecedor com relativa facilidade, como se estivessem comprando uma commodity.

Em termos práticos, isso significa que as empresas podem confiar nas plataformas de nuvem para sempre ter um modelo de ponta disponível, muito como a eletricidade de uma rede – e se um novo modelo chamar a atenção (digamos, uma breakthrough de uma startup), a nuvem prontamente o oferecerá.

Diferenciação Além do Próprio Modelo

Se todos têm acesso a modelos de IA semelhantes, como as empresas de IA se diferenciam? Essa é a essência do debate sobre a commoditização. O consenso entre os líderes da indústria é que o valor residirá na aplicação da IA, não apenas no algoritmo. A própria estratégia da OpenAI reflete essa mudança. A empresa tem se concentrado nos últimos anos em entregar um produto polido (ChatGPT e sua API) e um ecossistema de melhorias – como serviços de ajuste fino, plugins e interfaces amigáveis ao usuário – em vez de simplesmente liberar o código bruto do modelo.

Na prática, isso significa oferecer desempenho confiável, opções de personalização e ferramentas para desenvolvedores em torno do modelo. Da mesma forma, as equipes DeepMind e Brain do Google, agora parte do Google DeepMind, estão canalizando suas pesquisas para os produtos do Google, como busca, aplicativos de escritório e APIs de nuvem – incorporando a IA para tornar esses serviços mais inteligentes. A sofisticação técnica do modelo é certamente importante, mas o Google sabe que os usuários se importam ultimatemente com as experiências habilitadas pela IA (um mecanismo de busca melhor, um assistente digital mais útil, etc.), não com o nome ou tamanho do modelo.

Também estamos vendo empresas se diferenciarem por meio da especialização. Em vez de um modelo para reinar sobre todos, algumas empresas de IA constroem modelos personalizados para domínios ou tarefas específicas, onde elas podem reivindicar uma qualidade superior, mesmo em um cenário commoditizado. Por exemplo, existem startups de IA que se concentram exclusivamente em diagnósticos de saúde, finanças ou direito – áreas onde dados proprietários e expertise de domínio podem produzir um melhor modelo para essa nicho do que um sistema de propósito geral. Essas empresas aproveitam o ajuste fino de modelos abertos ou modelos menores personalizados, combinados com dados proprietários, para se destacar.

Interface do ChatGPT da OpenAI e coleção de modelos especializados (Unite AI/Alex McFarland)

Outra forma de diferenciação é a eficiência e o custo. Um modelo que entrega desempenho igual a uma fração do custo computacional pode ser uma vantagem competitiva. Isso foi destacado pelo surgimento do modelo R1 do DeepSeek, que supostamente igualou algumas das capacidades do GPT-4 da OpenAI com um custo de treinamento de menos de $6 milhões, dramaticamente menor do que os estimados $100+ milhões gastos no GPT-4. Tais ganhos de eficiência sugerem que, embora as saídas de diferentes modelos possam se tornar semelhantes, um fornecedor pode se distinguir alcançando esses resultados de forma mais barata ou rápida.

Finalmente, há a corrida para construir lealdade do usuário e ecossistemas em torno dos serviços de IA. Uma vez que uma empresa integra profundamente um modelo de IA específico em seu fluxo de trabalho (com prompts personalizados, integrações e dados ajustados finamente), mudar para outro modelo não é sem atrito. Fornecedores como a OpenAI, Microsoft e outros estão tentando aumentar essa aderência, oferecendo plataformas abrangentes – desde SDKs para desenvolvedores até mercados de plugins de IA – que tornam sua versão de IA mais uma solução de pilha completa do que uma commodity substituível.

As empresas estão subindo a corrente de valor: quando o modelo em si não é mais uma trincheira, a diferenciação vem de tudo o que cerca o modelo – os dados, a experiência do usuário, a expertise vertical e a integração em sistemas existentes.

Efeitos Econômicos da IA Commoditizada

A commoditização dos modelos de IA carrega implicações econômicas significativas. No curto prazo, está impulsionando o custo das capacidades de IA para baixo. Com vários concorrentes e alternativas abertas, o preço dos serviços de IA tem sido em uma espiral descendente reminiscente de mercados de commodities clássicos.

Nos últimos dois anos, a OpenAI e outros fornecedores reduziram drasticamente os preços para acessar modelos de linguagem. Por exemplo, o preço por token da OpenAI para sua série GPT caiu mais de 80% de 2023 para 2024, uma redução atribuída ao aumento da concorrência e ganhos de eficiência.

Da mesma forma, novos entrantes que oferecem modelos mais baratos ou de código aberto forçam os incumbentes a oferecer mais por menos – seja por meio de camadas gratuitas, lançamentos de código aberto ou ofertas em pacotes. Isso é uma boa notícia para os consumidores e empresas que adotam a IA, pois as capacidades avançadas se tornam cada vez mais acessíveis. Também significa que a tecnologia de IA está se espalhando mais rápido pela economia: quando algo se torna mais barato e padronizado, mais indústrias o incorporam, impulsionando a inovação (assim como o hardware de PC barato e commoditizado na década de 2000 levou a uma explosão de serviços de software e internet).

Já estamos vendo uma onda de adoção de IA em setores como atendimento ao cliente, marketing e operações, impulsionada por modelos e serviços prontamente disponíveis. A disponibilidade mais ampla pode, portanto, expandir o mercado geral de soluções de IA, mesmo que as margens de lucro sobre os modelos em si encolham.

Dinâmica econômica da IA commoditizada (Unite AI/Alex McFarland)

No entanto, a commoditização também pode remodelar o cenário competitivo de maneiras desafiadoras. Para os laboratórios de IA estabelecidos que investiram bilhões no desenvolvimento de modelos de fronteira, a perspectiva de que esses modelos rendam apenas vantagens transitórias levanta questões sobre o ROI. Eles podem precisar ajustar seus modelos de negócios – por exemplo, focando em serviços empresariais, vantagens de dados proprietários ou produtos de assinatura construídos sobre os modelos, em vez de vender apenas acesso à API.

Há também um elemento de corrida armamentista: quando qualquer breakthrough em desempenho é rapidamente igualado ou superado por outros (ou até mesmo por comunidades de código aberto), a janela para monetizar um modelo novo se estreita. Essa dinâmica impulsiona as empresas a considerar moats econômicos alternativos. Um desses moats é a integração com dados proprietários (que não são commoditizados) – a IA ajustada em dados ricos de uma empresa pode ser mais valiosa para essa empresa do que qualquer modelo genérico.

Outro é o recurso de regulamentação ou conformidade, onde um fornecedor pode oferecer modelos com privacidade ou conformidade garantidas para uso empresarial, diferenciando-se de uma forma além da tecnologia bruta. Em uma escala macro, se os modelos de IA fundamentais se tornarem tão ubíquos quanto bancos de dados ou servidores web, podemos ver uma mudança na qual os serviços em torno da IA (hospedagem em nuvem, consultoria, personalizações, manutenção) se tornem os principais geradores de receita. Já os fornecedores de nuvem se beneficiam do aumento da demanda por infraestrutura computacional (CPUs, GPUs, etc.) para executar todos esses modelos – um pouco como uma utilidade elétrica lucra com o uso, mesmo que os aparelhos sejam commoditizados.

Em essência, a economia da IA pode espelhar a de outras commodities de TI: custos mais baixos e acesso mais amplo impulsionam o uso generalizado, criando novas oportunidades construídas sobre a camada commoditizada, mesmo que os fornecedores dessa camada enfrentem margens mais apertadas e a necessidade de inovar constantemente ou se diferenciar em outro lugar.

Alex McFarland é um jornalista e escritor de IA que explora os últimos desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups de IA e publicações em todo o mundo.