Connect with us

A Inteligência Artificial Que Se Ensina Sozinha Já Não É Ficção Científica

Inteligência artificial

A Inteligência Artificial Que Se Ensina Sozinha Já Não É Ficção Científica

mm

As novas estruturas de inteligência artificial estão se movendo em direção a um salto radical: máquinas que se aprimoram sozinhas, sem necessidade de insight humano.

Durante anos, mesmo os modelos de inteligência artificial mais avançados permaneceram como motores passivos, prevendo respostas com base em dados de treinamento que não podiam modificar. Mas hoje, não é o tamanho do modelo que define o próximo capítulo da inteligência artificial; é se o modelo pode evoluir por conta própria.

Recentemente, pesquisadores do MIT apresentaram uma nova estrutura de inteligência artificial chamada Self-Adapting LLMs (SEAL). A abordagem permite que os grandes modelos de linguagem (LLMs) se aprimorem autonomamente, permitindo que a inteligência artificial diagnóstique suas limitações e atualize permanentemente seus próprios pesos neurais por meio de um loop de feedback interno alimentado por aprendizado por reforço. Em vez de exigir que os pesquisadores identifiquem erros, escrevam novos prompts ou forneçam exemplos adicionais, o modelo assume a responsabilidade total por sua evolução.

“Os grandes modelos de linguagem (LLMs) são poderosos, mas estáticos; eles carecem de mecanismos para adaptar seus pesos em resposta a novas tarefas, conhecimento ou exemplos”, escreveram os pesquisadores do MIT em um post de blog. “Experimentos sobre incorporação de conhecimento e generalização de poucos disparos mostram que o SEAL é um passo promissor em direção a modelos de linguagem capazes de adaptação autodirigida em resposta a novos dados.”

Em testes iniciais, esse loop de edição permitiu que os modelos passassem de falha completa para sucesso em puzzles de raciocínio abstrato complexos, superando até mesmo modelos muito maiores, como o GPT-4.1, com uma taxa de sucesso de 72,5%, onde os métodos tradicionais falharam. Além disso, o SEAL reduz a supervisão humana em 85% enquanto aumenta a precisão e a adaptabilidade.

O Surgimento de Estruturas de Inteligência Artificial Autodidatas

O SEAL faz parte de uma tendência mais ampla em direção à inteligência máquina autônoma. Pesquisadores da Sakana AI, por exemplo, apresentaram a Máquina de Darwin-Gödel—um agente de inteligência artificial que reescreve seu próprio código usando estratégias evolutivas de fim aberto.

“Ele cria várias melhorias, como uma etapa de validação de patch, visualização de arquivo melhorada, ferramentas de edição aprimoradas, geração e classificação de múltiplas soluções para escolher a melhor, e adição de um histórico do que foi tentado anteriormente (e por que falhou) ao fazer novas alterações”, escreveu a Sakana AI em um post de blog.

Da mesma forma, os agentes de inteligência artificial da Anthropic, alimentados pelo Claude 4, podem agora orquestrar fluxos de trabalho de forma autônoma em código e ferramentas de negócios.

“Um sistema que se reconfigura com base no tipo de ativo, seu ambiente e seu histórico permite passar de uma resposta reativa para uma estratégia de prevenção contínua”, disse Christian Struve, CEO e co-fundador da Fracttal, em conversa comigo. “Não se trata de mais camadas ou mais parâmetros, mas de sistemas mais autônomos e mais úteis.”

O que une esses esforços é uma crença central: a inteligência artificial não precisa aumentar de tamanho para se tornar mais inteligente. Ela precisa se tornar mais adaptável.

“A escalabilidade trouxe ganhos significativos, mas estamos alcançando os limites do que o tamanho sozinho pode alcançar. Modelos de aprendizado autoadaptáveis, como o SEAL, oferecem um próximo passo convincente, permitindo que os sistemas cresçam e se aprimorem ao longo do tempo”, disse Jorge Riera, fundador e CEO da Dataco, uma plataforma de consultoria de dados full-stack, em conversa comigo. “Modelos autoevolutivos também mudam as métricas de progresso de benchmarks estáticos para medidas de adaptabilidade, eficiência de aprendizado e melhoria segura a longo prazo. Em vez de apenas testar o que um modelo sabe na implantação, podemos avaliar como ele aprende, retém e evolui ao longo do tempo.”

Impacto no Ecossistema de Inteligência Artificial e a Corrida Global em Direção à Autonomia

Esse nível de autonomia também reescreve a economia da implantação de inteligência artificial. Imagine sistemas de detecção de fraude que se atualizam instantaneamente para contrariar novas ameaças ou tutores de inteligência artificial que mudam seu estilo de ensino com base no comportamento de um estudante. Na robótica, estruturas autoadaptáveis podem levar a máquinas autônomas que aprendem novos padrões de movimento sem precisar ser reprogramadas.

Em todo o Oriente Médio, países como os Emirados Árabes Unidos e a Arábia Saudita estão construindo rapidamente modelos fundamentais projetados para adaptação. O Falcon dos Emirados Árabes Unidos e o Jais da G42 são modelos de linguagem de código aberto construídos com relevância regional em mente, enquanto a Arábia Saudita está avançando com o ALLaM e o Metabrain da Aramco Digital para agentes de inteligência artificial autônomos para cidades inteligentes, saúde e logística.

Esses esforços ainda não são equivalentes ao SEAL em termos de capacidade de edição, mas refletem uma trajetória compartilhada: de sistemas de inteligência artificial passivos para agentes ativos e evolutivos que podem navegar complexidades com orientação humana limitada. E assim como o SEAL, essas iniciativas são apoiadas por robustos quadros de governança, destacando a crescente consciência de que a autonomia da inteligência artificial deve ser combinada com responsabilidade.

“Isso é um primeiro passo em direção a sistemas que se autogerenciam e modificam sua lógica sem intervenção constante”, diz Struve. “Acredito que a inteligência artificial não redefine o que é inteligência, mas nos obriga a repensar nossa relação com ela. O importante não é que um modelo evolua, mas que o faça alinhado com os objetivos que definimos como humanos.”

Jeff Townes, CTO da Gorilla Logic, também enfatiza a importância da governança acompanhando a evolução da inteligência artificial: “A pergunta não é se a inteligência artificial pode evoluir — é se a empresa pode evoluir com ela. A governança deve ancorar cada adaptação da inteligência artificial a resultados claros e KPIs que os líderes possam medir e confiar, para que a inovação se expanda com confiança em vez de risco.”

Estamos Preparados para Inteligência Artificial Que Reescreve a Si Mesma?

A pergunta mais provocativa que o SEAL levanta não é técnica — é que, se os modelos podem decidir como se ensinar, qual é o papel que desempenhamos em moldar seus valores, prioridades e direção?

Especialistas alertam que, à medida que os sistemas de inteligência artificial autoadaptáveis ganham autonomia, a corrida em direção ao autoaprimoramento não deve superar o estabelecimento de guardiões éticos. “Acredito que todos os sistemas de inteligência artificial devem incorporar pelo menos três princípios éticos básicos”, diz Jacob Evans, CTO da Kryterion.

“Primeiro, e isso pode parecer óbvio, mas as inteligências artificiais precisam se identificar como inteligências artificiais. Em segundo lugar, as inteligências artificiais devem ser centradas no ser humano, aumentando e não substituindo o julgamento humano. E, finalmente, elas devem reconhecer suas limitações e incertezas, enquanto se recusam a fornecer informações que possam facilitar danos graves. Sem essas salvaguardas, a inteligência artificial pode se tornar uma ferramenta de manipulação em vez de apoio confiável.”

“Para permitir que os modelos se aprimorem em produção, eles precisam de um loop de feedback dinâmico, não apenas treinamento estático. Um método poderoso é usar um ‘gêmeo digital’ ou um ambiente de areia sofisticado onde a inteligência artificial possa testar e validar suas próprias melhorias auto-geradas antes que sejam implantadas para os usuários”, compartilhou Ganesh Vanama, Engenheiro de Visão Computacional da Automotus.

Quanto à governança, Vanama acrescentou, “o controle inegociável é a supervisão ‘humano no loop’”. Ele disse que, embora queiramos que os modelos se adaptem, “você deve ter monitoramento contínuo para detectar ‘deriva de alinhamento’ onde o modelo se desvia de seus objetivos ou restrições de segurança pretendidos. Esse sistema deve dar a um auditor humano o poder de vetar ou reverter instantaneamente qualquer atualização autônoma que falhe em uma revisão de segurança ou desempenho.”

Mas outros especialistas acreditam que ainda há tempo para desenvolver essas salvaguardas, argumentando que construir uma inteligência artificial verdadeiramente robusta, de propósito geral e autoaprimorável permanece um desafio monumental.

“Tais modelos ainda carecem da capacidade de se reprogramar confiavelmente em tempo real. Desafios-chave permanecem, incluindo a prevenção do reforço de erros, a evitação do esquecimento catastrófico, a garantia de estabilidade durante as atualizações e a manutenção da transparência em torno das alterações internas”, diz Riera. “Até que esses sejam abordados, a adaptação autodirigida completa permanece uma fronteira em vez de uma realidade.”

Os pesquisadores do MIT veem o SEAL como uma evolução necessária. Como um dos principais cientistas do MIT colocou, essa estrutura atualmente apenas reflete o aprendizado humano mais de perto do que qualquer coisa que tenha vindo antes.

“Esses sistemas apontam para uma mudança de modelos estáticos e de um só disparo para arquiteturas adaptáveis que podem aprender com a experiência, gerenciar memória e perseguir metas ao longo do tempo. A direção é clara: em direção à inteligência modular, ciente do contexto e capaz de se ajustar continuamente”, disse Riera em conversa comigo. “Embora ainda esteja na fase experimental, essa abordagem marca um passo significativo em direção a sistemas de inteligência artificial mais autônomos e resilientes.”

Se isso leva a sistemas mais personalizados ou a novas formas de agência de máquina permanece ser visto. A era da inteligência artificial autodidata chegou — e está reescrevendo mais do que apenas seu próprio código; está reescrevendo as regras do que as máquinas podem se tornar.

Victor Dey é um editor e escritor de tecnologia que cobre A.I., crypto, ciência de dados, metaverso e cibersegurança dentro do âmbito empresarial. Ele tem meio década de experiência em mídia e IA trabalhando em veículos de comunicação bem conhecidos, como VentureBeat, Metaverse Post, Observer e outros. Victor mentorou fundadores de startups em programas de aceleração em universidades de ponta, incluindo a Universidade de Oxford e a Universidade do Sul da Califórnia, e possui um mestrado em ciência de dados e análise.