Inteligência artificial
Como os LLMs estão nos forçando a redefinir a inteligência

Há um velho ditado: Se se parece com um pato, nada como um pato e grasna como um pato, então provavelmente é um pato. Essa maneira simples de raciocinar, frequentemente associada ao poeta de Indiana James Whitcomb Riley, moldou a forma como pensamos sobre inteligência artificial por décadas. A ideia de que o comportamento é suficiente para identificar a inteligência inspirou o famoso "Jogo da Imitação" de Alan Turing, agora chamado de Teste de Turing.
Turing sugeriu que, se um humano não consegue dizer se está conversando com uma máquina ou com outro humano, então a máquina pode ser considerada inteligente. Tanto o teste do pato quanto o teste de Turing sugerem que o que importa não é o que está dentro de um sistema, mas como ele se comporta. Por décadas, esse teste orientou os avanços em IA. Mas, com a chegada dos grandes modelos de linguagem (LLMs), a situação mudou. Esses sistemas podem escrever textos fluentes, manter conversas e resolver tarefas de maneiras que parecem notavelmente humanas. A questão não é mais se as máquinas podem imitar a conversa humana, mas se essa imitação é verdadeira inteligência. Se um sistema pode escrever como nós, raciocinar como nós e até mesmo criar como nós, devemos chamá-lo de inteligente? Ou o comportamento por si só não é mais suficiente para medir a inteligência?
A evolução da inteligência das máquinas
Grandes modelos de linguagem mudaram a forma como pensamos sobre IA. Esses sistemas, antes limitados à geração de respostas textuais básicas, agora podem resolver problemas de lógica, escrever códigos de computador, rascunhar histórias e até mesmo auxiliar em tarefas criativas, como a escrita de roteiros. Um desenvolvimento fundamental nesse progresso é a capacidade de resolver problemas complexos por meio do raciocínio passo a passo, um método conhecido como Cadeia de pensamento raciocínio. Ao dividir um problema em partes menores, um LLM pode resolver problemas matemáticos complexos ou quebra-cabeças lógicos de uma forma semelhante à resolução de problemas humana. Essa capacidade permitiu que eles igualassem ou até superassem o desempenho humano em benchmarks avançados como MATEMÁTICA or GSM8K. Hoje, os LLMs também possuem capacidades multimodaisEles podem trabalhar com imagens, interpretar exames médicos, explicar quebra-cabeças visuais e descrever diagramas complexos. Com esses avanços, a questão não é mais se os LLMs conseguem imitar o comportamento humano, mas se esse comportamento reflete uma compreensão genuína.
Traços de pensamento semelhante ao humano
O sucesso dos LLMs está redefinindo a forma como entendemos a inteligência. O foco está mudando do alinhamento do comportamento da IA com o dos humanos, como sugerido pelo teste de Turing, para explorar o quão próximos os LLMs espelham o pensamento humano na forma como processam informações (ou seja, um pensamento verdadeiramente humano). Por exemplo, em um estudo recentePesquisadores compararam o funcionamento interno de modelos de IA com a atividade cerebral humana. O estudo descobriu que LLMs com mais de 70 bilhões de parâmetros não apenas alcançaram precisão de nível humano, mas também organizaram informações internamente de maneiras que correspondiam aos padrões do cérebro humano.
Quando humanos e modelos de IA trabalharam em tarefas de reconhecimento de padrões, exames cerebrais mostraram padrões de atividade semelhantes nos participantes humanos e padrões computacionais correspondentes nos modelos de IA. Os modelos agruparam conceitos abstratos em suas camadas internas de maneiras que correspondiam diretamente à atividade das ondas cerebrais humanas. Isso sugere que o raciocínio bem-sucedido pode exigir estruturas organizacionais semelhantes, seja em sistemas biológicos ou artificiais.
No entanto, os pesquisadores têm o cuidado de observar as limitações deste trabalho. O estudo envolveu um número relativamente pequeno de participantes humanos, e humanos e máquinas abordaram as tarefas de forma diferente. Os humanos trabalharam com padrões visuais enquanto os modelos de IA processaram descrições de texto. A correlação entre o processamento humano e o processamento por máquina é intrigante, mas não prova que as máquinas entendam conceitos da mesma forma que os humanos.
Há também diferenças claras no desempenho. Embora os melhores modelos de IA se aproximassem da precisão humana em padrões simples, eles apresentaram quedas de desempenho mais drásticas nas tarefas mais complexas em comparação com participantes humanos. Isso sugere que, apesar das semelhanças na organização, ainda pode haver diferenças fundamentais na forma como humanos e máquinas processam conceitos abstratos complexos.
A Perspectiva Cética
Apesar dessas descobertas impressionantes, um forte argumento sugere que os LLMs nada mais são do que uma imitação muito habilidosa. Essa visão vem do filósofo John Searle, em seu livro "Quarto chinês"experimento mental que ilustra por que comportamento pode não ser igual a compreensão.
Neste experimento mental, Searle nos pede para imaginar uma pessoa trancada em uma sala e que só fala inglês. A pessoa recebe símbolos chineses e usa um livro de regras em inglês para manipulá-los e produzir respostas. De fora da sala, suas respostas parecem exatamente as de um falante nativo de chinês. No entanto, Searle argumenta que a pessoa não entende nada de chinês. Ela simplesmente segue regras sem qualquer compreensão real.
Os críticos aplicam a mesma lógica aos LLMs. Eles argumentam que esses sistemas são “papagaios estocásticos" que geram respostas baseadas em padrões estatísticos em seus dados de treinamento, sem compreensão genuína. O termo "estocástico" refere-se à sua natureza probabilística, enquanto "papagaio" enfatiza seu comportamento imitativo sem compreensão real.
Várias limitações técnicas dos LLMs também corroboram esse argumento. Os LLMs frequentemente geram “alucinaçõesRespostas que parecem plausíveis, mas completamente incorretas, enganosas e sem sentido. Isso acontece porque eles selecionam palavras estatisticamente plausíveis em vez de consultar uma base de conhecimento interna ou compreender a verdade e a falsidade. Esses modelos também reproduzem erros e vieses semelhantes aos humanos. Eles se confundem com informações irrelevantes que humanos facilmente ignorariam. Eles exibem estereótipos raciais e de gênero porque aprenderam com dados que contêm esses vieses. Outra limitação reveladora é o "viés de posição", em que os modelos enfatizam demais as informações no início ou no final de documentos longos, negligenciando o conteúdo central. Isso "perdido no meio"O fenômeno sugere que esses sistemas processam informações de forma muito diferente dos humanos, que conseguem manter a atenção em documentos inteiros.
Essas limitações destacam um desafio central: embora os LLMs se destaquem no reconhecimento e na reprodução de padrões linguísticos, isso não significa que eles realmente entendam o significado ou o contexto do mundo real. Eles têm bom desempenho no tratamento da sintaxe, mas permanecem limitados em termos de semântica.
O que conta como inteligência?
O debate, em última análise, se resume a como definimos inteligência. Se inteligência é a capacidade de gerar linguagem coerente, resolver problemas e se adaptar a novas situações, então os LLMs já atendem a esse padrão. No entanto, se inteligência requer autoconsciência, compreensão genuína ou experiência subjetiva, esses sistemas ainda são insuficientes.
A dificuldade reside na falta de uma maneira clara e objetiva de mensurar qualidades como compreensão ou consciência. Tanto em humanos quanto em máquinas, nós as inferimos a partir do comportamento. O teste do pato e o teste de Turing já forneceram respostas elegantes, mas na era dos mestrados em Direito, eles podem não ser mais suficientes. Suas capacidades nos forçam a reconsiderar o que realmente conta como inteligência e se nossas definições tradicionais estão acompanhando a realidade tecnológica.
Concluindo!
Grandes modelos de linguagem desafiam a forma como definimos a inteligência da IA. Eles podem imitar o raciocínio, gerar ideias e executar tarefas antes vistas como exclusivamente humanas. No entanto, carecem da consciência e da base que moldam o pensamento verdadeiramente humano. Sua ascensão nos obriga a questionar não apenas se as máquinas agem de forma inteligente, mas também o que a inteligência em si realmente significa.












