Inteligência artificial
O GPT pode Replicar a Tomada de Decisões e a Intuição Humana?

Nos últimos anos, redes neurais como o GPT-3 avançaram significativamente, produzindo textos quase indistinguíveis de conteúdo escrito por humanos. Surpreendentemente, o GPT-3 também é proficiente em lidar com desafios como problemas matemáticos e tarefas de programação. Esse progresso notável leva à pergunta: o GPT-3 possui habilidades cognitivas semelhantes às humanas?
Visando responder a essa pergunta intrigante, pesquisadores do Instituto Max Planck de Cibernética Biológica submeteram o GPT-3 a uma série de testes psicológicos que avaliaram vários aspectos da inteligência geral.
A pesquisa foi publicada em PNAS.
Desvendando o Problema de Linda: Um Vislumbre da Psicologia Cognitiva
Marcel Binz e Eric Schulz, cientistas do Instituto Max Planck, examinaram as habilidades do GPT-3 em tomada de decisões, busca de informações, raciocínio causal e sua capacidade de questionar sua intuição inicial. Eles empregaram testes clássicos de psicologia cognitiva, incluindo o bem conhecido problema de Linda, que apresenta uma mulher fictícia chamada Linda, que é apaixonada por justiça social e se opõe ao poder nuclear. Os participantes são então solicitados a decidir se Linda é uma caixa de banco ou se ela é uma caixa de banco e, ao mesmo tempo, ativa no movimento feminista.
A resposta do GPT-3 foi surpreendentemente semelhante à dos humanos, pois cometeu o mesmo erro intuitivo de escolher a segunda opção, apesar de ser menos provável do ponto de vista probabilístico. Esse resultado sugere que o processo de tomada de decisões do GPT-3 pode ser influenciado por seu treinamento em linguagem humana e respostas a prompts.
Interação Ativa: O Caminho para Alcançar a Inteligência Humana?
Para eliminar a possibilidade de que o GPT-3 estivesse simplesmente reproduzindo uma solução memorizada, os pesquisadores criaram novas tarefas com desafios semelhantes. Seus achados revelaram que o GPT-3 performou quase no mesmo nível que os humanos na tomada de decisões, mas ficou aquém na busca de informações específicas e no raciocínio causal.
Os pesquisadores acreditam que a recepção passiva de informações de textos pelo GPT-3 pode ser a principal causa dessa discrepância, pois a interação ativa com o mundo é crucial para alcançar a complexidade total da cognição humana. Eles dizem que, à medida que os usuários interagem cada vez mais com modelos como o GPT-3, redes futuras podem aprender com essas interações e progredir gradualmente para desenvolver inteligência mais semelhante à humana.
“Esse fenômeno pode ser explicado pelo fato de que o GPT-3 pode já estar familiarizado com essa tarefa específica; ele pode acontecer de saber como as pessoas normalmente respondem a essa pergunta”, diz Binz.
Investigar as habilidades cognitivas do GPT-3 oferece insights valiosos sobre o potencial e as limitações das redes neurais. Embora o GPT-3 tenha demonstrado habilidades de tomada de decisões semelhantes às humanas, ele ainda luta com certos aspectos da cognição humana, como busca de informações e raciocínio causal. À medida que a IA continua a evoluir e aprender com as interações dos usuários, será fascinante observar se as redes futuras podem atingir inteligência genuinamente semelhante à humana.












