InteligĂȘncia Geral Artificial
AGI-22 destaca o progresso no desenvolvimento de inteligĂȘncia artificial geral

Recentemente participei do 15th conferĂȘncia anual sobre InteligĂȘncia Artificial em Geral (AGI-22) que aconteceu em Seattle em agosto deste ano, na tentativa de me familiarizar com os novos desenvolvimentos que poderiam levar Ă eventual criação de uma InteligĂȘncia Geral Artificial (AGI).
Uma AGI Ă© um tipo de IA avançada que pode generalizar em vĂĄrios domĂnios e nĂŁo tem escopo restrito. Exemplos de IA estreita incluem um veĂculo autĂŽnomo, um chatbot, um bot de xadrez ou qualquer outra IA projetada para um Ășnico propĂłsito. Uma AGI, em comparação, seria capaz de alternar com flexibilidade entre qualquer um dos itens acima ou qualquer outro campo de especialização. Consiste em um tipo especulativo de IA que tiraria proveito de algoritmos nascentes, como transferir aprendizado, e aprendizagem evolutiva, ao mesmo tempo em que explora algoritmos legados, como aprendizagem por reforço profundo.
Durante a sessĂŁo de abertura, Ben Goertzel, um pesquisador de IA, CEO e fundador da SingularityNET, e lĂder do Fundação OpenCog falou sobre o estado da indĂșstria. Ele parecia entusiasmado com a direção futura da AGI, afirmando que âestamos a anos de distĂąncia, em vez de dĂ©cadasâ. Isso colocaria o eventual lançamento de um AGI em aproximadamente 2029, o mesmo ano em que ray Kurzweil um dos principais inventores, pensadores e futuristas do mundo previu o surgimento de uma IA que atingiria o nĂvel de inteligĂȘncia humana.
A teoria diz que, uma vez que esse tipo de inteligĂȘncia Ă© alcançado, a IA se autoaperfeiçoa imediata e continuamente para superar rapidamente a inteligĂȘncia humana no que Ă© conhecido como superinteligĂȘncia.
outro locutor Charles J. Simon, o fundador e CEO da IA futura declarou em uma sessĂŁo separada, âo surgimento de AGI serĂĄ gradualâ e âAGI Ă© inevitĂĄvel e chegarĂĄ mais cedo do que a maioria das pessoas pensa, pode levar alguns anosâ.
Mesmo com esse sentimento otimista, existem obstĂĄculos significativos no espaço. Ben Goertzel tambĂ©m reconheceu que, para alcançar a AGI, âprecisamos de uma infusĂŁo de novas ideias, nĂŁo apenas ampliar as redes neuraisâ. Este Ă© um sentimento compartilhado por Gary Marcus, conhecido por afirmar que âo aprendizado profundo atingiu uma paredeâ.
Alguns dos principais desafios para a criação de um AGI incluem descobrir um sistema de recompensas que possa dimensionar a inteligĂȘncia da maneira mais informada possĂvel. Paradoxo de Moravec reflete o problema atual com a obtenção de AGI com nossa tecnologia atual. Esse paradoxo afirma que as adaptaçÔes intuitivas para uma criança de um ano, como aprender a andar e simular a realidade, sĂŁo muito mais difĂceis de programar em uma IA do que o que os humanos percebem como difĂcil.
Para os humanos, Ă© o oposto, dominar o xadrez ou executar fĂłrmulas matemĂĄticas complexas pode exigir uma vida inteira para dominar, mas essas sĂŁo duas tarefas razoavelmente fĂĄceis para IAs limitados.
Uma das soluçÔes para esse paradoxo pode ser o aprendizado evolucionårio, também conhecido como algoritmos evolutivos. Isso essencialmente permite que uma IA procure soluçÔes complexas, imitando o processo de evolução biológica.
Em uma sessĂŁo de perguntas e respostas separada, Ben Goertzel afirmou que âAGI nĂŁo Ă© inevitĂĄvel, mas Ă© altamente provĂĄvelâ. Essa Ă© a mesma conclusĂŁo a que cheguei, mas a linha entre inevitabilidade e probabilidade se confunde.
Durante a conferĂȘncia, muitos trabalhos foram apresentados, um dos trabalhos notĂĄveis ââque foi discutido foi Funtores Polinomiais: Uma Teoria Geral da Interação por David Spivak do Topos Institute em Berkeley, CA e Nelson Niu da Universidade de Washington, em Seattle, WA. Este artigo discute uma categoria matemĂĄtica chamada Poly que pode influenciar a direção futura da IA ââquando se trata de relacionamentos Ăntimos com processos dinĂąmicos, tomada de decisĂŁo e armazenamento e transformação de dados. Resta saber como isso influenciarĂĄ a pesquisa da AGI, mas pode ser um dos componentes que faltam que podem nos levar Ă AGI.
Ă claro que houve outros artigos mais especulativos, como o Ăndice de Versatilidade-EficiĂȘncia (VEI): Rumo a uma definição abrangente de QI para agentes AGI, de Mohammadreza Alidoust. A ideia Ă© construir um forma alternativa para medir o nĂvel de inteligĂȘncia de sistemas inteligentes, um tipo de teste de QI para medir agentes AGI de forma computacional.
Duas empresas notĂĄveis ââque podem fazer avanços nessa tecnologia subjacente sĂŁo a OpenAI e a DeepMind, ambas ausentes. Pode ser por medo de que a AGI nĂŁo seja levada a sĂ©rio pela comunidade de IA, mas sĂŁo as duas empresas com maior probabilidade de fazer o primeiro avanço nesse campo. Isto Ă© especialmente verdadeiro desde MissĂŁo declarada da OpenAI Ă© conduzir pesquisas fundamentais e de longo prazo para a criação de um AGI seguro.
Embora nĂŁo houvesse grandes avanços revolucionĂĄrios a serem revelados na conferĂȘncia, estĂĄ claro que a AGI estĂĄ preocupando muitos pesquisadores e Ă© algo que a comunidade de IA deveria prestar mais atenção. Afinal, um AGI pode ser a solução para resolver as mĂșltiplas ameaças existenciais da humanidade.












