Líderes de pensamento
IA e a Luta Contra a Tecnofobia

Quando se trata de IA Geradora e Modelos de Linguagem Grande, como o ChatGPT. O entusiasmo com a IA é misturado com tecnofobia. Isso é natural para o público em geral: eles gostam de coisas novas e emocionais, mas têm medo do desconhecido. A nova coisa é que vários cientistas proeminentes se tornaram tecno-céticos, se não tecnofóbicos. O caso dos cientistas e industrialistas pedindo uma proibição de seis meses para a pesquisa de IA, ou o ceticismo do principal cientista de IA, Prof. A. Hinton, são exemplos disso. O único equivalente histórico relacionado que posso lembrar é a crítica de bombas atômicas e nucleares por parte da comunidade científica durante a Guerra Fria. Felizmente, a humanidade conseguiu lidar com essas preocupações de uma maneira razoavelmente satisfatória.
Claro, todos têm o direito de questionar o estado atual dos assuntos de IA:
- Ninguém sabe por que os Modelos de Linguagem Grande funcionam tão bem e se eles têm um limite.
- Muitos perigos que os caras ruins criam ‘bombas de IA’ espreitam, particularmente se os estados permanecerem passivos, em termos de regulamentações.
Essas são preocupações legítimas que alimentam o medo do desconhecido, mesmo para cientistas proeminentes. Afinal, eles são humanos também.
No entanto, a pesquisa de IA pode parar, mesmo temporariamente? Em minha opinião, não, pois a IA é a resposta da humanidade a uma sociedade global e um mundo físico de complexidade cada vez maior. À medida que a complexidade física e social aumenta, os processos são muito profundos e aparentemente implacáveis, a IA e a morfose do cidadão são nossa única esperança para ter uma transição suave da atual Sociedade da Informação para uma Sociedade do Conhecimento. Caso contrário, podemos enfrentar uma implosão social catastrófica.
A solução é aprofundar nosso entendimento dos avanços da IA, acelerar seu desenvolvimento, regular seu uso para maximizar seu impacto positivo, enquanto minimiza os efeitos negativos já evidentes e outros ocultos. A pesquisa de IA pode e deve se tornar diferente: mais aberta, democrática, científica e ética. Aqui está uma lista proposta de pontos para esse fim:
- A primeira palavra sobre questões importantes de pesquisa de IA que têm um grande impacto social deve ser delegada a Parlamentos e Governos eleitos, em vez de corporações ou cientistas individuais.
- Todos os esforços devem ser feitos para facilitar a exploração dos aspectos positivos da IA no progresso social e financeiro e minimizar seus aspectos negativos.
- O impacto positivo dos sistemas de IA pode superar grandemente seus aspectos negativos, se medidas regulatórias apropriadas forem tomadas. A tecnofobia não é justificada, nem é uma solução.
- Em minha opinião, a maior ameaça atual vem do fato de que tais sistemas de IA podem enganar remotamente muitos cidadãos comuns que têm pouca (ou média) educação e/ou pouca capacidade de investigação. Isso pode ser extremamente perigoso para a democracia e qualquer forma de progresso socioeconômico.
- No futuro próximo, devemos contrariar a grande ameaça que vem do uso de LLM e/ou CAN em atividades ilegais (o uso de trapaça em exames universitários é um uso relativamente benigno no espaço das possibilidades criminais relacionadas).
- Seu impacto no trabalho e nos mercados será muito positivo, a longo prazo.
- Em vista do acima, os sistemas de IA devem: a) ser obrigados por lei internacional a serem registrados em um ‘registro de sistemas de IA’, e b) notificar seus usuários de que conversam ou usam os resultados de um sistema de IA.
- Como os sistemas de IA têm um grande impacto social, e para maximizar o benefício e o progresso socioeconômico, as tecnologias de sistemas de IA avançadas devem se tornar abertas.
- Os dados relacionados à IA devem ser (pelo menos parcialmente) democratizados, novamente para maximizar o benefício e o progresso socioeconômico.
- Esquemas de compensação financeira adequados devem ser previstos para os campeões de tecnologia de IA para compensar qualquer perda de lucro devido à abertura mencionada anteriormente e para garantir fortes investimentos futuros em P&D de IA (por exemplo, por meio de patentes de tecnologia, esquemas de licenciamento obrigatórios).
- O equilíbrio da pesquisa de IA entre a Academia e a Indústria deve ser repensado para maximizar a saída de pesquisa, enquanto mantém a competitividade e concede recompensas para os riscos de P&D empreendidos.
- As práticas educacionais devem ser revisitadas em todos os níveis de educação para maximizar o benefício das tecnologias de IA, enquanto cria uma nova geração de cidadãos criativos e adaptáveis e (cientistas de IA).
- Mecanismos de regulamentação/supervisão/financiamento de IA adequados devem ser criados e reforçados para garantir o acima.
Vários desses pontos são tratados em detalhe no meu livro recente de 4 volumes sobre ‘Ciência e Sociedade de IA’, particularmente nos volumes A (reescrito em maio de 2023 para cobrir LLMs e Inteligência Artificial Geral) e C.
Referências do Livro:
Inteligência Artificial Ciência e Sociedade Parte C: Ciência de IA e Sociedade












