Connect with us

AGI

A IA é uma Ameaça Existencial?

mm

Quando se discute Inteligência Artificial (IA), um debate comum é se a IA é uma ameaça existencial. A resposta requer entender a tecnologia por trás do Aprendizado de Máquina (ML) e reconhecer que os humanos têm a tendência de antropomorfizar. Vamos explorar dois tipos diferentes de IA, Inteligência Artificial Estreita (ANI), que está disponível agora e é causa de preocupação, e a ameaça que é mais comumente associada a representações apocalípticas de IA, que é Inteligência Artificial Geral (AGI).

Ameaças de Inteligência Artificial Estreita

Para entender o que é ANI, você simplesmente precisa entender que cada aplicativo de IA atualmente disponível é uma forma de ANI. Esses são campos de IA que têm uma área de especialização estreita, por exemplo, veículos autônomos usam IA projetada com o único propósito de mover um veículo de um ponto A para um ponto B. Outro tipo de ANI pode ser um programa de xadrez que é otimizado para jogar xadrez, e mesmo que o programa de xadrez melhore continuamente a si mesmo usando aprendizado por reforço, o programa de xadrez nunca será capaz de operar um veículo autônomo.

Com seu foco em qualquer operação de que é responsável, os sistemas ANI são incapazes de usar aprendizado generalizado para tomar o mundo. Essa é a boa notícia; a má notícia é que, com sua dependência de um operador humano, o sistema de IA é suscetível a dados enviesados, erros humanos ou, pior ainda, um operador humano desonesto.

Vigilância por IA

Pode não haver maior perigo para a humanidade do que os humanos usando IA para invadir a privacidade e, em alguns casos, usando vigilância por IA para prevenir completamente que as pessoas se movam livremente. China, Rússia e outras nações aprovaram regulamentações durante a COVID-19 para permitir que monitorassem e controlassem o movimento de suas respectivas populações. Essas são leis que, uma vez em vigor, são difíceis de remover, especialmente em sociedades que apresentam líderes autocráticos.

Na China, câmeras são instaladas fora das casas das pessoas e, em alguns casos, dentro da casa da pessoa. Cada vez que um membro da família sai, uma IA monitora o horário de chegada e partida e, se necessário, alerta as autoridades. Como se isso não fosse suficiente, com a ajuda da tecnologia de reconhecimento facial, a China é capaz de rastrear o movimento de cada pessoa sempre que ela é identificada por uma câmera. Isso oferece poder absoluto à entidade que controla a IA e absolutamente zero recurso para seus cidadãos.

Por que esse cenário é perigoso é que governos corruptos podem monitorar cuidadosamente os movimentos de jornalistas, opositores políticos ou qualquer um que ouse questionar a autoridade do governo. É fácil entender como jornalistas e cidadãos seriam cautelosos em criticar governos quando cada movimento está sendo monitorado.

Felizmente, muitas cidades estão lutando para evitar que o reconhecimento facial infiltre suas cidades. Notadamente, Portland, Oregon, aprovou recentemente uma lei que bloqueia o reconhecimento facial de ser usado desnecessariamente na cidade. Embora essas mudanças na regulamentação possam ter passado despercebidas pelo público em geral, no futuro, essas regulamentações podem ser a diferença entre cidades que oferecem algum tipo de autonomia e liberdade e cidades que se sentem oprimidas.

Armas Autônomas e Drones

Mais de 4500 pesquisadores de IA estão pedindo uma proibição de armas autônomas e criaram o site Ban Lethal Autonomous Weapons. O grupo tem muitos signatários notáveis, como Human Rights Watch, Amnesty International e o Instituto Future of Life, que por si só tem um conselho científico de alto nível, incluindo Elon Musk, Nick Bostrom e Stuart Russell.

Antes de continuar, compartilharei esta citação do Instituto Future of Life, que explica melhor por que há causa para preocupação: “Em contraste com armas semi-autônomas que exigem supervisão humana para garantir que cada alvo seja validado como eticamente e legalmente legítimo, essas armas autônomas totalmente autônomas selecionam e engajam alvos sem intervenção humana, representando a automação completa de dano letal.”

Atualmente, bombas inteligentes são implantadas com um alvo selecionado por um humano e a bomba usa IA para traçar um curso e aterrissar em seu alvo. O problema é o que acontece quando decidimos remover completamente o humano da equação?

Quando uma IA escolhe quais humanos precisam ser alvo, bem como o tipo de dano colateral que é considerado aceitável, podemos ter cruzado um ponto de não retorno. É por isso que muitos pesquisadores de IA se opõem a pesquisar qualquer coisa que esteja remotamente relacionada a armas autônomas.

Há vários problemas em tentar bloquear a pesquisa de armas autônomas. O primeiro problema é que, mesmo que nações avançadas, como Canadá, EUA e a maioria da Europa, concordem com a proibição, não significa que nações desonestas, como China, Coreia do Norte, Irã e Rússia, jogarão de acordo. O segundo e maior problema é que a pesquisa e as aplicações de IA projetadas para uso em um campo podem ser usadas em um campo completamente não relacionado.

Por exemplo, a visão computacional melhora continuamente e é importante para o desenvolvimento de veículos autônomos, medicina de precisão e outros casos de uso importantes. Também é fundamental para drones regulares ou drones que possam ser modificados para se tornar autônomos. Um caso de uso potencial de tecnologia de drone avançada é o desenvolvimento de drones que possam monitorar e combater incêndios florestais. Isso removeria completamente os bombeiros do perigo. Para fazer isso, você precisaria construir drones capazes de voar para o perigo, navegar em visibilidade baixa ou zero e ser capaz de soltar água com precisão impecável. Não é um grande salto para usar essa tecnologia idêntica em um drone autônomo projetado para alvo seletivo de humanos.

É um dilema perigoso e, nesse momento, ninguém entende completamente as implicações de avançar ou tentar bloquear o desenvolvimento de armas autônomas. No entanto, é algo que precisamos manter os olhos. Melhorar proteção a denunciantes pode permitir que aqueles no campo relatem abusos.

Além do operador desonesto, o que acontece se o viés de IA se infiltrar na tecnologia de IA projetada para ser uma arma autônoma?

Viés de IA

Uma das ameaças menos divulgadas de IA é o viés de IA. Isso é simples de entender, pois a maior parte é involuntária. O viés de IA se infiltra quando uma IA revisa os dados fornecidos por humanos, usando reconhecimento de padrões nos dados fornecidos à IA, a IA alcança conclusões indesejadas que podem ter consequências negativas para a sociedade. Por exemplo, uma IA alimentada com literatura do século passado sobre como identificar pessoal médico pode alcançar a conclusão indesejada de que mulheres são sempre enfermeiras e homens são sempre médicos.

Um cenário mais perigoso é quando a IA usada para sentenciar criminosos condenados é enviesada para dar penas de prisão mais longas para minorias. Os algoritmos de avaliação de risco criminal da IA simplesmente estudam padrões nos dados que foram alimentados no sistema. Esses dados indicam que historicamente certas minorias são mais propensas a reofender, mesmo quando isso se deve a conjuntos de dados ruins que podem ser influenciados por perfis raciais da polícia. A IA enviesada reforça políticas humanas negativas. É por isso que a IA deve ser uma diretriz, nunca juiz e júri.

Voltando às armas autônomas, se tivermos uma IA que é enviesada contra certos grupos étnicos, ela pode escolher alvo certos indivíduos com base em dados enviesados e pode chegar ao ponto de garantir que qualquer tipo de dano colateral afete certas demografias menos do que outras. Por exemplo, ao alvoar um terrorista, antes de atacar, poderia esperar até que o terrorista esteja cercado por aqueles que seguem a fé muçulmana em vez de cristãos.

Felizmente, foi provado que a IA projetada com equipes diversificadas é menos propensa a viés. Isso é razão suficiente para que as empresas tentem, sempre que possível, contratar uma equipe diversificada e bem arredondada.

Ameaças de Inteligência Artificial Geral

Deve ser dito que, embora a IA esteja avançando a um ritmo exponencial, ainda não alcançamos a Inteligência Artificial Geral (AGI). Quando alcançaremos a AGI é um debate e todos têm uma resposta diferente sobre uma linha do tempo. Eu pessoalmente subscrevo as visões de Ray Kurzweil, inventor, futurista e autor de ‘A Singularidade está Próxima’, que acredita que teremos alcançado a AGI até 2029.

A AGI será a tecnologia mais transformacional do mundo. Dentro de semanas de a IA alcançar a inteligência humana, ela então alcançará superinteligência, que é definida como inteligência que supera a de um humano.

Com esse nível de inteligência, uma AGI poderia rapidamente absorver todo o conhecimento humano e usar reconhecimento de padrões para identificar biomarcadores que causem problemas de saúde e, em seguida, tratar essas condições usando ciência de dados. Poderia criar nanobots que entram no sistema circulatório para alvoar células cancerígenas ou outros vetores de ataque. A lista de realizações que uma AGI é capaz de fazer é infinita. Já exploramos alguns dos benefícios da AGI.

O problema é que os humanos podem não ser mais capazes de controlar a IA. Elon Musk descreve assim: ”Com a inteligência artificial, estamos convocando o demônio.’ Será que seremos capazes de controlar esse demônio é a pergunta?

Alcançar a AGI pode simplesmente ser impossível até que uma IA saia de um ambiente de simulação para truly interagir em nosso mundo em aberto. A consciência não pode ser projetada; em vez disso, acredita-se que uma consciência emergente provavelmente evoluirá quando uma IA tiver um corpo robótico com múltiplos fluxos de entrada. Esses fluxos de entrada podem incluir estimulação tátil, reconhecimento de voz com compreensão de linguagem natural aprimorada e visão computacional aprimorada.

A IA avançada pode ser programada com motivações altruístas e querer salvar o planeta. Infelizmente, a IA pode usar ciência de dados ou mesmo uma árvore de decisão para chegar a uma lógica falha indesejada, como avaliar que é necessário esterilizar humanos ou eliminar parte da população humana para controlar a superpopulação humana.

Pensamento cuidadoso e deliberação precisam ser explorados ao construir uma IA com inteligência que superará a de um humano. Foram explorados muitos cenários de pesadelo.

Professor Nick Bostrom no argumento do Maximizador de Grampo argumentou que uma AGI mal configurada, se instruída a produzir grampos, simplesmente consumiria todos os recursos da Terra para produzir esses grampos. Embora isso pareça um pouco longe, um ponto de vista mais pragmático é que uma AGI poderia ser controlada por um estado desonesto ou uma corporação com má ética. Essa entidade poderia treinar a AGI para maximizar lucros e, com programação pobre e zero remorso, poderia escolher falir concorrentes, destruir cadeias de suprimentos, hackear o mercado de ações, liquidar contas bancárias ou atacar opositores políticos.

É quando precisamos lembrar que os humanos tendem a antropomorfizar. Não podemos dar à IA emoções, desejos ou desejos humanos. Embora haja humanos diabólicos que matam por prazer, não há razão para acreditar que uma IA seria suscetível a esse tipo de comportamento. É inconcebível para humanos considerarem como uma IA veria o mundo.

Em vez disso, o que precisamos fazer é ensinar a IA a sempre ser deferente a um humano. A IA sempre deve ter um humano confirmar qualquer alteração nas configurações e sempre deve haver um mecanismo de segurança. Mais uma vez, foi argumentado que a IA simplesmente se replicará na nuvem e, até que percebamos que é autoconsciente, pode ser tarde demais.

É por isso que é tão importante abrir o código-fonte de tanto quanto possível e ter discussões racionais sobre essas questões.

Resumo

Há muitos desafios para a IA; felizmente, ainda temos muitos anos para coletivamente descobrir o caminho futuro que queremos que a AGI tome. Devemos, no curto prazo, nos concentrar em criar uma força de trabalho de IA diversificada, que inclua tantas mulheres quanto homens e tantos grupos étnicos com pontos de vista diversificados quanto possível.

Também devemos criar proteções para denunciantes para pesquisadores que trabalham com IA e devemos aprovar leis e regulamentações que previnam o abuso generalizado de vigilância estatal ou empresarial. Os humanos têm uma oportunidade única de melhorar a condição humana com a ajuda da IA; precisamos apenas garantir que criemos um quadro social que permita os positivos, enquanto mitiga os negativos, que incluem ameaças existenciais.

Antoine é um líder visionário e sócio-fundador da Unite.AI, impulsionado por uma paixão inabalável em moldar e promover o futuro da IA e da robótica. Um empreendedor serial, ele acredita que a IA será tão disruptiva para a sociedade quanto a eletricidade, e é frequentemente pego falando sobre o potencial das tecnologias disruptivas e da AGI. Como um futurista, ele está dedicado a explorar como essas inovações moldarão nosso mundo. Além disso, ele é o fundador da Securities.io, uma plataforma focada em investir em tecnologias de ponta que estão redefinindo o futuro e remodelando setores inteiros.