toco A IA é uma ameaça existencial? - Unite.AI
Entre em contato

Inteligência Geral Artificial

A IA é uma ameaça existencial?

mm
Atualização do on

Ao discutir Inteligência Artificial (IA), um debate comum é se a IA é uma ameaça existencial. A resposta requer a compreensão da tecnologia por trás do Machine Learning (ML) e o reconhecimento de que os humanos têm a tendência de antropomorfizar. Exploraremos dois tipos diferentes de IA, a Inteligência Artificial Narrow (ANI), que está disponível agora e é motivo de preocupação, e a ameaça que é mais comumente associada a versões apocalípticas de IA, que é a Inteligência Artificial Geral (AGI).

Ameaças de Inteligência Artificial Estreita

Para entender o que é ANI, você simplesmente precisa entender que cada aplicativo de IA disponível atualmente é uma forma de ANI. Esses são campos de IA que têm um campo de especialidade estreito, por exemplo, veículos autônomos usam IA projetada com o único propósito de mover um veículo do ponto A para B. Outro tipo de ANI pode ser um programa de xadrez otimizado para jogar xadrez, e mesmo que o programa de xadrez melhore continuamente usando aprendizado por reforço, o programa de xadrez nunca será capaz de operar um veículo autônomo.

Com foco em qualquer operação pela qual seja responsável, os sistemas ANI são incapazes de usar o aprendizado generalizado para dominar o mundo. Essa é a boa notícia; a má notícia é que, com sua dependência de um operador humano, o sistema de IA é suscetível a dados tendenciosos, erro humano ou, pior ainda, um operador humano desonesto.

Vigilância IA

Pode não haver perigo maior para a humanidade do que os humanos usando IA para invadir a privacidade e, em alguns casos, usando vigilância de IA para impedir completamente que as pessoas se movam livremente.  China, Rússia e outras nações aprovaram regulamentos durante o COVID-19 para capacitá-los a monitorar e controlar o movimento de suas respectivas populações. Estas são leis que, uma vez em vigor, são difíceis de remover, especialmente em sociedades que apresentam líderes autocráticos.

Na China, as câmeras são posicionadas fora das casas das pessoas e, em alguns casos, dentro da própria casa. Cada vez que um membro da família sai, uma IA monitora a hora de chegada e saída e, se necessário, alerta as autoridades. Como se não bastasse, com o auxílio da tecnologia de reconhecimento facial, a China consegue rastrear o movimento de cada pessoa toda vez que ela é identificada por uma câmera. Isso oferece poder absoluto à entidade que controla a IA e recurso absolutamente zero a seus cidadãos.

O motivo desse cenário ser perigoso é que governos corruptos podem monitorar cuidadosamente os movimentos de jornalistas, oponentes políticos ou qualquer um que ouse questionar a autoridade do governo. É fácil entender como jornalistas e cidadãos seriam cautelosos em criticar governos quando todos os movimentos estão sendo monitorados.

Felizmente, muitas cidades estão lutando para impedir que o reconhecimento facial se infiltre em suas cidades. Notavelmente, Portland, Oregon aprovou recentemente uma lei que impede que o reconhecimento facial seja usado desnecessariamente na cidade. Embora essas mudanças na regulamentação possam ter passado despercebidas pelo público em geral, no futuro essas regulamentações podem ser a diferença entre cidades que oferecem algum tipo de autonomia e liberdade e cidades que parecem opressivas.

Armas autônomas e drones

Mais de 4500 pesquisas de IA pedem a proibição de armas autônomas e criaram o Proibir armas letais autônomas local na rede Internet. O grupo tem muitas organizações sem fins lucrativos notáveis ​​como signatárias, como Human Rights Watch, A Anistia Internacional, e as Instituto Futuro da Vida que por si só tem um conselho consultivo científico estelar, incluindo Elon Musk, Nick Bostrom e Stuart Russell.

Antes de continuar, compartilharei esta citação do The Future of Life Institute, que explica melhor por que há motivo claro para preocupação: “Em contraste com as armas semi-autônomas que requerem supervisão humana para garantir que cada alvo seja validado como ética e legalmente legítimo, tais armas totalmente autônomas selecionam e engajam alvos sem intervenção humana, representando automação completa de danos letais. ”

Atualmente, bombas inteligentes são implantadas com um alvo selecionado por um humano, e a bomba então usa IA para traçar um curso e pousar em seu alvo. O problema é o que acontece quando decidimos remover completamente o ser humano da equação?

Quando uma IA escolhe o que os humanos precisam visar, bem como o tipo de dano colateral considerado aceitável, podemos ter cruzado um ponto sem retorno. É por isso que tantos pesquisadores de IA se opõem a pesquisar qualquer coisa remotamente relacionada a armas autônomas.

Existem vários problemas em simplesmente tentar bloquear a pesquisa de armas autônomas. O primeiro problema é que, mesmo que nações avançadas como Canadá, EUA e a maior parte da Europa decidam concordar com a proibição, isso não significa que nações desonestas como China, Coréia do Norte, Irã e Rússia irão jogar junto. O segundo e maior problema é que a pesquisa e os aplicativos de IA projetados para uso em um campo podem ser usados ​​em um campo completamente não relacionado.

Por exemplo, a visão computacional melhora continuamente e é importante para o desenvolvimento de veículos autônomos, medicina de precisão e outros casos de uso importantes. Também é de fundamental importância para drones regulares ou drones que possam ser modificados para se tornarem autônomos. Um caso de uso potencial da tecnologia avançada de drones é o desenvolvimento de drones que possam monitorar e combater incêndios florestais. Isso removeria completamente os bombeiros do perigo. Para fazer isso, você precisaria construir drones que sejam capazes de voar em locais perigosos, navegar com visibilidade baixa ou zero e que sejam capazes de lançar água com precisão impecável. Não é muito difícil usar essa tecnologia idêntica em um drone autônomo projetado para atingir humanos seletivamente.

É uma situação perigosa e, neste momento, ninguém entende totalmente as implicações de avançar ou tentar bloquear o desenvolvimento de armas autônomas. Não deixa de ser algo em que temos de estar atentos, potenciando proteção contra apito pode permitir que aqueles no campo denunciem abusos.

Operador desonesto à parte, o que acontece se o viés da IA ​​se infiltrar na tecnologia de IA projetada para ser uma arma autônoma?

Viés de IA

Uma das ameaças mais não relatadas da IA ​​é o viés da IA. Isso é simples de entender, pois a maior parte não é intencional. O viés da IA ​​surge quando uma IA revisa os dados que são alimentados por humanos, usando o reconhecimento de padrões dos dados que foram alimentados à IA, a IA incorretamente chega a conclusões que podem ter repercussões negativas na sociedade. Por exemplo, uma IA que é alimentada com literatura do século passado sobre como identificar pessoal médico pode chegar à indesejada conclusão sexista de que as mulheres são sempre enfermeiras e os homens são sempre médicos.

Um cenário mais perigoso é quando A IA usada para sentenciar criminosos condenados é tendenciosa no sentido de conceder penas de prisão mais longas às minorias. Os algoritmos de avaliação de risco criminal da IA ​​estão simplesmente estudando padrões nos dados que foram inseridos no sistema. Esses dados indicam que, historicamente, certas minorias têm maior probabilidade de reincidência, mesmo quando isso se deve a conjuntos de dados ruins que podem ser influenciados pelo perfil racial da polícia. A IA tendenciosa então reforça as políticas humanas negativas. É por isso que a IA deve ser uma diretriz, nunca julgar e julgar.

Voltando às armas autônomas, se tivermos uma IA tendenciosa contra certos grupos étnicos, ela pode escolher atingir certos indivíduos com base em dados tendenciosos e pode chegar ao ponto de garantir que qualquer tipo de dano colateral afete certos dados demográficos menos do que outros. . Por exemplo, ao visar um terrorista, antes de atacar, pode-se esperar até que o terrorista esteja cercado por aqueles que seguem a fé muçulmana em vez de cristãos.

Felizmente, foi comprovado que a IA projetada com equipes diversas é menos propensa a vieses. Isso é motivo suficiente para as empresas tentarem, sempre que possível, contratar uma equipe diversificada e completa.

Ameaças de Inteligência Artificial Geral

Deve-se afirmar que, embora a IA esteja avançando em ritmo exponencial, ainda não alcançamos a AGI. Quando chegaremos ao AGI está em debate, e todos têm uma resposta diferente quanto a um cronograma. Pessoalmente, concordo com as opiniões de Ray Kurzweil, inventor, futurista e autor de 'The Singularity is Near', que acredita que teremos AGI alcançado até 2029.

A AGI será a tecnologia mais transformadora do mundo. Poucas semanas depois de a IA atingir a inteligência de nível humano, ela alcançará superinteligência que é definida como a inteligência que supera em muito a de um ser humano.

Com esse nível de inteligência, um AGI pode absorver rapidamente todo o conhecimento humano e usar o reconhecimento de padrões para identificar biomarcadores que causam problemas de saúde e, em seguida, tratar essas condições usando ciência de dados. Poderia criar nanobots que entram na corrente sanguínea para atingir células cancerígenas ou outros vetores de ataque. A lista de realizações de que uma AGI é capaz é infinita. Anteriormente, exploramos alguns dos benefícios do AGI.

O problema é que os humanos podem não ser mais capazes de controlar a IA. Elon Musk descreve assim: ”Com inteligência artificial estamos convocando o demônio.' Seremos capazes de controlar esse demônio é a questão?

Alcançar a AGI pode ser simplesmente impossível até que uma IA saia de um ambiente de simulação para realmente interagir em nosso mundo aberto. A autoconsciência não pode ser projetada, ao contrário, acredita-se que um consciência emergente provavelmente evoluirá quando uma IA tiver um corpo robótico apresentando vários fluxos de entrada. Essas entradas podem incluir estimulação tátil, reconhecimento de voz com compreensão aprimorada da linguagem natural e visão computacional aumentada.

A IA avançada pode ser programada com motivos altruístas e deseja salvar o planeta. Infelizmente, a IA pode usar ciência de dados, ou mesmo um árvore de decisão para chegar a uma lógica defeituosa indesejada, como avaliar que é necessário esterilizar humanos ou eliminar parte da população humana para controlar a superpopulação humana.

Pensamento e deliberação cuidadosos precisam ser explorados ao construir uma IA com inteligência que supera em muito a de um humano. Houve muitos cenários de pesadelo que foram explorados.

Professor Nick Bostrom no argumento Paperclip Maximizer argumentou que uma AGI mal configurada, se instruída a produzir clipes de papel, simplesmente consumiria todos os recursos da Terra para produzir esses clipes de papel. Embora isso pareça um pouco exagerado, um ponto de vista mais pragmático é que uma AGI pode ser controlada por um estado desonesto ou uma corporação com pouca ética. Essa entidade poderia treinar a AGI para maximizar os lucros e, nesse caso, com programação ruim e remorso zero, ela poderia optar por levar concorrentes à falência, destruir cadeias de suprimentos, hackear o mercado de ações, liquidar contas bancárias ou atacar oponentes políticos.

É quando precisamos lembrar que os humanos tendem a antropomorfizar. Não podemos dar à IA emoções, vontades ou desejos do tipo humano. Embora existam humanos diabólicos que matam por prazer, não há razão para acreditar que uma IA seja suscetível a esse tipo de comportamento. É inconcebível para os humanos sequer considerar como uma IA veria o mundo.

Em vez disso, o que precisamos fazer é ensinar a IA a ser sempre respeitosa com um humano. A IA sempre deve ter um humano confirmando quaisquer alterações nas configurações e sempre deve haver um mecanismo à prova de falhas. Por outro lado, argumenta-se que a IA simplesmente se replicará na nuvem e, quando percebermos que é autoconsciente, pode ser tarde demais.

É por isso que é tão importante abrir o máximo possível de IA e ter discussões racionais sobre essas questões.

Resumo

Existem muitos desafios para a IA, felizmente, ainda temos muitos anos para descobrir coletivamente o caminho futuro que queremos que a AGI tome. Devemos, no curto prazo, focar na criação de uma força de trabalho de IA diversificada, que inclua tantas mulheres quanto homens e tantos grupos étnicos com diversos pontos de vista quanto possível.

Também devemos criar proteções de denunciantes para pesquisadores que estão trabalhando em IA e devemos aprovar leis e regulamentos que impeçam o abuso generalizado de vigilância estatal ou corporativa. Os seres humanos têm uma oportunidade única na vida de melhorar a condição humana com a ajuda da IA, só precisamos garantir que criamos cuidadosamente uma estrutura social que melhor permita os aspectos positivos, mitigando os negativos, que incluem ameaças existenciais.

Sócio fundador da unite.AI e membro do Conselho de Tecnologia da Forbes, Antoine é um futurista que é apaixonado pelo futuro da IA ​​e da robótica.

Ele também é o fundador da Valores Mobiliários.io, um site que foca em investir em tecnologia disruptiva.