Connect with us

Pesquisadores Dizem que os Humanos Não Seriam Capazes de Controlar a IA Superinteligente

AGI

Pesquisadores Dizem que os Humanos Não Seriam Capazes de Controlar a IA Superinteligente

mm

Qualquer pessoa que esteja ciente da inteligência artificial (IA) provavelmente ouviu alguma versão sobre ela eventualmente se libertar do controle humano. Isso não é apenas um tema de filmes de ficção científica, mas sim uma possibilidade muito forte que preocupa muitos especialistas da indústria. Muitos desses especialistas, incluindo cientistas, defendem que devemos começar a nos preparar para essa possibilidade e evitá-la de todas as formas possíveis.

Agora, uma equipe internacional de pesquisadores pegou essa ideia e a apoiou com cálculos teóricos. A equipe, que incluía cientistas do Center for Humans and Machines do Max Planck Institute for Human Development, usou esses cálculos para demonstrar como não seria possível controlar uma IA superinteligente.

A pesquisa foi recentemente publicada no Journal of Artificial Intelligence Research.

Sistema de IA Superinteligente

O medo de um sistema de IA superinteligente tem a ver com o fato de que tal sistema seria muito superior aos humanos. Ele seria capaz de aprender de forma independente e também acessar todos os dados existentes e processá-los extremamente rápido.

Um evento como esse poderia levar a IA superinteligente a tomar controle de todas as máquinas existentes online, e embora ela possa e faria coisas como curar doenças e resolver outros problemas importantes que enfrentam a humanidade, o risco de as coisas saírem do controle também é alto.

Manuel Cebrian é coautor do estudo e Líder do Grupo de Mobilização Digital do Center for Humans and Machines, Max Planck Institute for Human Development.

“Uma máquina superinteligente que controla o mundo soa como ficção científica. Mas já existem máquinas que realizam certas tarefas importantes de forma independente, sem que os programadores entendam completamente como elas aprenderam. A pergunta, portanto, surge se isso poderia se tornar incontrolável e perigoso para a humanidade”, diz Cebrian.

Controle do Sistema

Existem duas principais escolas de pensamento quando se trata de controlar tal sistema. Primeiro, os humanos poderiam limitar as capacidades de uma IA superinteligente restringindo seu acesso a algumas fontes de dados, como a internet inteira. O sistema também poderia funcionar sem entrar em contato com o mundo exterior. No entanto, o problema com isso é que limitaria drasticamente o potencial da IA.

O sistema seria controlado permitindo que ele apenas perseguisse resultados que beneficiem a humanidade, e isso poderia ser feito programando princípios éticos nele.

O estudo envolveu a equipe desenvolvendo um algoritmo de contenção teórico que impede que a IA superinteligente cause danos aos humanos em qualquer circunstância. Isso pode ser alcançado criando primeiro uma simulação do comportamento da IA e detectando qualquer comportamento que possa ser prejudicial. Apesar dessa teoria promissora, a análise atual mostra que tal algoritmo não pode ser desenvolvido.

Iyad Rahwan é Diretor do Center for Humans and Machines.

“Se você quebrar o problema em regras básicas da ciência da computação teórica, descobre-se que um algoritmo que comandaria uma IA para não destruir o mundo poderia inadvertidamente paralisar suas próprias operações. Se isso acontecesse, você não saberia se o algoritmo de contenção ainda está analisando a ameaça ou se parou para conter a IA prejudicial. Em essência, isso torna o algoritmo de contenção inutilizável”, diz Rahwan.

Outro problema é que os especialistas podem nem mesmo perceber quando uma máquina superinteligente atinge esse estado, principalmente devido ao fato de que ela seria mais inteligente do que os humanos.

Alex McFarland é um jornalista e escritor de IA que explora os últimos desenvolvimentos em inteligência artificial. Ele colaborou com inúmeras startups de IA e publicações em todo o mundo.