Connect with us

Tecnologias Avançadas de IA Apresentam Desafios Éticos – Líderes de Pensamento

Ética

Tecnologias Avançadas de IA Apresentam Desafios Éticos – Líderes de Pensamento

mm

Por Alfred Crews, Jr, vice-presidente e conselheiro-chefe do setor de Inteligência e Segurança da BAE Systems Inc.

No início deste ano, antes da pandemia global, eu participei da Conferência de Ética em Inteligência da The Citadel, em Charleston, onde discutimos o tópico da ética na coleta de inteligência em relação à proteção da segurança nacional. No setor de defesa, estamos vendo a proliferação do conhecimento, computação e tecnologias avançadas, especialmente na área de inteligência artificial (IA) e aprendizado de máquina (ML). No entanto, podem haver problemas significativos ao implantar IA no contexto de coleta de inteligência ou combate em tempo real.

IA acoplada à computação quântica apresenta riscos

O que devemos questionar, analisar e determinar um caminho é quando usar IA acoplada à computação quântica no processo de tomada de decisões em tempos de guerra. Por exemplo, lembre-se do Terminator? À medida que nossa tecnologia dá saltos, a realidade do que Skynet apresentou está diante de nós. Podemos estar nos perguntando: “Skynet está vindo nos pegar?” Vamos dar um passeio pela memória comigo; as máquinas tomaram o controle porque tinham a capacidade de pensar e tomar decisões por conta própria, sem um ser humano para direcioná-las. Quando as máquinas deduziram que os seres humanos eram um bug, elas se propuseram a destruir a humanidade. Não me entenda mal, a IA tem um grande potencial, mas acredito que ela deve ter parâmetros de controle devido ao fator de risco envolvido.

Ambiguidades éticas e dilema filosófico da IA

Acredito que é exatamente por isso que o Departamento de Defesa dos EUA (DoD) emitiu seus próprios Princípios Éticos para IA, porque o uso de IA levanta novas ambiguidades éticas e riscos. Quando combinamos IA com capacidades de computação quântica, a capacidade de tomar decisões muda e o risco de perder o controle aumenta – mais do que podemos perceber hoje. A computação quântica deixa o sistema operacional do nosso cérebro humano em vergonha, pois supercomputadores podem fazer cálculos exponencialmente mais rápidos e com mais precisão do que nosso cérebro humano jamais poderá.

Além disso, o uso de IA acoplada à computação apresenta um dilema filosófico. Em que ponto o mundo permitirá que as máquinas tenham sua própria vontade; e, se as máquinas forem permitidas a pensar por conta própria, isso significa que a máquina em si se tornou autoconsciente? Ser autoconsciente constitui vida? Como sociedade, ainda não determinamos como definir essa situação. Portanto, como está hoje, máquinas agindo por conta própria sem um ser humano para controlá-las podem levar a consequências. Uma máquina pode anular a intervenção humana para parar o fogo? Se a máquina estiver operando por conta própria, seremos capazes de desligá-la?

Como eu vejo, usar IA de um ponto de vista defensivo é fácil de fazer. No entanto, quanto mais fácil seria transferir para o ofensivo? Na ofensiva, as máquinas estariam tomando decisões de disparo em combate no local. Uma máquina disparando contra um inimigo constituiria uma violação da Convenção de Genebra e das leis de conflito armado? Ao entrar nesse espaço a um ritmo acelerado, o mundo deve concordar que o uso de IA e computação quântica em combate deve se encaixar nas leis que temos em vigor.

O DoD tem uma posição ao usar IA com sistemas autônomos e afirma que sempre haverá uma pessoa envolvida no processo de tomada de decisões; uma pessoa faria a chamada final para puxar o gatilho de uma arma. Essa é a nossa regra, mas o que acontece se um adversário decidir tomar outro caminho e ter uma máquina capaz de IA fazer todas as decisões finais? Então, a máquina, que, como discutimos, já é mais rápida, mais inteligente e mais precisa, teria a vantagem.

Vamos olhar para um drone equipado com IA e reconhecimento facial: o drone dispara por conta própria porque de um alvo pré-determinado rotulado como terrorista. Quem é responsável pelo disparo? Há responsabilidade se houver um erro enviesado?

Vieses incorporados à IA/ML

Pesquisas apontam que uma máquina é menos propensa a cometer erros do que um ser humano. No entanto, pesquisas também provam que há vieses no aprendizado de máquina baseado no “professor” humano que ensina a máquina. Os cinco Princípios Éticos de IA do DoD referenciados vieses existentes quando afirma: “O Departamento tomará medidas deliberadas para minimizar vieses não intencionais nas capacidades de IA.” Já sabemos, por meio de estudos comprovados, que no uso de aplicações de reconhecimento facial há vieses em relação a pessoas de cor com falsos positivos. Quando uma pessoa cria o código que ensina a máquina a tomar decisões, haverá vieses. Isso pode ser involuntário porque a pessoa criando a IA não estava ciente do viés que existia dentro de si mesma.

Então, como se elimina o viés? A saída da IA é tão boa quanto a entrada. Portanto, devem haver controles. Você deve controlar os dados fluindo porque é o que pode tornar os resultados da IA menos válidos. Desenvolvedores terão que reescrever constantemente o código para eliminar o viés.

O mundo define o melhor uso da tecnologia

A tecnologia em si não é boa ou ruim. É como uma nação a usa que pode levar as melhores intenções e dar errado. À medida que a tecnologia avança de maneiras que impactam vidas humanas, o mundo deve trabalhar juntos para definir ações apropriadas. Se tirarmos o ser humano da equação em aplicações de IA, também tiramos a pausa antes de puxar o gatilho – a bússola moral que nos guia; a pausa quando paramos e questionamos: “Isso está certo?” Uma máquina ensinada a engajar não terá essa pausa. Então, a pergunta é, no futuro, o mundo aceitará isso? Até onde o mundo irá para permitir que as máquinas tomem decisões de combate?

Alfred Crews, Jr. é vice-presidente e conselheiro-chefe para o setor de Inteligência e Segurança da BAE Systems Inc, uma líder em fornecer serviços de engenharia de sistemas em larga escala, integração e sustentação em domínios aéreo, terrestre, marítimo, espacial e cibernético para o Departamento de Defesa dos EUA, comunidade de inteligência, agências civis federais e tropas destacadas em todo o mundo. Crews supervisiona as funções legais, de controle de exportação e ética do setor.