toco Tech Advisory Group empurra para limites no uso de IA do Pentágono - Unite.AI
Entre em contato

Regulamento

Tech Advisory Group empurra para limites no uso de IA do Pentágono

mm
Atualização do on

O Pentágono deixou claras suas intenções de investir pesadamente em inteligência artificial, afirmando que a IA tornará as forças armadas dos EUA mais poderosas e robustas para possíveis ameaças à segurança nacional. Conforme relatórios do Engadget, na quinta-feira passada, o Defense Innovation Board apresentou uma série de diretrizes éticas propostas para o uso de IA nas forças armadas. A lista de propostas inclui estratégias para evitar viés não intencional e IA governável que teria procedimentos de parada de emergência que evitam que a IA cause danos desnecessários.

Relatórios com fio que o Defense Innovation Board foi criado pelo governo Obama para orientar o Pentágono na aquisição de experiência e talento na indústria de tecnologia. Atualmente, o conselho é presidido pelo ex-CEO do Google, Eric Schmidt. O departamento foi recentemente encarregado de estabelecer diretrizes para a implementação ética da IA ​​em projetos militares. Na quinta-feira, o conselho divulgou suas diretrizes e recomendações para revisão. O relatório observa que o momento de ter discussões sérias sobre o uso de IA em um contexto militar é agora, antes que algum incidente sério exija que haja uma.

De acordo com Notícias de Inteligência Artificial, um ex-oficial militar afirmou recentemente que o Pentágono estava ficando para trás quando se trata do uso de IA. O Pentágono pretende compensar essa diferença e declarou o desenvolvimento e a expansão da IA ​​nas forças armadas uma prioridade nacional. Os especialistas em ética da IA ​​estão preocupados com o fato de que, na pressa do Pentágono para se tornar um líder em IA, os sistemas de IA possam ser usados ​​de maneira antiética. Embora vários conselhos de ética de IA independentes tenham feito suas próprias sugestões, o Conselho de Inovação em Defesa propôs pelo menos cinco princípios que os militares devem seguir sempre ao desenvolver e implementar sistemas de IA.

O primeiro princípio proposto pelo conselho é o princípio de que os humanos devem sempre ser responsáveis ​​pela utilização, implantação e resultados de qualquer plataforma de inteligência artificial usada em um contexto militar. Isso é uma reminiscência de uma política de 2012 que determinava que os humanos deveriam fazer parte do processo de tomada de decisão sempre que a força letal pudesse ser usada. Há uma série de outros princípios na lista que fornecem conselhos gerais, como garantir que os sistemas de IA sejam sempre construídos por engenheiros que entendem e documentam completamente seus programas. Outro princípio aconselha que os sistemas militares de IA devem sempre ser testados quanto à sua confiabilidade. Essas diretrizes parecem ser senso comum, mas o conselho quer ressaltar sua importância.

Os outros princípios da lista estão envolvidos no controle de viés para algoritmos de IA e na capacidade dos IAs de detectar se danos não intencionais podem ser causados ​​e desconectar-se automaticamente. As diretrizes especificam que, se ocorrerem danos desnecessários, a IA deve ser capaz de se desligar e fazer com que um operador humano assuma o controle. O rascunho dos princípios também recomenda que a saída das IAs seja rastreável para que os analistas possam ver o que levou a IA a tomar uma determinada decisão.

O conjunto de recomendações apresentadas pelo conselho ressalta duas ideias diferentes. Os princípios refletem o fato de que a IA será parte integrante do futuro das operações militares, mas que grande parte da IA ​​ainda depende do gerenciamento humano e da tomada de decisões.

Embora o Pentágono não precise adotar as recomendações do conselho, parece que o Pentágono está levando as recomendações a sério. Conforme relatado por Wired, o diretor do Joint Artifical Intelligence Center, tenente-general Jack Shanahan, afirmou que as recomendações do conselho ajudariam o Pentágono a “manter os mais altos padrões éticos, conforme descrito na estratégia de IA do DoD, ao mesmo tempo em que adota o forte histórico militar dos EUA de aplicar testes rigorosos e padrões de campo para inovações tecnológicas”.

A indústria de tecnologia como um todo continua cautelosa em usar IA na criação de hardware e software militar. Os funcionários da Microsoft e do Google protestaram contra colaborações com entidades militares, e o Google recentemente optou por não renovar o contrato que os fazia contribuir para o Projeto Maven. Vários CEOs, cientistas e engenheiros também assinou uma promessa não “participar ou apoiar o desenvolvimento, fabricação, comércio ou uso de armas letais autônomas”. Se o Pentágono adotar as diretrizes sugeridas pelo conselho, isso poderá tornar a indústria de tecnologia mais disposta a colaborar em projetos, embora só o tempo dirá.

Blogueiro e programador com especialidades em Machine Learning e Aprendizagem profunda tópicos. Daniel espera ajudar outras pessoas a usar o poder da IA ​​para o bem social.