toco As preocupações com os riscos potenciais do ChatGPT estão ganhando força, mas uma pausa na IA é uma boa jogada? - Unite.AI
Entre em contato

Líderes de pensamento

As preocupações com os riscos potenciais do ChatGPT estão ganhando força, mas uma pausa na IA é uma boa jogada?

mm

Publicado

 on

Enquanto Elon Musk e outros líderes globais de tecnologia pediram uma pausa na IA Após o lançamento do ChatGPT, alguns críticos acreditam que interromper o desenvolvimento não é a resposta. O evangelista de IA Andrew Pery, da empresa de automação inteligente ABBYY, acredita que fazer uma pausa é como colocar a pasta de dente de volta no tubo. Aqui, ele nos conta o porquê…

Os aplicativos de IA são difundidos, impactando praticamente todas as facetas de nossas vidas. Embora louvável, pisar no freio agora pode ser implausível.

Certamente existem preocupações palpáveis ​​que exigem uma maior supervisão regulatória para controlar seus potenciais impactos prejudiciais.

Recentemente, a Autoridade Italiana de Proteção de Dados bloqueou temporariamente o uso do ChatGPT em todo o país devido a questões de privacidade relacionadas à forma de coleta e processamento de dados pessoais usados ​​para treinar o modelo, bem como uma aparente falta de salvaguardas, expondo as crianças a respostas “absolutamente inapropriado para sua idade e consciência”.

A Organização Europeia do Consumidor (BEUC) está instando a UE a investigar possíveis impactos prejudiciais de modelos de linguagem em larga escala, devido às “preocupações crescentes sobre como o ChatGPT e chatbots semelhantes podem enganar e manipular as pessoas. Esses sistemas de IA precisam de maior escrutínio público e as autoridades públicas devem reafirmar o controle sobre eles”.

Em os EUA, o Centro de IA e Política Digital apresentou uma reclamação à Federal Trade Commission de que o ChatGPT viola a seção 5 da Federal Trade Commission Act (FTC Act) (15 USC 45). A base da reclamação é que o ChatGPT supostamente não cumpre os requisitos orientações estabelecidos pela FTC para transparência e explicabilidade dos sistemas de IA. Foi feita referência aos reconhecimentos do ChatGPT de vários riscos incluindo comprometer os direitos de privacidade, gerar conteúdo prejudicial e propagar desinformação.

A utilidade de modelos de linguagem em larga escala, como ChatGPT, apesar da pesquisa, aponta seu potencial lado escuro. Está comprovado que produz respostas incorretas, pois o modelo ChatGPT subjacente é baseado em algoritmos de aprendizado profundo que aproveitam grandes conjuntos de dados de treinamento da Internet. Ao contrário de outros chatbots, o ChatGPT usa modelos de linguagem baseados em técnicas de aprendizado profundo que geram texto semelhante a conversas humanas, e a plataforma “chega a uma resposta fazendo uma série de suposições, o que é parte do motivo pelo qual ela pode argumentar respostas erradas como se fossem eram completamente verdadeiros.”

Além disso, está comprovado que o ChatGPT acentua e amplifica o viés, resultando em “respostas que discriminam gênero, raça e grupos minoritários, algo que a empresa está tentando mitigar”. O ChatGPT também pode ser uma pechincha para atores nefastos explorarem usuários desavisados, comprometendo sua política de privacidade e expondo-os a ataques fraudulentos.

Estas preocupações levaram o Parlamento Europeu a publicar um comentário o que reforça a necessidade de reforçar ainda mais as actuais disposições do projecto Lei de Inteligência Artificial da UE, (AIA) que ainda está pendente de ratificação. O comentário aponta que o atual rascunho do regulamento proposto se concentra no que é chamado de aplicações restritas de IA, consistindo em categorias específicas de sistemas de IA de alto risco, como recrutamento, solvência, emprego, aplicação da lei e elegibilidade para serviços sociais. No entanto, o projeto de regulamento AIA da UE não cobre IA de uso geral, como grandes modelos de linguagem que fornecem recursos cognitivos mais avançados e que podem “executar uma ampla gama de tarefas inteligentes”. Há apelos para estender o escopo do projeto de regulamento para incluir uma categoria separada e de alto risco de sistemas de IA de uso geral, exigindo que os desenvolvedores realizem rigorosos testes de conformidade ex ante antes de colocar esses sistemas no mercado e monitorem continuamente seu desempenho para possíveis resultados nocivos inesperados.

Uma parte particularmente útil de pesquisa chama a atenção para essa lacuna de que o regulamento AIA da UE é “focado principalmente em modelos convencionais de IA, e não na nova geração cujo nascimento estamos testemunhando hoje”.

Ele recomenda quatro estratégias que os reguladores devem considerar.

  1. Exigir que os desenvolvedores de tais sistemas relatem regularmente a eficácia de seus processos de gerenciamento de riscos para mitigar resultados nocivos.
  2. As empresas que usam modelos de linguagem em larga escala devem ser obrigadas a divulgar a seus clientes que o conteúdo foi gerado por IA.
  3. Os desenvolvedores devem se inscrever em um processo formal de lançamentos em estágios, como parte de uma estrutura de gerenciamento de risco, projetado para proteger contra resultados prejudiciais potencialmente imprevistos.
  4. Coloque o ônus sobre os desenvolvedores para “mitigar o risco em suas raízes” tendo que “auditar proativamente o conjunto de dados de treinamento para deturpações”.

Um fator que perpetua os riscos associados às tecnologias disruptivas é a motivação dos inovadores para obter a vantagem do pioneiro, adotando um modelo de negócios de “enviar primeiro e consertar depois”. Enquanto OpenAI é um pouco transparente sobre os riscos potenciais do ChatGPT, eles o liberaram para amplo uso comercial com um ônus de “cuidado com o comprador” para que os usuários avaliem e assumam os riscos por conta própria. Essa pode ser uma abordagem insustentável, dado o impacto generalizado dos sistemas de IA de conversação. A regulamentação proativa, juntamente com medidas de fiscalização robustas, deve ser fundamental ao lidar com uma tecnologia tão disruptiva.

A inteligência artificial já permeia quase todas as partes de nossas vidas, o que significa que uma pausa no desenvolvimento da IA ​​pode implicar em uma infinidade de obstáculos e consequências imprevistas. Em vez de aumentar repentinamente os freios, a indústria e os atores legislativos devem colaborar de boa fé para promulgar uma regulamentação acionável que esteja enraizada em valores centrados no ser humano, como transparência, responsabilidade e justiça. Ao fazer referência à legislação existente, como a AIA, os líderes dos setores público e privado podem projetar políticas completas e globalmente padronizadas que evitarão usos nefastos e mitigarão resultados adversos, mantendo assim a inteligência artificial dentro dos limites de melhorar as experiências humanas.

Andrew Pery é Evangelista de Ética em IA na empresa de automação inteligente ABBYY. Pery tem mais de 25 anos de experiência liderando programas de gerenciamento de produtos para empresas líderes globais em tecnologia. Sua experiência é em automação inteligente de processos de documentos e inteligência de processos, com especial especialização em tecnologias de IA, software de aplicativo, privacidade de dados e ética em IA. Ele possui mestrado em direito com distinção pela Northwestern University Pritzker School of Law e é um profissional certificado em privacidade de dados.