Connect with us

Os Perigos dos Chatbots de IA – E Como Contrariá-los

Líderes de pensamento

Os Perigos dos Chatbots de IA – E Como Contrariá-los

mm

Antigamente considerados apenas como programas de conversação automatizados, os chatbots de IA agora podem aprender e manter conversas que são quase indistinguíveis dos humanos. No entanto, os perigos dos chatbots de IA são tão variados quanto.

Eles podem variar desde as pessoas que os utilizam de forma indevida até riscos cibernéticos reais. À medida que os humanos dependem cada vez mais da tecnologia de IA, é essencial conhecer as possíveis repercussões do uso desses programas. Mas os bots são perigosos?

1. Viés e Discriminação

Um dos maiores perigos dos chatbots de IA é sua tendência a apresentar viés prejudicial. Porque a IA estabelece conexões entre pontos de dados que os humanos muitas vezes perdem, ela pode captar viés implícito e sutil nos dados de treinamento para ensinar a si mesma a ser discriminatória. Como resultado, os chatbots podem aprender rapidamente a produzir conteúdo racista, sexista ou discriminatório de outra forma, mesmo que nada disso esteja em seus dados de treinamento.

Um exemplo primordial é o bot de contratação descartado da Amazon. Em 2018, foi divulgado que a Amazon havia abandonado um projeto de IA destinado a pré-avaliar os currículos dos candidatos porque estava penalizando as candidaturas de mulheres. Porque a maioria dos currículos em que o bot foi treinado eram de homens, ele ensinou a si mesmo que os candidatos homens eram preferíveis, mesmo que os dados de treinamento não dissessem explicitamente isso.

Os chatbots que usam o conteúdo da internet para se ensinar a se comunicar naturalmente tendem a exibir viés ainda mais extremo. Em 2016, a Microsoft lançou um chatbot chamado Tay que aprendeu a imitar postagens em redes sociais. Em poucas horas, ele começou a tuitar conteúdo altamente ofensivo, levando a Microsoft a suspender a conta logo em seguida.

Se as empresas não forem cuidadosas ao construir e implantar esses bots, elas podem acidentalmente levar a situações semelhantes. Os chatbots podem maltratar os clientes ou disseminar conteúdo tendencioso prejudicial que eles deveriam prevenir.

2. Riscos de Segurança Cibernética

Os perigos da tecnologia de chatbot de IA também podem representar uma ameaça de segurança cibernética mais direta para as pessoas e as empresas. Uma das formas mais prolíficas de ciberataques é o phishing e os golpes de vishing. Isso envolve atacantes cibernéticos imitando organizações confiáveis, como bancos ou órgãos governamentais.

Os golpes de phishing geralmente operam por meio de e-mails e mensagens de texto — clicar no link permite que o malware entre no sistema de computador. Uma vez dentro, o vírus pode fazer qualquer coisa, desde roubar informações pessoais até segurar o sistema para pedir resgate.

A taxa de ataques de phishing tem aumentado constantemente durante e após a pandemia de COVID-19. A Agência de Segurança Cibernética e Infraestrutura encontrou que 84% dos indivíduos responderam a mensagens de phishing com informações confidenciais ou clicaram no link.

Os phishers estão usando a tecnologia de chatbot de IA para automatizar a busca por vítimas, convencê-las a clicar em links e fornecer informações pessoais. Os chatbots são usados por muitas instituições financeiras — como bancos — para otimizar a experiência de atendimento ao cliente.

Os phishers de chatbot podem imitar os mesmos prompts automatizados que os bancos usam para enganar as vítimas. Eles também podem discar números de telefone automaticamente ou contatar as vítimas diretamente em plataformas de chat interativo.

3. Envenenamento de Dados

O envenenamento de dados é um ciberataque concebido que visa diretamente a inteligência artificial. A tecnologia de IA aprende com conjuntos de dados e usa essas informações para realizar tarefas. Isso é verdadeiro para todos os programas de IA, independentemente de seu propósito ou funções.

Para os chatbots de IA, isso significa aprender múltiplas respostas a possíveis perguntas que os usuários podem fazer. No entanto, isso também é um dos perigos da IA.

Esses conjuntos de dados são frequentemente ferramentas e recursos de código aberto disponíveis para qualquer pessoa. Embora as empresas de IA geralmente mantenham em segredo os dados-fonte, os atacantes cibernéticos podem determinar quais são usados e manipular os dados.

Os atacantes cibernéticos podem encontrar maneiras de manipular os conjuntos de dados usados para treinar as IAs, permitindo que eles manipulem as decisões e respostas delas. A IA usará as informações dos dados alterados e realizará atos que os atacantes desejam.

Por exemplo, uma das fontes de dados mais comumente usadas é o Wiki, como a Wikipedia. Embora os dados não venham do artigo da Wikipedia ao vivo, eles vêm de instantâneos de dados tirados em momentos específicos. Os hackers podem encontrar uma maneira de editar os dados para beneficiá-los.

No caso dos chatbots de IA, os hackers podem corromper os conjuntos de dados usados para treinar os chatbots que trabalham para instituições médicas ou financeiras. Eles podem manipular os programas de chatbot para fornecer informações falsas aos clientes que os levem a clicar em um link contendo malware ou um site fraudulento. Uma vez que a IA começa a usar dados envenenados, é difícil detectar e pode levar a uma violação significativa da segurança cibernética que passa despercebida por muito tempo.

Como Abordar os Perigos dos Chatbots de IA

Esses riscos são preocupantes, mas não significam que os bots sejam intrinsicamente perigosos. Em vez disso, você deve abordá-los com cautela e considerar esses perigos ao construir e usar chatbots.

A chave para prevenir o viés da IA é procurá-lo durante o treinamento. Certifique-se de treinar em conjuntos de dados diversificados e programá-los especificamente para evitar fatorar coisas como raça, gênero ou orientação sexual em sua tomada de decisão. Também é melhor ter uma equipe diversificada de cientistas de dados para revisar o funcionamento interno dos chatbots e garantir que eles não exibam nenhum viés, por mais sutil que seja.

A melhor defesa contra o phishing é o treinamento. Treine todos os funcionários para identificar sinais comuns de tentativas de phishing para que eles não sejam vítimas desses ataques. A conscientização do consumidor sobre a questão também ajudará.

Você pode prevenir o envenenamento de dados restringindo o acesso aos dados de treinamento dos chatbots. Apenas as pessoas que precisam acessar esses dados para realizar seu trabalho corretamente devem ter autorização — um conceito chamado de princípio do menor privilégio. Depois de implementar essas restrições, use medidas de verificação fortes, como autenticação de vários fatores ou biometria, para prevenir os riscos de cibercriminosos hackeando uma conta autorizada.

Permaneça Vigilante Contra os Perigos da Dependência de IA

A inteligência artificial é uma tecnologia verdadeiramente maravilhosa com aplicações quase infinitas. No entanto, os perigos da IA podem ser obscuros. Os bots são perigosos? Não intrinsicamente, mas os cibercriminosos podem usá-los de várias maneiras disruptivas. Cabe aos usuários decidir quais são as aplicações dessa nova tecnologia.

Zac Amos é um escritor de tecnologia que se concentra em inteligência artificial. Ele também é o editor de recursos do ReHack, onde você pode ler mais sobre seu trabalho.