toco Os perigos dos chatbots de IA - e como combatê-los - Unite.AI
Entre em contato

Líderes de pensamento

Os perigos dos chatbots de IA – e como combatê-los

mm

Publicado

 on

Antes considerados apenas programas de conversação automatizados, os chatbots de IA agora podem aprender e manter conversas quase indistinguíveis dos humanos. No entanto, os perigos dos chatbots de IA são igualmente variados.

Isso pode variar de pessoas que os usam indevidamente a riscos reais de segurança cibernética. Como os humanos dependem cada vez mais da tecnologia de IA, é essencial conhecer as possíveis repercussões do uso desses programas. Mas os bots são perigosos?

1. Preconceito e discriminação

Um dos maiores perigos dos chatbots de IA é sua tendência a vieses nocivos. Como a IA estabelece conexões entre pontos de dados que os humanos geralmente perdem, ela pode captar vieses sutis e implícitos em seus dados de treinamento para aprender a ser discriminatória. Como resultado, os chatbots podem aprender rapidamente a espalhar conteúdo racista, sexista ou discriminatório, mesmo que não haja nada tão extremo em seus dados de treinamento.

Um excelente exemplo é o bot de contratação descartado da Amazon. Em 2018, descobriu-se que a Amazon havia abandonado um projeto de IA pretendia pré-avaliar os currículos dos candidatos porque estava penalizando as candidaturas de mulheres. Como a maioria dos currículos treinados pelo bot eram de homens, ele aprendeu sozinho que os candidatos do sexo masculino eram preferíveis, mesmo que os dados de treinamento não dissessem isso explicitamente.

Os chatbots que usam conteúdo da Internet para aprender a se comunicar naturalmente tendem a exibir preconceitos ainda mais extremos. Em 2016, a Microsoft lançou um chatbot chamado Tay que aprendeu a imitar postagens de mídia social. Dentro de algumas horas, começou a twittar conteúdo altamente ofensivo, levando a Microsoft a suspender a conta em pouco tempo.

Se as empresas não forem cuidadosas ao criar e implantar esses bots, elas podem acidentalmente levar a situações semelhantes. Os chatbots podem maltratar os clientes ou espalhar conteúdo tendencioso prejudicial que deveriam evitar.

2. Riscos de segurança cibernética

Os perigos da tecnologia AI chatbot também podem representar uma ameaça de segurança cibernética mais direta para pessoas e empresas. Uma das formas mais prolíficas de ataques cibernéticos são os golpes de phishing e vishing. Estes envolvem invasores cibernéticos imitando organizações confiáveis como bancos ou órgãos governamentais.

Os golpes de phishing geralmente operam por e-mail e mensagens de texto - clicar no link permite que o malware entre no sistema do computador. Uma vez dentro, o vírus pode fazer qualquer coisa, desde roubar informações pessoais até manter o sistema para resgate.

A taxa de ataques de phishing tem aumentado constantemente durante e após a pandemia de COVID-19. Agência de Segurança Cibernética e Infraestrutura encontraram 84% dos indivíduos respondeu a mensagens de phishing com informações confidenciais ou clicou no link.

Os phishers estão usando a tecnologia AI chatbot para automatizar a busca de vítimas, convencê-los a clicar em links e fornecer informações pessoais. Os chatbots são usados ​​por muitas instituições financeiras — como bancos — para agilizar a experiência de atendimento ao cliente.

Os phishers de chatbots podem imitar os mesmos prompts automatizados que os bancos usam para enganar as vítimas. Eles também podem discar números de telefone automaticamente ou entrar em contato com as vítimas diretamente em plataformas de bate-papo interativas.

3. Envenenamento de Dados

O envenenamento de dados é um ataque cibernético recém-concebido que visa diretamente a inteligência artificial. A tecnologia de IA aprende com conjuntos de dados e usa essas informações para concluir tarefas. Isso é verdade para todos os programas de IA, independentemente de seu propósito ou função.

Para IAs de chatbot, isso significa aprender várias respostas para possíveis perguntas que os usuários podem fazer a eles. No entanto, esse também é um dos perigos da IA.

Esses conjuntos de dados geralmente são ferramentas e recursos de código aberto disponíveis para qualquer pessoa. Embora as empresas de IA geralmente mantenham um segredo bem guardado de suas fontes de dados, os invasores cibernéticos podem determinar quais usam e manipular os dados.

Os invasores cibernéticos podem encontrar maneiras de adulterar os conjuntos de dados usado para treinar AIs, permitindo-lhes manipular suas decisões e respostas. A IA usará as informações dos dados alterados e executará os atos que os invasores desejam.

Por exemplo, uma das fontes mais usadas para conjuntos de dados são os recursos Wiki, como a Wikipédia. Embora os dados não venham do artigo da Wikipedia ao vivo, eles vêm de instantâneos de dados obtidos em momentos específicos. Os hackers podem encontrar uma maneira de editar os dados para beneficiá-los.

No caso de IAs de chatbot, os hackers podem corromper os conjuntos de dados usados ​​para treinar chatbots que trabalham para instituições médicas ou financeiras. Eles podem manipular programas de chatbot para fornecer aos clientes informações falsas que podem levá-los a clicar em um link que contém malware ou um site fraudulento. Uma vez que a IA começa a extrair dados envenenados, é difícil detectá-la e pode levar a uma violação significativa na segurança cibernética que passa despercebida por muito tempo.

Como lidar com os perigos dos chatbots de IA

Esses riscos são preocupantes, mas não significam que os bots sejam inerentemente perigosos. Em vez disso, você deve abordá-los com cautela e considerar esses perigos ao criar e usar chatbots.

A chave para evitar o viés da IA ​​é procurá-lo durante o treinamento. Certifique-se de treiná-lo em diversos conjuntos de dados e programá-lo especificamente para evitar fatores como raça, gênero ou orientação sexual em sua tomada de decisão. Também é melhor ter uma equipe diversificada de cientistas de dados para revisar o funcionamento interno dos chatbots e garantir que eles não exibam nenhum viés, por mais sutil que seja.

A melhor defesa contra o phishing é o treinamento. Treine todos os funcionários para detectar sinais comuns de tentativas de phishing para que não caiam nesses ataques. Espalhar a conscientização do consumidor sobre o problema também ajudará.

Você pode evitar o envenenamento de dados restringindo o acesso aos dados de treinamento dos chatbots. Somente as pessoas que precisam acessar esses dados para realizar seu trabalho corretamente devem ter autorização – um conceito chamado princípio do menor privilégio. Depois de implementar essas restrições, use medidas de verificação fortes, como autenticação multifator ou biometria, para evitar os riscos de cibercriminosos invadirem uma conta autorizada.

Mantenha-se vigilante contra os perigos da dependência da IA

A inteligência artificial é uma tecnologia verdadeiramente maravilhosa com aplicações quase infinitas. No entanto, os perigos da IA ​​podem ser obscuros. Os bots são perigosos? Não inerentemente, mas os cibercriminosos podem usá-los de várias maneiras prejudiciais. Cabe aos usuários decidir quais são as aplicações dessa nova tecnologia.