Líderes de pensamento
Considere os Riscos Antes de Entrar no Bard Com Extensões de IA

O Google recentemente anunciou o lançamento em grande escala das Extensões do Bard, integrando a ferramenta de IA conversacional generativa (GenAI) aos seus outros serviços. O Bard agora pode utilizar os dados pessoais dos usuários para realizar uma miríade de tarefas – organizar e-mails, reservar voos, planejar viagens, criar respostas de mensagens e muito mais.
Com os serviços do Google já profundamente entrelaçados em nossas vidas diárias, essa integração marca um verdadeiro passo à frente para aplicações práticas diárias de GenAI, criando maneiras mais eficientes e produtivas de lidar com tarefas e fluxos de trabalho pessoais. Consequentemente, à medida que o Google lança ferramentas de IA mais convenientes, outros recursos de IA baseados na web estão surgindo para atender à demanda dos usuários que agora buscam extensões de produtividade baseadas no navegador.
Os usuários, no entanto, também devem ser cautelosos e responsáveis. Por mais úteis e produtivas que as Extensões do Bard e ferramentas semelhantes possam ser, elas abrem novas portas para possíveis falhas de segurança que podem comprometer os dados pessoais dos usuários, entre outros riscos ainda não descobertos. Os usuários ansiosos para utilizar o Bard ou outras ferramentas de produtividade de GenAI fariam bem em aprender as melhores práticas e buscar soluções de segurança abrangentes antes de entregar cegamente suas informações sensíveis.
Revisando Dados Pessoais
O Google declara explicitamente que sua equipe pode revisar as conversas dos usuários com o Bard – que podem conter informações privadas, desde faturas até detalhes bancários e notas de amor. Os usuários são advertidos para não inserir informações confidenciais ou quaisquer dados que não desejam que os funcionários do Google vejam ou usem para informar produtos, serviços e tecnologias de aprendizado de máquina.
O Google e outros provedores de ferramentas de GenAI também provavelmente usarão os dados pessoais dos usuários para re-treinar seus modelos de aprendizado de máquina – um aspecto necessário das melhorias de GenAI. O poder da IA reside em sua capacidade de se ensinar e aprender com novas informações, mas quando essas novas informações vêm dos usuários que confiaram uma extensão de GenAI com seus dados pessoais, há o risco de integrar informações como senhas, informações bancárias ou detalhes de contato nos serviços públicos do Bard.
Preocupações de Segurança Indeterminadas
À medida que o Bard se torna uma ferramenta mais amplamente integrada ao Google, especialistas e usuários estão trabalhando para entender a extensão de sua funcionalidade. Mas como todos os jogadores de ponta no campo da IA, o Google continua a lançar produtos sem saber exatamente como eles utilizarão as informações e dados dos usuários. Por exemplo, foi recentemente revelado que, se você compartilhar uma conversa do Bard com um amigo via o botão Compartilhar, a conversa inteira pode aparecer nos resultados de pesquisa do Google padrão para qualquer pessoa ver.
Embora seja uma solução atraente para melhorar os fluxos de trabalho e a eficiência, dar permissão ao Bard ou a qualquer outra extensão de IA para realizar tarefas úteis diárias em seu nome pode levar a consequências indesejadas na forma de alucinações de IA – saídas falsas ou imprecisas que a GenAI é conhecida por criar às vezes.
Para os usuários do Google, isso pode significar reservar um voo incorreto, pagar uma fatura de forma inadequada ou compartilhar documentos com a pessoa errada. Expor dados pessoais à parte errada ou a um ator mal-intencionado ou enviar os dados errados para a pessoa certa pode levar a consequências indesejadas – desde roubo de identidade e perda de privacidade digital até perda financeira potencial ou exposição de correspondência embaraçosa.
Estendendo a Segurança
Para o usuário médio de IA, a melhor prática é simplesmente não compartilhar nenhuma informação pessoal com assistentes de IA ainda imprevisíveis. Mas isso sozinho não garante a segurança total.
A mudança para aplicativos SaaS e baseados na web já tornou o navegador um alvo principal para atacantes. E à medida que as pessoas começam a adotar mais ferramentas de IA baseadas na web, a janela de oportunidade para roubar dados sensíveis se abre um pouco mais. À medida que mais extensões de navegador tentam aproveitar o sucesso da GenAI – atraindo os usuários para instalar novos recursos eficientes – as pessoas precisam estar cientes de que muitas dessas extensões acabarão roubando informações ou as chaves de API do OpenAI, no caso de ferramentas relacionadas ao ChatGPT.
Felizmente, soluções de segurança de extensões de navegador já existem para prevenir o roubo de dados. Ao implementar uma extensão de navegador com controles de DLP, os usuários podem mitigar o risco de convidar outras extensões de navegador, baseadas em IA ou não, a mal utilizarem ou compartilharem dados pessoais. Essas extensões de segurança podem inspecionar a atividade do navegador e aplicar políticas de segurança, prevenindo o risco de aplicativos baseados na web pegarem informações sensíveis.
Proteja o Bard
Embora o Bard e outras extensões semelhantes prometam produtividade e conveniência aprimoradas, elas carregam riscos cibernéticos substanciais. Sempre que dados pessoais estão envolvidos, há preocupações de segurança subjacentes das quais os usuários devem estar cientes – ainda mais em águas inexploradas da IA Generativa.
À medida que os usuários permitem que o Bard e outras ferramentas baseadas na web e em IA atuem de forma independente com dados pessoais sensíveis, consequências mais graves estão certamente reservadas para usuários inexperientes que se deixam vulneráveis sem extensões de segurança de navegador ou controles de DLP. Afinal, um aumento na produtividade será muito menos produtivo se aumentar a chance de expor informações, e os indivíduos precisam colocar salvaguardas para a IA no lugar antes que os dados sejam mal utilizados por conta deles.












