Connect with us

Utilizando Inteligência Artificial Geradora: Desempacotando as Implicações de Segurança Cibernética das Ferramentas de Inteligência Artificial Geradora

Líderes de pensamento

Utilizando Inteligência Artificial Geradora: Desempacotando as Implicações de Segurança Cibernética das Ferramentas de Inteligência Artificial Geradora

mm

É justo dizer que a inteligência artificial geradora agora chamou a atenção de todas as salas de reunião e líderes de negócios do país. Uma vez uma tecnologia de nicho que era difícil de dominar, as portas para a inteligência artificial geradora agora foram amplamente abertas graças a aplicações como ChatGPT ou DALL-E. Agora estamos testemunhando uma adoção generalizada da inteligência artificial geradora em todas as indústrias e faixas etárias, à medida que os funcionários descobrem maneiras de aproveitar a tecnologia em seu favor.

Um levantamento recente indicou que 29% dos respondentes da Geração Z, 28% da Geração X e 27% dos Millennials agora usam ferramentas de inteligência artificial geradora como parte de seu trabalho diário. Em 2022, a adoção em larga escala da inteligência artificial geradora estava em 23%, e esse número deve dobrar para 46% até 2025.

A inteligência artificial geradora é uma tecnologia nascente, mas rapidamente evoluindo, que aproveita modelos treinados para gerar conteúdo original em várias formas, desde texto escrito e imagens, até vídeos, música e até mesmo código de software. Usando grandes modelos de linguagem (LLMs) e enormes conjuntos de dados, a tecnologia pode criar instantaneamente conteúdo único que é quase indistinguível do trabalho humano e, em muitos casos, mais preciso e atraente.

No entanto, enquanto as empresas estão cada vez mais usando a inteligência artificial geradora para apoiar suas operações diárias, e os funcionários têm sido rápidos em adotá-la, o ritmo de adoção e a falta de regulamentação levantaram preocupações significativas de segurança cibernética e conformidade regulatória.

De acordo com um levantamento da população em geral, mais de 80% das pessoas estão preocupadas com os riscos de segurança impostos pelo ChatGPT e pela inteligência artificial geradora, e 52% dos entrevistados querem que o desenvolvimento da inteligência artificial geradora seja pausado para que as regulamentações possam acompanhar. Esse sentimento mais amplo também foi ecoado pelas próprias empresas, com 65% dos líderes de TI sênior não dispostos a aprovar o acesso sem atrito às ferramentas de inteligência artificial geradora devido a preocupações de segurança.

A inteligência artificial geradora ainda é um desconhecido desconhecido

As ferramentas de inteligência artificial geradora se alimentam de dados. Modelos, como os usados pelo ChatGPT e DALL-E, são treinados em dados externos ou disponíveis livremente na internet, mas para obter o máximo proveito dessas ferramentas, os usuários precisam compartilhar dados muito específicos. Muitas vezes, ao solicitar ferramentas como o ChatGPT, os usuários compartilham informações de negócios sensíveis para obter resultados precisos e abrangentes. Isso cria muitos desconhecidos para as empresas. O risco de acesso não autorizado ou divulgação não intencional de informações sensíveis é “incluso” quando se trata de usar ferramentas de inteligência artificial geradora disponíveis livremente.

Esse risco em si não é necessariamente uma coisa ruim. O problema é que esses riscos ainda não foram propriamente explorados. Até o momento, não houve nenhuma análise real de impacto empresarial do uso de ferramentas de inteligência artificial geradora amplamente disponíveis, e os quadros legais e regulatórios globais em torno do uso de inteligência artificial geradora ainda não alcançaram nenhuma forma de maturidade.

A regulamentação ainda é um trabalho em andamento

Os reguladores já estão avaliando as ferramentas de inteligência artificial geradora em termos de privacidade, segurança de dados e integridade dos dados que produzem. No entanto, como é comum com a tecnologia emergente, o aparato regulatório para apoiar e governar seu uso está atrasado vários passos. Enquanto a tecnologia está sendo usada por empresas e funcionários de longe e de perto, os quadros regulatórios ainda estão muito no início.

Isso cria um risco claro e presente para as empresas, que, no momento, não está sendo levado tão a sério quanto deveria. Os executivos estão naturalmente interessados em como essas plataformas introduzirão ganhos comerciais materiais, como oportunidades de automação e crescimento, mas os gerentes de risco estão perguntando como essa tecnologia será regulamentada, quais serão as implicações legais e como os dados da empresa podem se tornar comprometidos ou expostos. Muitas dessas ferramentas estão disponíveis gratuitamente para qualquer usuário com um navegador e uma conexão com a internet, então, enquanto esperam que a regulamentação acompanhe, as empresas precisam começar a pensar muito cuidadosamente sobre suas próprias “regras da casa” em torno do uso de inteligência artificial geradora.

O papel dos CISOs no governo da inteligência artificial geradora

Com os quadros regulatórios ainda faltando, os Oficiais de Segurança de Informação (CISOs) devem dar um passo à frente e desempenhar um papel crucial na gestão do uso de inteligência artificial geradora dentro de suas organizações. Eles precisam entender quem está usando a tecnologia e para qual propósito, como proteger as informações empresariais quando os funcionários interagem com as ferramentas de inteligência artificial geradora, como gerenciar os riscos de segurança da tecnologia subjacente e como equilibrar as compensações de segurança com o valor que a tecnologia oferece.

Isso não é uma tarefa fácil. Avaliações de risco detalhadas devem ser realizadas para determinar tanto os resultados negativos quanto os positivos como resultado de, primeiro, implantar a tecnologia em uma capacidade oficial e, segundo, permitir que os funcionários usem ferramentas disponíveis gratuitamente sem supervisão. Dada a natureza de acesso fácil das aplicações de inteligência artificial geradora, os CISOs precisarão pensar cuidadosamente sobre a política da empresa em torno de seu uso. Os funcionários devem ser livres para usar ferramentas como o ChatGPT ou DALL-E para tornar seus trabalhos mais fáceis? Ou o acesso a essas ferramentas deve ser restrito ou moderado de alguma forma, com diretrizes e quadros internos sobre como elas devem ser usadas? Um problema óbvio é que, mesmo que as diretrizes de uso interno fossem criadas, dado o ritmo em que a tecnologia está evoluindo, elas podem muito bem estar obsoletas no momento em que forem finalizadas.

Uma maneira de abordar esse problema pode ser mudar o foco das próprias ferramentas de inteligência artificial geradora e, em vez disso, focar na classificação e proteção de dados. A classificação de dados sempre foi um aspecto fundamental para proteger os dados contra violações ou vazamentos, e isso também se aplica a este caso específico. Isso envolve atribuir um nível de sensibilidade aos dados, o que determina como eles devem ser tratados. Devem ser criptografados? Devem ser bloqueados para serem contidos? Devem ser notificados? Quem deve ter acesso a eles e onde é permitido compartilhá-los? Ao se concentrar no fluxo de dados, em vez da ferramenta em si, os CISOs e os oficiais de segurança terão uma chance muito maior de mitigar alguns dos riscos mencionados.

Como todas as tecnologias emergentes, a inteligência artificial geradora é tanto uma benção quanto um risco para as empresas. Enquanto oferece capacidades emocionais novas, como automação e conceituação criativa, também introduz desafios complexos em torno da segurança de dados e da salvaguarda da propriedade intelectual. Enquanto os quadros regulatórios e legais ainda estão sendo elaborados, as empresas devem caminhar na linha entre oportunidade e risco, implementando seus próprios controles de política que refletem sua postura de segurança geral. A inteligência artificial geradora impulsionará os negócios para frente, mas devemos ter cuidado para manter uma mão no volante.

Com mais de 25 anos de experiência como especialista em cibersegurança, Chris Hetner é reconhecido por elevar o risco cibernético ao nível da C-Suite e do Conselho de Administração para proteger indústrias, infraestruturas e economias em todo o mundo.

Ele atuou como Conselheiro Sênior de Cibersegurança do Presidente da Comissão de Valores Mobiliários dos Estados Unidos e como Chefe de Cibersegurança do Escritório de Inspeções e Exames de Conformidade da SEC.

Atualmente, Chris é Presidente do Conselho Consultivo de Segurança do Cliente da Panzura, que fornece educação e conscientização sobre resiliência de dados com a missão de avançar a alinhamento empresarial, operacional e financeiro com a governança de risco cibernético. A Panzura é uma empresa líder em gerenciamento de dados híbridos multi-nuvem.

Além disso, ele é Conselheiro Especial para Risco Cibernético da Associação Nacional de Diretores Corporativos, Presidente de Cibersegurança e Privacidade do Conselho de Insights da Nasdaq e Membro do Conselho de Administração da TCIG.