Líderes de pensamento
Utilizando Inteligência Artificial Geradora: Desempacotando as Implicações de Segurança Cibernética das Ferramentas de Inteligência Artificial Geradora

É justo dizer que a inteligência artificial geradora agora chamou a atenção de todas as salas de reunião e líderes de negócios do país. Uma vez uma tecnologia de nicho que era difícil de dominar, as portas para a inteligência artificial geradora agora foram amplamente abertas graças a aplicações como ChatGPT ou DALL-E. Agora estamos testemunhando uma adoção generalizada da inteligência artificial geradora em todas as indústrias e faixas etárias, à medida que os funcionários descobrem maneiras de aproveitar a tecnologia em seu favor.
Um levantamento recente indicou que 29% dos respondentes da Geração Z, 28% da Geração X e 27% dos Millennials agora usam ferramentas de inteligência artificial geradora como parte de seu trabalho diário. Em 2022, a adoção em larga escala da inteligência artificial geradora estava em 23%, e esse número deve dobrar para 46% até 2025.
A inteligência artificial geradora é uma tecnologia nascente, mas rapidamente evoluindo, que aproveita modelos treinados para gerar conteúdo original em várias formas, desde texto escrito e imagens, até vídeos, música e até mesmo código de software. Usando grandes modelos de linguagem (LLMs) e enormes conjuntos de dados, a tecnologia pode criar instantaneamente conteúdo único que é quase indistinguível do trabalho humano e, em muitos casos, mais preciso e atraente.
No entanto, enquanto as empresas estão cada vez mais usando a inteligência artificial geradora para apoiar suas operações diárias, e os funcionários têm sido rápidos em adotá-la, o ritmo de adoção e a falta de regulamentação levantaram preocupações significativas de segurança cibernética e conformidade regulatória.
De acordo com um levantamento da população em geral, mais de 80% das pessoas estão preocupadas com os riscos de segurança impostos pelo ChatGPT e pela inteligência artificial geradora, e 52% dos entrevistados querem que o desenvolvimento da inteligência artificial geradora seja pausado para que as regulamentações possam acompanhar. Esse sentimento mais amplo também foi ecoado pelas próprias empresas, com 65% dos líderes de TI sênior não dispostos a aprovar o acesso sem atrito às ferramentas de inteligência artificial geradora devido a preocupações de segurança.
A inteligência artificial geradora ainda é um desconhecido desconhecido
As ferramentas de inteligência artificial geradora se alimentam de dados. Modelos, como os usados pelo ChatGPT e DALL-E, são treinados em dados externos ou disponíveis livremente na internet, mas para obter o máximo proveito dessas ferramentas, os usuários precisam compartilhar dados muito específicos. Muitas vezes, ao solicitar ferramentas como o ChatGPT, os usuários compartilham informações de negócios sensíveis para obter resultados precisos e abrangentes. Isso cria muitos desconhecidos para as empresas. O risco de acesso não autorizado ou divulgação não intencional de informações sensíveis é “incluso” quando se trata de usar ferramentas de inteligência artificial geradora disponíveis livremente.
Esse risco em si não é necessariamente uma coisa ruim. O problema é que esses riscos ainda não foram propriamente explorados. Até o momento, não houve nenhuma análise real de impacto empresarial do uso de ferramentas de inteligência artificial geradora amplamente disponíveis, e os quadros legais e regulatórios globais em torno do uso de inteligência artificial geradora ainda não alcançaram nenhuma forma de maturidade.
A regulamentação ainda é um trabalho em andamento
Os reguladores já estão avaliando as ferramentas de inteligência artificial geradora em termos de privacidade, segurança de dados e integridade dos dados que produzem. No entanto, como é comum com a tecnologia emergente, o aparato regulatório para apoiar e governar seu uso está atrasado vários passos. Enquanto a tecnologia está sendo usada por empresas e funcionários de longe e de perto, os quadros regulatórios ainda estão muito no início.
Isso cria um risco claro e presente para as empresas, que, no momento, não está sendo levado tão a sério quanto deveria. Os executivos estão naturalmente interessados em como essas plataformas introduzirão ganhos comerciais materiais, como oportunidades de automação e crescimento, mas os gerentes de risco estão perguntando como essa tecnologia será regulamentada, quais serão as implicações legais e como os dados da empresa podem se tornar comprometidos ou expostos. Muitas dessas ferramentas estão disponíveis gratuitamente para qualquer usuário com um navegador e uma conexão com a internet, então, enquanto esperam que a regulamentação acompanhe, as empresas precisam começar a pensar muito cuidadosamente sobre suas próprias “regras da casa” em torno do uso de inteligência artificial geradora.
O papel dos CISOs no governo da inteligência artificial geradora
Com os quadros regulatórios ainda faltando, os Oficiais de Segurança de Informação (CISOs) devem dar um passo à frente e desempenhar um papel crucial na gestão do uso de inteligência artificial geradora dentro de suas organizações. Eles precisam entender quem está usando a tecnologia e para qual propósito, como proteger as informações empresariais quando os funcionários interagem com as ferramentas de inteligência artificial geradora, como gerenciar os riscos de segurança da tecnologia subjacente e como equilibrar as compensações de segurança com o valor que a tecnologia oferece.
Isso não é uma tarefa fácil. Avaliações de risco detalhadas devem ser realizadas para determinar tanto os resultados negativos quanto os positivos como resultado de, primeiro, implantar a tecnologia em uma capacidade oficial e, segundo, permitir que os funcionários usem ferramentas disponíveis gratuitamente sem supervisão. Dada a natureza de acesso fácil das aplicações de inteligência artificial geradora, os CISOs precisarão pensar cuidadosamente sobre a política da empresa em torno de seu uso. Os funcionários devem ser livres para usar ferramentas como o ChatGPT ou DALL-E para tornar seus trabalhos mais fáceis? Ou o acesso a essas ferramentas deve ser restrito ou moderado de alguma forma, com diretrizes e quadros internos sobre como elas devem ser usadas? Um problema óbvio é que, mesmo que as diretrizes de uso interno fossem criadas, dado o ritmo em que a tecnologia está evoluindo, elas podem muito bem estar obsoletas no momento em que forem finalizadas.
Uma maneira de abordar esse problema pode ser mudar o foco das próprias ferramentas de inteligência artificial geradora e, em vez disso, focar na classificação e proteção de dados. A classificação de dados sempre foi um aspecto fundamental para proteger os dados contra violações ou vazamentos, e isso também se aplica a este caso específico. Isso envolve atribuir um nível de sensibilidade aos dados, o que determina como eles devem ser tratados. Devem ser criptografados? Devem ser bloqueados para serem contidos? Devem ser notificados? Quem deve ter acesso a eles e onde é permitido compartilhá-los? Ao se concentrar no fluxo de dados, em vez da ferramenta em si, os CISOs e os oficiais de segurança terão uma chance muito maior de mitigar alguns dos riscos mencionados.
Como todas as tecnologias emergentes, a inteligência artificial geradora é tanto uma benção quanto um risco para as empresas. Enquanto oferece capacidades emocionais novas, como automação e conceituação criativa, também introduz desafios complexos em torno da segurança de dados e da salvaguarda da propriedade intelectual. Enquanto os quadros regulatórios e legais ainda estão sendo elaborados, as empresas devem caminhar na linha entre oportunidade e risco, implementando seus próprios controles de política que refletem sua postura de segurança geral. A inteligência artificial geradora impulsionará os negócios para frente, mas devemos ter cuidado para manter uma mão no volante.












