Entre em contato

Dados — não IA — são a chave

Líderes de pensamento

Dados — não IA — são a chave

mm

A inteligência artificial tornou-se tão profundamente arraigada nas empresas que quase todas as operações foram impactadas por ela de alguma forma. E, olhando especificamente para o uso da IA, estamos vendo organizações se aprofundando em novas formas de IA para inovar e iterar em sistemas existentes. De fato, um recente vistoria dos líderes de TI descobriram que 98% já estão usando IA agêntica para orquestrar casos de uso de GenAI ou planejam fazê-lo em um futuro próximo.

Em meio à explosão de ferramentas e tecnologias de IA que surgiram nos últimos anos, os agentes de IA estão rapidamente se tornando um dos mais populares. Esses agentes ajudam as organizações a fazer tudo, desde melhorar a experiência e o suporte ao cliente até automatizar processos internos ou otimizar modelos GenAI existentes já em uso. Mas expandir os muitos benefícios dos agentes de IA, e da IA ​​em geral, para toda a empresa não é isento de dificuldades.

A razão pela qual muitas organizações enfrentam dificuldades com a IA, e com os agentes de IA em particular, em larga escala, se resume à confiança, não à tecnologia. Os agentes de IA, por natureza, trabalham em uma infinidade de sistemas. Onde quer que esses sistemas estejam, é mais do que provável que dependam de dados altamente sensíveis — sejam eles um enorme volume de dados de clientes, informações médicas ou dados bancários e financeiros. É aí que reside o problema. Inserir grandes quantidades de dados em qualquer modelo de IA, sem a infraestrutura adequada de privacidade e segurança de dados, deixa as empresas com um risco significativo.

Independentemente do resultado de um modelo de IA, ele só vale a pena se os dados que o treinaram forem confiáveis. Mas é muito mais do que apenas garantir a segurança dos dados. Especialmente com agentes de IA, há uma grande autonomia envolvida na forma como esses modelos operam. Garantir que eles estejam equipados com um entendimento de quem deve acessar os dados, quando devem ser acessados ​​e como, é fundamental para construir confiança.

Superar as complicações da privacidade de dados não é impossível. Com as políticas de dados corretas, governança de metadados, APIs e estruturas de autorização de nível empresarial implementadas, os líderes de TI corporativos podem garantir que os dados que alimentam sua IA sejam seguros e confiáveis.

Vamos olhar mais de perto.

Navegando pela privacidade de dados e a necessidade de IA em escala

Um dos objetivos mais amplos da integração de agentes de IA em uma empresa é otimizar os fluxos de trabalho entre operações e sistemas. Mas fazer isso sem nenhuma proteção pode, inadvertidamente, expor dados confidenciais ao longo do caminho. Em uma época em que violações de dados e ataques nefastos estão em constante evolução, qualquer dado exposto ou acessado por usuários não autorizados pode significar um desastre — não apenas para uma iniciativa de IA, mas para toda a empresa. O custo médio de uma violação de dados é superior a $ 4 milhões A partir de 2025, segundo a IBM, a adoção da IA ​​está acelerando rapidamente, muitas vezes deixando a governança e a segurança para trás, à medida que os líderes empresariais buscam mais inovação, insights mais aprofundados e novas oportunidades de crescimento. Mas, mesmo com o crescimento da adoção da IA, as políticas e os requisitos regulatórios estão evoluindo para acompanhar o ritmo e garantir a segurança dos dados.

Desde RGPD ao CCPA e até mesmo políticas de longa data como a HIIPA, as complicações regulatórias representam um desafio complexo para o dimensionamento de agentes de IA. Ferramentas de IA que exigem grandes quantidades de dados, quando não controladas, trazem um risco maior. À medida que os modelos de IA abrangem todos esses sistemas internos, dados confidenciais são frequentemente movidos e acessados ​​no processo. Quando se trata de dados, as agências reguladoras em todo o mundo estão dando maior ênfase à garantia de privacidade, governança eficaz e segurança robusta.

Políticas mais recentes como DORA— um conjunto de diretrizes sobre a gestão de riscos de TIC para empresas de serviços financeiros que operam na UE — exige explicitamente a classificação e a comunicação de incidentes de TIC, incluindo aqueles que afetam a confidencialidade, a integridade ou a disponibilidade dos dados. E embora esta política tenha como ênfase principal a resiliência operacional, as implicações estendem-se também à adoção da IA. À medida que mais iniciativas de IA, incluindo aquelas com agentes de IA, acessam dados em escala empresarial, o risco de acesso não autorizado aumenta. Caso um projeto de IA resulte na perda ou exposição de dados, regulamentações como essas se tornariam rapidamente relevantes.

Com tanto em jogo, é importante que as organizações empresariais não percam de vista a importância da segurança, da governança e do acesso aos dados.

Construindo a base para impulsionar agentes de IA

As empresas precisam construir uma base alicerçada em uma governança eficaz, com proteções firmes e regras executáveis ​​que definam o que os agentes podem e não podem fazer. No cerne dessa base está a governança de dados — as políticas, padrões e estruturas de alto nível que gerenciam como os dados são usados ​​de forma responsável em toda a organização. Essas políticas garantem que os agentes não excedam suas funções, seja acessando conjuntos de dados restritos ou iniciando processos sem supervisão humana.

A implementação de uma política robusta de governança de dados deve começar com alguns pontos-chave. Isso inclui responsabilidade e propriedade, qualidade e consistência dos dados, segurança e privacidade, conformidade e auditabilidade, e transparência e rastreabilidade.

Com esses pontos como base fundamental da governança, os líderes empresariais obtêm maior controle sobre a tomada de decisões, maior confiança em seus dados e redução do risco regulatório representado por silos de dados. Isso é feito por meio do aproveitamento de recursos como gerenciamento de metadados, classificação de dados e linhagem para aumentar a transparência e a visibilidade sobre quem, ou quais ferramentas de IA, podem acessar. Cada um desses mecanismos permite que as empresas rastreiem a origem dos dados, como eles fluem e como são transformados.

A tecnologia é importante, mas a confiança é primordial

Sempre que um novo modelo ou inovação de IA surge em cena, a adoção dispara. Mas, com qualquer iniciativa de IA, surgem riscos — embora nem sempre onde se possa imaginar. Os desafios técnicos que frequentemente dificultam a adoção de novas ferramentas nem sempre são os culpados pela lenta integração da IA. Muitas vezes, tudo se resume aos dados. Especificamente, à confiança nesses dados e às preocupações com a privacidade. Como a IA evolui tão rapidamente, às vezes pode ser um desafio garantir que aspectos como controles de acesso, governança de dados, linhagem e conformidade acompanhem esse ritmo.

A governança é uma parte importante da confiança, mas também requer avaliações eficazes. Especialmente na IA agêntica, ainda há uma grande lacuna nas avaliações padronizadas, mas elas são essenciais para comprovar que os sistemas se comportam de forma confiável e segura.

Não importa se você deseja otimizar o desempenho de sistemas internos, melhorar a detecção de fraudes ou apenas tornar a experiência do cliente mais tranquila, os melhores agentes de IA e iniciativas de IA em geral são todos construídos sobre uma base de dados confiáveis, privacidade e segurança.

Manasi Vartak é Da Cloudera Arquiteta-chefe de IA. Ela é fundadora e CEO da Verta, fornecedora da plataforma Verta Operational AI & LLM e do Verta Model Catalog, com sede em Menlo Park, Califórnia, recentemente adquirida pela Cloudera. Manasi inventou o gerenciamento e o rastreamento de experimentos enquanto estava no MIT CSAIL, quando criou o ModelDB, o primeiro sistema de gerenciamento de modelos de código aberto implantado em empresas da Fortune 500 e o progenitor do MLflow. Após concluir seu doutorado no MIT, Vartak ocupou cargos na área de ciência de dados no Twitter, onde trabalhou com aprendizado profundo para recomendação de conteúdo, e no Google, onde trabalhou com segmentação dinâmica de anúncios.