toco 5 pilares fundamentais para garantir uma IA responsável - Unite.AI
Entre em contato

Líderes de pensamento

5 pilares fundamentais para garantir uma IA responsável

mm

Publicado

 on

Estamos vendo um crescimento impressionante em sistemas AI/ML para processar oceanos de dados que estão sendo gerados na nova economia digital. No entanto, com esse crescimento, é necessário considerar seriamente as implicações éticas e legais da IA.

À medida que confiamos tarefas cada vez mais sofisticadas e importantes a sistemas de IA, como a aprovação automática de empréstimos, por exemplo, devemos ter a certeza absoluta de que esses sistemas são responsáveis ​​e confiáveis. Reduzir o viés na IA tornou-se uma grande área de foco para muitos pesquisadores e tem enormes implicações éticas, assim como a quantidade de autonomia que damos a esses sistemas.

O conceito de IA responsável é uma estrutura importante que pode ajudar a criar confiança em suas implantações de IA. Existem cinco pilares fundamentais para a IA responsável. Este artigo irá explorá-los para ajudá-lo a construir sistemas melhores.

1. Reprodutibilidade

Há um velho ditado no mundo do desenvolvimento de software que diz: “ei, funciona na minha máquina”. Em ML e IA, a frase poderia ser ajustada para ser: “ei, funciona no meu conjunto de dados”. Isso quer dizer que os modelos de aprendizado de máquina muitas vezes tendem a ser uma caixa preta. Muitos conjuntos de dados de treinamento podem ter vieses inerentes, como viés de amostragem ou viés de confirmação, que reduzem a precisão do produto final.

Para ajudar a tornar os sistemas AI/ML mais reproduzíveis e, portanto, precisos e confiáveis, o primeiro passo é padronizar o pipeline MLOps. Mesmo os cientistas de dados mais inteligentes têm suas tecnologias e bibliotecas favoritas, o que significa que a engenharia de recursos e os modelos resultantes não são uniformes de pessoa para pessoa. Usando ferramentas como MLflow, você pode padronizar o pipeline MLOps e reduzir essas diferenças.

Outra maneira de ajudar a tornar os sistemas AI/ML mais reproduzíveis é por meio do uso dos chamados “conjuntos de dados de ouro”. Estes são conjuntos de dados representativos que atuam essencialmente como testes e validação de novos modelos antes de serem liberados para produção.

2. Transparência

Conforme declarado anteriormente, muitos modelos de ML, particularmente redes neurais, são caixas pretas. Para torná-los mais responsáveis, precisamos torná-los mais interpretáveis. Para sistemas simples, como árvores de decisão, é muito fácil entender como e por que o sistema tomou uma determinada decisão, mas, à medida que a precisão e a complexidade de um sistema de IA aumentam, sua interpretabilidade muitas vezes diminui.

Há uma nova área de pesquisa chamada “explicabilidade” que está tentando trazer transparência até mesmo para os complexos sistemas de IA, como redes neurais e aprendizado profundo. Eles usam modelos de proxy para copiar o desempenho de uma rede neural, mas também tentam fornecer explicações válidas sobre quais recursos são importantes.

Tudo isso leva à justiça; você quer saber por que uma determinada decisão foi tomada e certificar-se de que essa decisão é justa. Você também deseja garantir que recursos inadequados não sejam considerados para que o viés não se infiltre em seu modelo.

3. Prestação de contas

Talvez o aspecto mais importante da IA ​​responsável seja a responsabilidade. Há muita conversa sobre esse tópico, mesmo no setor governamental, já que ele trata de quais políticas impulsionarão os resultados da IA. Essa abordagem orientada por políticas determina em que estágio os humanos devem estar no circuito.

A responsabilidade requer monitores e métricas robustos para ajudar a orientar os formuladores de políticas e controlar os sistemas de IA/ML. A responsabilidade realmente une reprodutibilidade e transparência, mas precisa de supervisão efetiva na forma de comitês de ética de IA. Esses comitês podem lidar com decisões políticas, decidir o que é importante medir e conduzir análises de equidade.

4. Segurança

A segurança da IA ​​se concentra na confidencialidade e integridade dos dados. Quando os sistemas estão processando dados, você deseja que eles estejam em um ambiente seguro. Você deseja que os dados sejam criptografados enquanto estão em repouso em seu banco de dados e também enquanto estão sendo chamados pelo pipeline, mas ainda existem vulnerabilidades enquanto estão sendo alimentados em um modelo de aprendizado de máquina como texto simples. Tecnologias como a criptografia homomórfica corrigem esse problema, permitindo que o treinamento de aprendizado de máquina ocorra em um ambiente criptografado.

Outro aspecto é a segurança do próprio modelo. Por exemplo, os ataques de inversão de modelo permitem que os hackers aprendam os dados de treinamento usados ​​para construir o modelo. Existem também ataques de envenenamento de modelo, que inserem dados incorretos no modelo durante o treinamento e prejudicam totalmente seu desempenho. Testar seu modelo para ataques adversários como esses pode mantê-lo seguro e protegido.

5. Privacidade

Google e OpenMined são duas organizações que recentemente priorizaram a privacidade da IA, e a OpenMined organizou uma conferência recente sobre esse assunto. Com novos regulamentos, como GDPR e CCPA, e potencialmente mais a caminho, a privacidade desempenhará um papel central na forma como treinamos modelos de aprendizado de máquina.

Uma maneira de garantir que você está lidando com os dados do seu cliente com base na privacidade é usar o aprendizado federado. Este método descentralizado de aprendizado de máquina treina diferentes modelos localmente e, em seguida, agrega cada modelo em um hub central, mantendo os dados seguros e privados. Outro método é introduzir ruído estatístico para que os valores individuais dos clientes não vazem. Isso mantém você trabalhando com o agregado para que os dados de um indivíduo fiquem intactos e não estejam disponíveis para o algoritmo.

Mantendo a responsabilidade da IA

 Em última análise, manter a responsabilidade da IA ​​depende de cada organização que está projetando sistemas de IA/ML. Ao buscar intencionalmente tecnologias dentro de cada uma dessas cinco facetas da IA ​​responsável, você pode não apenas se beneficiar do poder da inteligência artificial, mas também de uma maneira confiável e direta que tranquilizará sua organização, clientes e reguladores.

Dattaraj Rao, cientista-chefe de dados da Sistemas Persistentes, é autor do livro “Keras to Kubernetes: The Journey of a Machine Learning Model to Production”. Na Persistent Systems, Dattaraj lidera o AI Research Lab que explora algoritmos de ponta em Visão Computacional, Compreensão de Linguagem Natural, Programação Probabilística, Aprendizagem por Reforço, IA Explicável, etc. e demonstra aplicabilidade nos domínios da Saúde, Bancário e Industrial. Dattaraj tem 11 patentes em Machine Learning e Computer Vision.