Connect with us

Líderes de pensamento

Como a IA Explicável Aumenta a Confiabilidade e a Confiância

mm

À medida que a inteligência artificial (IA) está sendo democratizada em todo o mundo, ela está sendo lentamente incorporada ao tecido da nossa existência. Um aspecto importante dessa democratização é que os usuários finais devem ser capazes de compreender completamente o processo e os mecanismos que a IA está usando para chegar a uma conclusão ou como está operando para entregar os resultados desejados. Como seres humanos, temos uma necessidade profundamente enraizada de descobrir o “porquê” e o “como” de qualquer fenômeno, o que acelerou o nosso progresso tecnológico. No contexto da IA, essa compreensão é denominada “explicabilidade”.

Por que a Explicabilidade é a Necessidade da Hora?

Muitas vezes, abordamos a IA como uma “caixa preta”, onde temos apenas conhecimento das entradas e saídas, mas em algum lugar os processos utilizados são perdidos para nós. Agravando esse problema é o fato de que os algoritmos que alimentam as formas mais populares de IA, como sistemas de previsão baseados em aprendizado profundo complexos e Processamento de Linguagem Natural (NLP), são altamente abstratos, mesmo para os seus praticantes mais experientes.

Confiância e Transparência: Para que os usuários confiem nas previsões da IA, ela deve ter algum nível de explicabilidade inerente. Por exemplo, se um médico precisar recomendar um tratamento com base nas previsões da IA, ele precisa ter confiança na previsão. Um banco deve ter plena confiança na decisão de rejeitar ou aprovar um empréstimo e ser capaz de justificar o mesmo para todos os stakeholders. Uma IA usada para triagem e contratação deve provar que os mecanismos subjacentes são justos e equitativos para todos os grupos de candidatos.

Torna a IA mais Humana e Aumenta a Adoção: No relatório The state of AI in 2020 da McKinsey, aprendemos que um fabricante usa modelos extremamente transparentes para aceitação por parte dos trabalhadores da fábrica, que precisam confiar nos julgamentos feitos pela IA com relação à sua segurança. Para uma rápida adoção da IA, obter a aprovação dos stakeholders é o principal obstáculo para escalar de soluções pontuais para o nível empresarial e obter o máximo do investimento realizado. Isso é atenuado em grande medida se o desempenho for explicável para o público em geral. Do ponto de vista empresarial, a explicabilidade melhora a experiência geral do usuário e aumenta a satisfação do cliente. De acordo com as descobertas de uma pesquisa do IBM Institute for Business Value, 68 por cento dos principais executivos acreditam que os clientes exigirão mais explicabilidade da IA nos próximos três anos.

Descobrir Vieses e Melhorar o Desempenho do Modelo: Um desenvolvedor precisa saber como melhorar o desempenho do modelo e como exatamente depurá-lo e ajustá-lo. Um quadro de explicabilidade claro é uma das ferramentas mais importantes para realizar a análise minuciosa necessária.

Obter Insights Mais Agudos e Completos: Uma visão de 360 graus é necessária para entender completamente qualquer prescrição feita pela IA. Por exemplo, se a IA for usada para tomar uma decisão de investimento, também seria necessário saber a razão por trás disso, para que se possa transferir esse aprendizado para outras áreas e também entender os possíveis armadilhas de tomar essa decisão. Uma compreensão sólida de como a IA opera também permitirá que os tomadores de decisão descubram novos casos de uso.

Regulamentações e Responsabilidade: Várias regulamentações, como o GDPR, estão exigindo um direito à explicação, para lidar com os problemas de responsabilidade que surgem de um processo de tomada de decisão automatizada. Em sistemas como veículos autônomos, se algo der errado, levando à perda de vidas e propriedades, é necessário conhecimento sobre a causa raiz, o que será difícil de identificar em um sistema de caixa preta.

Como a IA Pode Ser Mais Explicável?

Sistemas de Inteligência Artificial Explicável (XAI) são desenvolvidos usando diferentes técnicas que se concentram em explicar o modelo como um todo ou explicar o raciocínio por trás de cada previsão, com a ajuda de algum algoritmo.

A maioria das técnicas de explicabilidade depende de:

  • Desintegrar um modelo em componentes individuais)
  • Visualização das previsões do modelo (por exemplo, se um modelo classifica um carro como sendo de uma determinada marca, ele destaca a parte que o fez ser assim)
  • Mineração de Explicações (usando técnicas de aprendizado de máquina para encontrar dados relevantes que expliquem a previsão de um algoritmo de inteligência artificial).

Em uma técnica chamada modelagem proxy, um modelo mais simples e compreensível, como uma árvore de decisão, é usado para representar aproximadamente o modelo de IA mais elaborado. Essas explicações simplistas dão uma ideia justa do modelo em um nível alto, mas às vezes podem suprimir certas nuances.

Outra abordagem é chamada de “interpretabilidade por design”. Essa abordagem impõe restrições no design e treinamento da rede de IA de uma nova forma, que tenta construir a rede geral a partir de pedaços menores e mais explicáveis. Isso envolve um tradeoff entre o nível de precisão com a explicabilidade e limita certas abordagens da caixa de ferramentas do cientista de dados. Pode ser também altamente intensivo em computação.

O treinamento e teste da IA também podem empregar técnicas de verificação de dados agnósticas, como o modelo local interpretável (LIME) e as Explicações Aditivas de Shapley (SHAP), e essas devem ser personalizadas para alcançar alta precisão por meio do uso da pontuação F, precisão e outras métricas. E, claro, todos os resultados devem ser monitorados e verificados usando uma ampla variedade de dados. Usando LIME, por exemplo, as organizações são capazes de criar modelos temporários que imitam as previsões de algoritmos não transparentes, como o aprendizado de máquina. Esses modelos LIME podem então criar uma ampla gama de permutações com base em um conjunto de dados e sua saída correspondente, que pode ser usada para treinar modelos mais simples e mais interpretáveis, juntamente com listas completas de explicações para cada decisão e/ou previsão. O quadro de SHAP, que tem suas fundações na teoria dos jogos e, especificamente, na teoria dos jogos cooperativos, é um modelo que combina alocação de crédito ótima com explicações locais, usando os valores de Shapley originais da teoria dos jogos e seus descendentes.

Operações Principais

Em um nível mais estratégico, no entanto, os quadros de confiabilidade da IA devem incorporar um conjunto amplo de princípios destinados a garantir resultados adequados tanto no início do deploy quanto ao longo do tempo, à medida que os modelos evoluem diante de circunstâncias em mudança. No mínimo, esses quadros devem incluir coisas como:

  • Deteção de Vieses – todos os conjuntos de dados devem ser limpos de vieses e atributos discriminatórios e, em seguida, receber o peso e a discrição adequados quando aplicados ao modelo de treinamento;
  • Participação Humana – os operadores devem ser capazes de investigar e interpretar as saídas dos algoritmos a qualquer momento, particularmente quando os modelos são usados para aplicação da lei e preservação das liberdades civis;
  • Justificativa – todas as previsões devem ser capazes de resistir a escrutínio, o que, por natureza, exige um alto grau de transparência para permitir que observadores externos avaliem os processos e critérios usados para produzir resultados;
  • Reprodutibilidade – modelos de IA confiáveis devem ser consistentes em suas previsões e devem exibir altos níveis de estabilidade ao encontrar novos dados.

Mas a XAI não deve ser vista apenas como um meio de melhorar a lucratividade, mas para trazer responsabilidade e garantir que as instituições possam explicar e justificar o efeito de suas criações na sociedade como um todo.

Balakrishna, popularmente conhecido como Bali D.R., é o Diretor de IA e Automação na Infosys onde ele dirige tanto a automação interna para a Infosys quanto fornece serviços de automação independentes aproveitando produtos para clientes. Bali está na Infosys por mais de 25 anos e desempenhou papéis de vendas, gerenciamento de programas e entrega em diferentes geografias e verticais de indústria.