Entre em contato

Como a IA explicável aumenta a confiabilidade e a confiabilidade

Líderes de pensamento

Como a IA explicável aumenta a confiabilidade e a confiabilidade

mm

À medida que a inteligência artificial (IA) está sendo democratizada nas empresas, ela está lentamente se incorporando ao tecido de nossa existência. Um aspecto importante dessa democratização é que os usuários finais devem ser capazes de compreender totalmente o processo e os mecanismos que a IA está usando para chegar a uma conclusão ou como ela está operando para fornecer os resultados desejados. Como seres humanos, temos uma necessidade profunda de descobrir o “porquê” e o “como” de qualquer fenômeno que acelerou nosso progresso tecnológico. No contexto da IA, esse entendimento é denominado “explicabilidade”.

Por que explicabilidade é a necessidade do momento?

Na maioria das vezes, abordamos a IA como uma “caixa preta”, onde só temos consciência das entradas e saídas, mas em algum lugar os processos utilizados se perdem para nós. Para agravar este problema está o facto de os algoritmos que alimentam as formas mais populares de IA, tais como sistemas complexos de previsão baseados em aprendizagem profunda e Processamento de Linguagem Natural (PNL), serem altamente abstractos até mesmo para os seus profissionais mais talentosos.

Confiança e Transparência: Para que os usuários confiem nas previsões da IA, ela deve ter algum nível de explicabilidade inerente a ela. Por exemplo, se um médico deve recomendar um tratamento com base nas previsões da IA, ele precisa estar confiante na previsão. Um banco deve ter total confiança na decisão de rejeitar ou aprovar um empréstimo e ser capaz de justificá-lo a todas as partes interessadas. Uma IA usada para triagem e contratação deve provar que os mecanismos subjacentes são justos e equitativos para todos os grupos de candidatos.

Torna a IA mais humana e aumenta a adoção: No McKinsey's  Relatório sobre o estado da IA ​​em 2020 aprendemos que um fabricante usa modelos extremamente transparentes para aceitação de seus operários, que precisam confiar nos julgamentos feitos pela IA em relação à sua segurança. Para uma adoção rápida da IA, obter a adesão das partes interessadas é o principal obstáculo para escalar de soluções pontuais simples para o nível corporativo e aproveitar ao máximo o investimento feito. Isso é aliviado em grande medida se o desempenho for explicável para o público maior. Do ponto de vista comercial, a explicabilidade aprimora a experiência geral do usuário e aumenta a satisfação do cliente. De acordo com as descobertas de uma pesquisa do IBM Institute for Business Value, 68% dos principais executivos acreditam que os clientes exigirão mais explicabilidade da IA ​​nos próximos três anos.

Descubra vieses e melhore o desempenho do modelo:  Um desenvolvedor precisa saber como pode melhorar o desempenho do modelo e como exatamente depurá-lo e ajustá-lo. Uma estrutura de explicabilidade clara é uma das ferramentas mais importantes para conduzir a análise completa necessária.

Obtenha insights mais nítidos e completos:  Uma visão completa de 360 ​​graus é necessária para entender completamente quaisquer prescrições feitas pela IA. Por exemplo, se a IA for usada para tomar uma decisão de investimento, também seria necessário conhecer a lógica por trás dela, para transferir esse aprendizado para outras áreas e também entender as possíveis armadilhas de tomar essa decisão. Um forte entendimento de como a IA opera também permitirá que os tomadores de decisão descubram novos casos de uso.

Regulamentos e Responsabilidade: Vários regulamentos, como o GDPR, exigem o direito de explicação, para abordar as questões de responsabilidade que surgem de um processo automatizado de tomada de decisão. Em sistemas como veículos autônomos, se algo der errado levando à perda de vidas e propriedades, é necessário conhecimento adequado sobre a causa raiz, que será difícil de identificar em um sistema de caixa preta.

Como a IA pode ser mais explicável?

Sistemas de Inteligência Artificial Explicável (XAI) são desenvolvidos usando diferentes técnicas que se concentram em explicar o modelo como um todo ou explicar o raciocínio por trás da previsão individual por meio da assistência de algum algoritmo.

Principalmente todas as técnicas de explicabilidade dependem de:

  • Desintegrar um modelo em componentes individuais)
  • Visualização de previsões do modelo (por exemplo, se um modelo classifica um carro como sendo de uma determinada marca, ele destaca a parte que o levou a sinalizá-lo como tal)
  • Mineração de Explicação (usando técnicas de aprendizado de máquina para encontrar dados relevantes que expliquem a previsão de um algoritmo de inteligência artificial).

Em uma dessas técnicas chamada modelagem proxy, um modelo mais simples e compreensível, como uma árvore de decisão, é usado para representar aproximadamente o modelo de IA mais elaborado. Estas explicações simplistas dão uma boa ideia do modelo a um nível elevado, mas podem por vezes suprimir certas nuances.

Outra abordagem é chamada de “interpretabilidade por design”. Essa abordagem coloca restrições no design e no treinamento da rede de IA de uma nova maneira, que tenta construir a rede geral a partir de blocos explicáveis ​​menores e mais simples. Isso envolve uma troca entre nível de precisão com explicabilidade e limita certas abordagens do kit de ferramentas do cientista de dados. Também pode ser altamente computacional.

O treinamento e o teste de IA também podem empregar técnicas de verificação de dados agnósticas, como modelo local interpretável (LIME) e Shapley Additive exPlanations (SHAP), e essas devem ser adaptadas para obter alta precisão por meio do uso de F-score, precisão e outras métricas. E, claro, todos os resultados devem ser monitorados e verificados usando uma ampla variedade de dados. Usando o LIME, por exemplo, as organizações podem criar modelos temporários que imitam as previsões de algoritmos não transparentes, como aprendizado de máquina. Esses modelos LIME podem criar uma ampla gama de permutações com base em um determinado conjunto de dados e sua saída correspondente, que podem ser usados ​​para treinar modelos simples e mais interpretáveis, juntamente com listas completas de explicações para cada decisão e/ou previsão. A estrutura SHAP que tem seus fundamentos na teoria dos jogos e especificamente na teoria dos jogos cooperativos é um modelo que é . Ele combina alocação de crédito ideal com explicações locais usando os valores Shapley originais da teoria dos jogos e seus descendentes.

Operações baseadas em princípios

Em um nível mais estratégico, no entanto, as estruturas de confiabilidade da IA ​​devem incorporar um amplo conjunto de princípios destinados a garantir resultados adequados tanto no início da implantação quanto ao longo do tempo, à medida que os modelos evoluem na presença de mudanças nas circunstâncias. No mínimo, essas estruturas devem incluir coisas como:

  • Detecção de viés – todos os conjuntos de dados devem ser limpos de tendências e atributos discriminatórios e, em seguida, devem receber o peso e a discrição adequados quando aplicados ao modelo de treinamento;
  • Envolvimento Humano – os operadores devem ser capazes de investigar e interpretar resultados de algoritmos em todos os momentos, especialmente quando os modelos são usados ​​para aplicação da lei e preservação das liberdades civis;
  • Justificação – todas as previsões devem resistir ao escrutínio, que por natureza exige um alto grau de transparência para permitir que observadores externos avaliem os processos e critérios usados ​​para produzir resultados;
  • Reprodutibilidade – modelos de IA confiáveis ​​devem ser consistentes em suas previsões e devem exibir altos níveis de estabilidade ao encontrar novos dados.

Mas o XAI não deve ser visto apenas como um meio para melhorar a lucratividade, mas para trazer a responsabilidade de garantir que as instituições possam explicar e justificar o efeito de suas criações na sociedade como um todo.

Balakrishna, popularmente conhecido como Bali DR, é o chefe de IA e automação da Infosys onde dirige a automação interna da Infosys e fornece serviços de automação independentes, alavancando produtos para os clientes. Bali está na Infosys há mais de 25 anos e desempenhou funções de vendas, gerenciamento de programas e entrega em diferentes regiões geográficas e setores verticais da indústria.