Connect with us

Apresentando Novos Níveis de Transparência com IA – Líderes de Pensamento

Inteligência artificial

Apresentando Novos Níveis de Transparência com IA – Líderes de Pensamento

mm

Por Balakrishna D R, Vice-Presidente Sênior, Líder de Oferta de Serviços – Energia, Comunicações, Serviços e Serviços de IA e Automação, na Infosys.

Em 9 de janeiro de 2020, a Organização Mundial da Saúde notificou o público sobre o surto de Coronavírus na China. Três dias antes, os Centros de Controle e Prevenção de Doenças dos EUA haviam divulgado a informação. Mas foi uma plataforma canadense de monitoramento de saúde que havia superado ambos, enviando a notícia do surto aos seus clientes já em 31 de dezembro de 2019! A plataforma, BlueDot, usa algoritmos impulsionados por inteligência artificial que vasculham relatórios de notícias em línguas estrangeiras, redes de doenças de animais e plantas e proclamações oficiais para dar aos seus clientes um aviso antecipado para evitar zonas de perigo como Wuhan.

Nos últimos anos, a inteligência artificial se tornou a principal fonte de transformação, disruptura e vantagem competitiva na economia em constante mudança de hoje. Desde o rastreamento de epidemias até a defesa, saúde, veículos autônomos e tudo o mais, a IA está ganhando adoção generalizada. A PwC prevê que a IA pode contribuir até $15,7 trilhões para a economia global em 2030, em seu ritmo de crescimento atual.

No entanto, apesar de toda a esperança que a IA traz, ela ainda levanta questões sem resposta sobre transparência e confiabilidade. A necessidade de entender, prever e confiar na capacidade de tomada de decisões dos sistemas de IA é importante, especialmente em áreas que são críticas para a vida, morte e bem-estar pessoal.

 

No desconhecido

Quando os sistemas de raciocínio automatizado foram introduzidos pela primeira vez para apoiar a tomada de decisões, eles dependiam de regras criadas manualmente. Embora isso tornasse fácil interpretar e modificar seu comportamento, eles não eram escaláveis. Modelos baseados em aprendizado de máquina chegaram para atender a essa necessidade; eles não exigiam intervenção humana e podiam ser treinados a partir de dados – quanto mais, melhor. Embora os modelos de aprendizado profundo sejam insuperáveis em sua capacidade de modelagem e escopo de aplicabilidade, o fato de que esses modelos são caixas pretas em grande parte, levanta questões perturbadoras sobre sua veracidade, confiabilidade e vieses no contexto de seu uso amplo.

Atualmente, não há mecanismo direto para rastrear o raciocínio implicitamente usado por modelos de aprendizado profundo. Com modelos de aprendizado de máquina que têm uma natureza de caixa preta, o principal tipo de explicabilidade é conhecido como explicabilidade pós-hoc, implicando que as explicações são derivadas da natureza e das propriedades das saídas geradas pelo modelo. As primeiras tentativas de extrair regras de redes neurais (como o aprendizado profundo era conhecido anteriormente) não são mais perseguidas, pois as redes se tornaram muito grandes e diversificadas para uma extração de regras viável. Portanto, há uma necessidade urgente de introduzir interpretabilidade e transparência no próprio tecido da modelagem de IA.

 

Saída da noite, entrada da luz

Essa preocupação criou a necessidade de transparência no aprendizado de máquina, o que levou ao crescimento da IA explicável, ou XAI. Ela busca abordar os principais problemas que impedem nossa capacidade de confiar plenamente na tomada de decisões da IA — incluindo viés e transparência. Esse novo campo de IA traz responsabilidade para garantir que a IA beneficie a sociedade com melhores resultados para todos os envolvidos.

A XAI será fundamental para ajudar com os vieses inerentes aos sistemas e algoritmos de IA, que são programados por pessoas cujos antecedentes e experiências levam involuntariamente ao desenvolvimento de sistemas de IA que exibem vieses. Vieses indesejados, como discriminação contra uma nacionalidade ou etnia específica, podem se infiltrar porque o sistema adiciona um valor a eles com base em dados reais. Por exemplo, pode ser encontrado que os devedores típicos de empréstimos vêm de uma etnia específica, no entanto, implementar qualquer política restritiva com base nisso pode ser contra práticas justas. Dados errôneos são outra causa de viés. Por exemplo, se um scanner de reconhecimento facial for impreciso 5% do tempo devido à compleição da pessoa ou à luz que incide no rosto, isso pode introduzir viés. Por fim, se seus dados de amostra não forem uma representação verdadeira de toda a população, o viés é inevitável.

A XAI visa abordar como as decisões de caixa preta dos sistemas de IA são tomadas. Ela inspeciona e tenta entender as etapas e modelos envolvidos na tomada de decisões. Ela responde a questões cruciais, como: Por que o sistema de IA fez uma previsão ou decisão específica? Por que o sistema de IA não fez algo mais? Quando o sistema de IA teve sucesso ou falhou? Quando os sistemas de IA dão confiança suficiente na decisão para que você possa confiar neles, e como o sistema de IA pode corrigir erros?

 

IA explicável, previsível e rastreável

Uma forma de ganhar explicabilidade nos sistemas de IA é usar algoritmos de aprendizado de máquina que sejam intrinsicamente explicáveis. Por exemplo, formas mais simples de aprendizado de máquina, como árvores de decisão, classificadores bayesianos e outros algoritmos que têm certa quantidade de rastreabilidade e transparência em sua tomada de decisões. Eles podem fornecer a visibilidade necessária para sistemas de IA críticos sem sacrificar muito o desempenho ou a precisão.

Notando a necessidade de fornecer explicabilidade para o aprendizado profundo e outras abordagens algorítmicas mais complexas, a Agência de Pesquisa e Desenvolvimento Avançado de Defesa dos EUA (DARPA) está perseguindo esforços para produzir soluções de IA explicáveis por meio de várias iniciativas de pesquisa financiadas. A DARPA descreve a explicabilidade da IA em três partes, que incluem: precisão da previsão, que significa que os modelos explicarão como as conclusões são alcançadas para melhorar a tomada de decisões futuras; entendimento e confiança da decisão por parte dos usuários e operadores humanos, bem como inspeção e rastreabilidade das ações realizadas pelos sistemas de IA.

A rastreabilidade permitirá que os humanos entrem nos loops de decisão da IA e tenham a capacidade de parar ou controlar suas tarefas, sempre que necessário. Um sistema de IA não é apenas esperado para realizar uma tarefa específica ou impor decisões, mas também fornecer um relatório transparente de por que ele tomou decisões específicas com a justificativa de apoio.

A padronização de algoritmos ou até mesmo de abordagens de XAI não é atualmente possível, mas pode ser possível padronizar níveis de transparência / níveis de explicabilidade. Organizações de padronização estão tentando chegar a entendimentos comuns e padrão sobre esses níveis de transparência para facilitar a comunicação entre usuários finais e fornecedores de tecnologia.

À medida que governos, instituições, empresas e o público em geral dependem de sistemas baseados em IA, conquistar a confiança deles por meio de uma transparência mais clara do processo de tomada de decisões será fundamental. O lançamento da primeira conferência global exclusivamente dedicada à XAI, a Conferência Internacional Conjunta sobre Inteligência Artificial: Workshop sobre Inteligência Artificial Explicável, é uma prova adicional de que a era da XAI chegou.

Balakrishna, popularmente conhecido como Bali D.R., é o Diretor de IA e Automação na Infosys onde ele dirige tanto a automação interna para a Infosys quanto fornece serviços de automação independentes aproveitando produtos para clientes. Bali está na Infosys por mais de 25 anos e desempenhou papéis de vendas, gerenciamento de programas e entrega em diferentes geografias e verticais de indústria.