Líderes de pensamento
Explicabilidade pode resolver o problema de AI de todas as indústrias: a falta de transparência

Por: Migüel Jetté, VP de P&D Speech, Rev.
Em suas etapas iniciais, a IA pode ter se apoiado na novidade. Era aceitável que o aprendizado de máquina aprendesse lentamente e mantivesse um processo opaco onde o cálculo da IA era impossível para o consumidor médio penetrar. Isso está mudando. À medida que mais indústrias, como saúde, finanças e sistema de justiça criminal, começam a utilizar a IA de maneiras que podem ter um impacto real nas vidas das pessoas, mais pessoas querem saber como os algoritmos estão sendo utilizados, como os dados estão sendo coletados e quão precisas são suas capacidades. Se as empresas desejam permanecer à frente da inovação em seus mercados, elas precisam confiar em uma IA que sua audiência confie. A explicabilidade da IA é o ingrediente-chave para aprofundar essa relação.
A explicabilidade da IA difere dos procedimentos padrão de IA porque oferece às pessoas uma maneira de entender como os algoritmos de aprendizado de máquina criam saídas. A IA explicável é um sistema que pode fornecer às pessoas resultados potenciais e limitações. É um sistema de aprendizado de máquina que pode atender ao desejo humano por justiça, responsabilidade e respeito à privacidade. A IA explicável é imperativa para as empresas construírem confiança com os consumidores.
Enquanto a IA está se expandindo, os provedores de IA precisam entender que a caixa preta não pode. Modelos de caixa preta são criados diretamente a partir dos dados e, muitas vezes, nem mesmo o desenvolvedor que criou o algoritmo pode identificar o que impulsionou os hábitos aprendidos da máquina. Mas o consumidor consciente não quer se envolver com algo tão impenetrável que não possa ser responsabilizado. As pessoas querem saber como um algoritmo de IA chega a um resultado específico sem o mistério da entrada de dados e saída controlada, especialmente quando os erros da IA são frequentemente devido a vieses da máquina. À medida que a IA se torna mais avançada, as pessoas querem acesso ao processo de aprendizado de máquina para entender como o algoritmo chegou a seu resultado específico. Líderes de todas as indústrias devem entender que mais cedo ou mais tarde, as pessoas não apenas preferirão esse acesso, mas o exigirão como um nível necessário de transparência.
Sistemas de ASR, como assistentes de voz, tecnologia de transcrição e outros serviços que convertem fala humana em texto, são especialmente afetados por vieses. Quando o serviço é utilizado para medidas de segurança, erros devido a sotaques, idade ou origem de uma pessoa, podem ser erros graves, então o problema precisa ser levado a sério. O ASR pode ser utilizado de forma eficaz em câmeras de corpo de polícia, por exemplo, para gravar e transcrever interações automaticamente — mantendo um registro que, se transcritado com precisão, poderia salvar vidas. A prática da explicabilidade exigirá que a IA não apenas confie em conjuntos de dados comprados, mas busque entender as características do áudio de entrada que possam contribuir para erros, se existirem. Qual é o perfil acústico? Há ruído no fundo? O falante é de um país não anglófono ou de uma geração que usa um vocabulário que a IA ainda não aprendeu? O aprendizado de máquina precisa ser proativo para aprender mais rápido e pode começar coletando dados que possam abordar essas variáveis.
A necessidade está se tornando óbvia, mas o caminho para implementar essa metodologia não terá sempre uma solução fácil. A resposta tradicional para o problema é adicionar mais dados, mas uma solução mais sofisticada será necessária, especialmente quando os conjuntos de dados comprados por muitas empresas são intrinsicamente viesados. Isso ocorre porque historicamente, foi difícil explicar uma decisão específica renderizada pela IA e isso se deve à natureza da complexidade dos modelos de ponta a ponta. No entanto, agora podemos, e podemos começar perguntando como as pessoas perderam a confiança na IA pela primeira vez.
Inevitavelmente, a IA cometerá erros. As empresas precisam construir modelos que estejam cientes de suas limitações potenciais, identificar quando e onde os problemas estão ocorrendo e criar soluções contínuas para construir modelos de IA mais fortes:
- Quando algo dá errado, os desenvolvedores precisarão explicar o que aconteceu e desenvolver um plano imediato para melhorar o modelo e diminuir erros semelhantes no futuro.
- Para que a máquina realmente saiba se estava certa ou errada, os cientistas precisam criar um loop de feedback para que a IA possa aprender suas limitações e evoluir.
- Outra forma de o ASR construir confiança enquanto a IA ainda está melhorando é criar um sistema que possa fornecer pontuações de confiança e oferecer razões pelas quais a IA está menos confiante. Por exemplo, as empresas geralmente geram pontuações de zero a 100 para refletir as imperfeições de sua própria IA e estabelecer transparência com seus clientes. No futuro, os sistemas podem fornecer explicações pós-hoc sobre por que o áudio foi desafiador, oferecendo mais metadados sobre o áudio, como o nível de ruído percebido ou um sotaque menos compreendido.
Uma transparência adicional resultará em uma melhor supervisão humana do treinamento e desempenho da IA. Quanto mais abertos formos sobre onde precisamos melhorar, mais responsáveis seremos por tomar ações sobre essas melhorias. Por exemplo, um pesquisador pode querer saber por que um texto errôneo foi produzido para que possa mitigar o problema, enquanto um transcritor pode querer evidências de por que o ASR interpretou mal a entrada para ajudar em sua avaliação da validade. Manter os humanos no loop pode mitigar alguns dos problemas mais óbvios que surgem quando a IA não é verificada. Isso também pode acelerar o tempo necessário para a IA detectar seus erros, melhorar e, eventualmente, corrigir a si mesma em tempo real.
A IA tem a capacidade de melhorar a vida das pessoas, mas apenas se os humanos a construírem para produzir corretamente. Precisamos responsabilizar não apenas esses sistemas, mas também as pessoas por trás da inovação. Os sistemas de IA do futuro são esperados para aderir aos princípios estabelecidos pelas pessoas, e apenas então teremos um sistema que as pessoas confiem. É hora de estabelecer as bases e lutar por esses princípios agora, enquanto ainda é fundamentalmente os humanos servindo a nós mesmos.












