Connect with us

Viés e Justiça nos Sistemas Baseados em IA Dentro do Crime Financeiro

Líderes de pensamento

Viés e Justiça nos Sistemas Baseados em IA Dentro do Crime Financeiro

mm

Quando se trata de combater o crime financeiro, existem desafios que vão além do escopo de simplesmente parar os fraudadores ou outros atores mal-intencionados.

Algumas das tecnologias mais novas e avançadas que estão sendo lançadas frequentemente têm seus próprios problemas específicos que devem ser considerados durante as etapas de adoção para combater com sucesso os fraudadores sem consequências regulatórias. Na detecção de fraude, a justiça do modelo e o viés dos dados podem ocorrer quando um sistema é mais pesadamente ponderado ou falta representação de certos grupos ou categorias de dados. Em teoria, um modelo preditivo poderia erroneamente associar sobrenomes de outras culturas com contas fraudulentas, ou falsamente diminuir o risco dentro de segmentos da população para certos tipos de atividades financeiras.

Sistemas de IA tendenciosos podem representar uma ameaça séria quando as reputações podem ser afetadas e ocorre quando os dados disponíveis não são representativos da população ou do fenômeno de exploração. Esses dados não incluem variáveis que capturam adequadamente o fenômeno que desejamos prever. Ou, alternativamente, os dados podem incluir conteúdo produzido por humanos que pode conter viés contra grupos de pessoas, herdado por experiências culturais e pessoais, levando a distorções ao tomar decisões. Embora, à primeira vista, os dados possam parecer objetivos, eles ainda são coletados e analisados por humanos e, portanto, podem ser tendenciosos.

Embora não haja uma bala de prata quando se trata de remediar os perigos da discriminação e da injustiça nos sistemas de IA ou soluções permanentes para o problema da justiça e mitigação de viés na arquitetura de modelos de aprendizado de máquina e uso, essas questões devem ser consideradas por razões sociais e comerciais.

Fazendo a Coisa Certa em IA

Abordar o viés nos sistemas baseados em IA não é apenas a coisa certa, mas a coisa inteligente para os negócios — e as apostas para os líderes empresariais são altas. Sistemas de IA tendenciosos podem levar as instituições financeiras pelo caminho errado, alocando oportunidades, recursos, informações ou qualidade de serviço de forma injusta. Eles até têm o potencial de infringir liberdades civis, representar um detrimento para a segurança dos indivíduos ou impactar o bem-estar de uma pessoa se percebida como desdenhosa ou ofensiva.

É importante para as empresas entenderem o poder e os riscos do viés de IA. Embora frequentemente desconhecido pela instituição, um sistema baseado em IA tendencioso poderia estar usando modelos ou dados prejudiciais que expõem viés de raça ou gênero em uma decisão de empréstimo. Informações como nomes e gênero poderiam ser procuras para categorizar e identificar solicitantes de maneira ilegal. Mesmo que o viés seja involuntário, ele ainda coloca a organização em risco por não cumprir com os requisitos regulatórios e pode levar a que certos grupos de pessoas sejam injustamente negados empréstimos ou linhas de crédito.

Atualmente, as organizações não têm as peças no lugar para mitigar com sucesso o viés nos sistemas de IA. Mas, com a IA sendo cada vez mais implantada em empresas para informar decisões, é vital que as organizações busquem reduzir o viés, não apenas por razões morais, mas para cumprir com os requisitos regulatórios e construir receita.

Cultura e Implementação “Consciente da Justiça”

Soluções que se concentram em design e implementação conscientes da justiça terão os resultados mais benéficos. Os provedores devem ter uma cultura analítica que considere a aquisição, manipulação e gestão responsáveis de dados como componentes necessários da justiça algorítmica, porque, se os resultados de um projeto de IA são gerados por conjuntos de dados tendenciosos, comprometidos ou distorcidos, as partes afetadas não serão protegidas adequadamente contra danos discriminatórios.

Esses são os elementos da justiça dos dados que as equipes de ciência de dados devem ter em mente:

  • Representatividade: Dependendo do contexto, seja a subrepresentação ou a superrepresentação de grupos desfavorecidos ou legalmente protegidos nos dados da amostra pode levar ao desfavorecimento sistemático das partes vulneráveis nos resultados do modelo treinado. Para evitar esse tipo de viés de amostragem, a expertise de domínio será crucial para avaliar a adequação entre os dados coletados ou adquiridos e a população subjacente a ser modelada. Membros da equipe técnica devem oferecer meios de remediação para corrigir falhas de representação na amostragem.
  • Adequação e Suficiência: É importante entender se os dados coletados são suficientes para o propósito pretendido do projeto. Conjuntos de dados insuficientes podem não refletir equitativamente as qualidades que devem ser consideradas para produzir um resultado justificado que seja consistente com o propósito desejado do sistema de IA. Portanto, membros da equipe do projeto com competências técnicas e políticas devem colaborar para determinar se a quantidade de dados é suficiente e adequada para o propósito.
  • Integridade da Fonte e Precisão de Medição: A mitigação eficaz do viés começa no início dos processos de extração e coleta de dados. Tanto as fontes quanto as ferramentas de medição podem introduzir fatores discriminatórios em um conjunto de dados. Para garantir a não discriminação, a amostra de dados deve ter uma integridade de fonte ótima. Isso envolve garantir ou confirmar que os processos de coleta de dados envolvem fontes de medição adequadas, confiáveis e imparciais e métodos robustos de coleta.
  • Atualidade e Recência: Se os conjuntos de dados incluem dados desatualizados, então as mudanças na distribuição subjacente dos dados podem afetar adversamente a generalização do modelo treinado. Considerando que esses desvios de distribuição refletem mudanças nas relações sociais ou dinâmicas de grupo, essa perda de precisão em relação às características reais da população subjacente pode introduzir viés no sistema de IA. Ao prevenir resultados discriminatórios, a atualidade e a recência de todos os elementos do conjunto de dados devem ser examinadas.
  • Relevância, Adequação e Conhecimento de Domínio: A compreensão e o uso das fontes e tipos de dados mais apropriados são cruciais para construir um sistema de IA robusto e imparcial. Um conhecimento sólido do domínio da distribuição da população subjacente e do objetivo preditivo do projeto é instrumental para selecionar entradas de medição otimamente relevantes que contribuem para a resolução razoável da solução definida. Especialistas de domínio devem colaborar estreitamente com equipes de ciência de dados para ajudar a determinar categorias e fontes de medição otimamente apropriadas.

Embora os sistemas baseados em IA ajudem nos processos de automação de decisões e entreguem economia de custos, as instituições financeiras que consideram a IA como uma solução devem estar vigilantes para garantir que decisões tendenciosas não estejam ocorrendo. Líderes de conformidade devem estar em sincronia com sua equipe de ciência de dados para confirmar que as capacidades de IA são responsáveis, eficazes e livres de viés. Ter uma estratégia que defende a IA responsável é a coisa certa a fazer, e pode também fornecer um caminho para a conformidade com regulamentações de IA futuras.

Danny Butvinik é o Chief Data Scientist da NICE Actimize, fornecendo liderança técnica e profissional. Danny é um especialista em inteligência artificial e ciência de dados, tendo autorado vários artigos e papers científicos. Em seu papel atual, ele gerencia um grande grupo de cientistas de dados e contribui para o crescimento da inovação e da propriedade intelectual da empresa, com mais de 15 anos de experiência em pesquisa, desenvolvimento e gestão em ciência de dados e desenvolvimento de software.