Líderes de pensamento
À medida que as indústrias se preparam para a adoção acelerada de IA, novo foco em ética e responsabilidade

Por: Pandurang Kamat, CTO da Persistent Systems
A inteligência artificial (IA) em sua essência é aprendizado de máquina (ML), o processo pelo qual as máquinas aprendem a melhorar o desempenho com base em entradas de dados. A quantidade enorme de dados existentes hoje significa que a IA teve um terreno fértil para florescer, acelerando a um ritmo vertiginoso nos últimos anos. E a promessa da IA tem feito com que tecnólogos e executivos em indústrias de longo alcance pensem de forma criativa sobre suas diversas aplicações.
Desde a revolução industrial, qualquer período de progresso tecnológico rápido é marcado por partes iguais de entusiasmo e apreensão. O World Wide Web Consortium (W3C), um grupo que cria padrões da indústria de desenvolvedores da web, observa que “há uma conscientização crescente de que a aplicação do aprendizado de máquina apresenta riscos e pode levar a danos” – incluindo em áreas como: viés, privacidade, segurança, sustentabilidade e responsabilidade geral.
“Há uma demanda clara por uma abordagem ética para o ML, vista por meio do ativismo da sociedade civil, do surgimento de ~100 conjuntos de princípios éticos de IA em todo o mundo e dos movimentos do governo em todo o mundo para regular a IA”, o grupo escreveu. “Se as tecnologias não estiverem alinhadas com os valores das sociedades em que operam, elas correm o risco de subvertê-los.”
Escolha com sabedoria
À primeira vista, é difícil argumentar que velocidade e produtividade aprimoradas sejam ruins para os negócios. Mas para certas indústrias, há muito em jogo com o processo de tomada de decisão que alguns argumentam que não deve ser deixado a um algoritmo. Olhando para algumas das maiores indústrias, podemos ver apenas quão vulneráveis somos a erros de máquina e por que a IA responsável é tão fundamental.
Bancos, Serviços Financeiros e Seguros (BFSI)
O Fórum Econômico Mundial (WEF) e a Deloitte examinaram o processo de implantação da IA em empresas de BFSI, encontrando que, “embora a IA possa ajudar a criar insights de negócios úteis a partir de uma quantidade avassaladora de informações”, a “estranheza da IA” será uma fonte de risco sério contínuo.
“A IA raciocina de maneiras não humanas”, relata o relatório. “Os sistemas de IA não seguem construtos lógicos humanos e se comportam de maneira muito diferente de atores humanos diante da mesma tarefa. Além disso, a natureza de autoaprendizado dos sistemas de IA permite que eles evoluam sem entrada humana, o que pode levar a resultados inesperados com base em variáveis desconhecidas.”
Defensores da IA responsável argumentam que o aprendizado de máquina apresenta problemas graves em coisas como pontuação de risco automática, crédito e decisões de empréstimo, todas as quais são historicamente prejudiciais a certas demografias. Estudos recentes mostraram que os prestamistas que usam motores de decisão baseados em IA eram mais propensos a negar empréstimos hipotecários a pessoas de cor – em alguns casos, 80% dos solicitantes negros são mais propensos a serem rejeitados.
Saúde
Há alguns anos, o Journal of the American Medical Association (JAMA) examinou a adoção da IA na saúde, encontrando que os desafios são muitos, incluindo “expectativas irrealistas, dados tendenciosos e não representativos, priorização inadequada da equidade e inclusão, o risco de exacerbamento das disparidades em saúde, níveis baixos de confiança e ambientes regulatórios incertos”.
Não exatamente um endosso retumbante, mas há uma barra mais alta para a IA responsável na saúde, especialmente dado seu potencial literal de vida ou morte. No geral, os profissionais de saúde são otimistas, mas guardados sobre o futuro da IA, escolhendo focar seus esforços na educação de outros profissionais sobre seu uso no ambiente clínico e criando diretrizes sobre como avançar de forma responsável de uma maneira que beneficie todos os pacientes.
Mídia
A PwC estima que a IA fornecerá $15,7 trilhões em crescimento econômico global até 2030, mas segundo a Salesforce menos da metade (48%) dos clientes confiam que as empresas usem a IA de forma ética, e 65% estão preocupados com o uso não ético da IA. No cruzamento dos lucros e da confiança, há empresas de mídia – adotantes precoces com grande alcance e influência. E há preocupações sobre o fato de que a IA não é uma aplicação “configure e esqueça”, significando que, para as empresas de mídia, sua responsabilidade não é apenas na produção de conteúdo, mas também em seu monitoramento contínuo pós-implantação.
Como os anúncios estão sendo servidos e personalizados? Como o conteúdo está alcançando um público específico e qual é a mensagem? Quem está ensinando a IA “como” aprender? E como você pode direcionar consumidores específicos enquanto respeita a privacidade? Essas são apenas algumas das perguntas que atormentam as empresas de mídia à medida que equilibram ética com vantagem competitiva.
A Resposta à Responsabilidade
O progresso no desenvolvimento de IA responsável é evidente todos os dias – os legisladores estão elaborando regulamentações, os consumidores estão exigindo mais transparência e muitas empresas criaram departamentos específicos para garantir que sua IA seja usada de forma apropriada. As empresas precisam de um quadro de IA responsável bem definido que aborde ética, transparência, responsabilidade, justiça, privacidade e segurança. À medida que os debates e reformas continuam, um estudo recente conjunto da MIT Sloan Management Review e do Boston Consulting Group fornece algumas orientações gerais simples – eles escreveram, “Se você quer ser um líder de IA responsável, foque em ser uma empresa responsável.”












