Connect with us

IA e o Arco da Confiança

Líderes de pensamento

IA e o Arco da Confiança

mm

No início do ano passado, quando nossa equipe estava fazendo previsões sobre o que estava por vir, havia um consenso de que as embalagens estavam sendo removidas da inteligência artificial (IA). Finalmente, veríamos o que ela poderia fazer e, com sorte, obteríamos clareza sobre seu impacto nos negócios e na sociedade e como proceder. Não era uma previsão nova, mas seu núcleo era preciso, embora ainda estejamos lidando com as implicações da IA e como (ou se) ela deve ser controlada de alguma forma.

Teríamos que ver a Apple, a Microsoft e o Google incorporarem a IA em dispositivos e trazerem seu poder a um público mais amplo e maior. Em seguida, um chatbot em uma ferramenta de pesquisa alimentada por IA ameaçou os usuários e alegou que espionava os funcionários, enquanto outro sugeriu usar cola Elmer’s em pizza caseira para manter o queijo de escorregar. Ainda assim, os casos de uso de adoção de negócios de IA cresceram dramaticamente e também o mercado. De acordo com dados do Crunchbase, quase um terço de todo o financiamento de venture global no ano passado foi para empresas em campos relacionados à IA.

Mas, mesmo quando a OpenAI entregou um raciocínio realmente notável aprimorado, o renomado pesquisador de IA, Yoshua Bengio, defendeu a adoção de medidas de segurança para “modelos de fronteira” com potencial de causar danos catastróficos. E, embora a tecnologia levasse para casa dois Prêmios Nobel por aplicações em ciência, um de seus destinatários expressou preocupação em ter sistemas “mais inteligentes do que nós que eventualmente tomem controle”.

Em um espaço em constante movimento, é difícil para tecnólogos especializados acompanhar, quanto mais para aqueles no mainstream.

E aqueles tropeços da IA – e preocupações sobre privacidade e uso descontrolado – apenas aumentaram a desconfiança do público.

Confie em mim

Encontramo-nos a meio caminho em um arco de confiança, que exige o avanço da aceitação pública da IA, garantindo que as comunidades de negócios e tecnologia ajam de forma responsável. A primeira parte é onde o jogo está sendo jogado agora, no nível corporativo, ganhando força com cada implantação segura e sólida. Estamos construindo sobre nossos pontos de prova, que eventualmente levarão a um aumento da confiança do público. A segunda parte, no entanto, é muito mais complicada.

Quem define e faz cumprir o uso responsável da IA? Uma indústria pode criar diretrizes quando são elas que precisam ser regulamentadas? Se os tecnólogos estão tendo dificuldade em seguir a IA, os formuladores de políticas estarão informados e manterão suas agendas políticas fora da discussão? E quando um bilionário de IA repentinamente quer falar sobre controle, ele teve uma epifania ou está apenas tentando frear para se atualizar?

“Confie em mim” não vai funcionar com a IA, não importa quem você seja.

Confie, mas verifique

As pessoas olham para a IA gerativa como o ChatGPT e se perguntam se será o seu próximo Google? Bem, o resultado superior de uma pesquisa do Google agora é criado por seu modelo de IA, Gemini. O problema é que você não pode confiar nele para negócios em larga escala quando uma pergunta simples como “A carne crua é segura para consumo?” retorna a resposta: “Sim, congelada”. Você precisa inspecionar os dados.

O arco da confiança do público irá espelhar o que fez com a pesquisa convencional, ganhada ao longo do tempo e com a prova de confiabilidade. Ironia, em nossa busca por simplificar e melhorar a pesquisa, demos um passo atrás. Agora, após obter aquela resposta gerada por IA no topo, você precisa rolar por uma longa lista de links de patrocínio, clicar nos próximos cinco e ainda qualificar as informações.

Isso é muito trabalho quando você está procurando por uma resposta rápida – e você não pode ter uma empresa inteira fazendo o mesmo. No entanto, enriqueça os dados que você está minerando com dezenas de milhares de seus próprios bilhetes de serviço e você traz conhecimento real sobre seu ambiente. Algoritmicamente, você pode configurar alucinações para baixo, mas ainda assim, permanece uma situação de “confie, mas verifique”.

Mantenha a política fora disso

Quando se trata de regular a IA, alguns postulam que o cavalo já saiu da estrebaria e provavelmente não será capturado. Por exemplo, há uma falta de ferramentas realmente eficazes para verificar se um estudante redigiu um artigo ou usou GenAI. A tecnologia está simplesmente muito à frente.

Regular isso seria muito complexo e, para ser honesto, estaríamos nos aproximando de gelo fino. Sabemos que as empresas de tecnologia estão décadas à frente dos reguladores propostos. Mas somos bons em abrir um caminho, não em sermos retardados. Ainda assim, no final do dia, pode caber aos inovadores tentar aplicar governança. Quem mais poderia fazer isso – de forma responsável?

Há muitos políticos que adorariam dar uma chance. O risco, além da falta de compreensão, é que eles tenham uma agenda pessoal e política para avançar. Seu foco, potencialmente, seria menos no cultivo da IA e mais no que está em seus melhores interesses políticos. Eles podem trabalhar com base nos medos do público, usando uma mão pesada para impedir o progresso.

A Lei CHIPS e Ciência foi um bom exemplo de ação governamental saudável, produzindo um aumento dramático de 15 vezes na construção de instalações de fabricação para computação e dispositivos eletrônicos. Mas isso foi possível por meio do bipartidarismo – cada vez mais um resquício de uma era passada.

Somos dignos?

Há muito dinheiro fluindo para a IA e, nos próximos dois décadas, muito será feito pelas empresas de tecnologia. Quanto, quanto rápido e como seguro permanece ser visto. Em qualquer dia, uma falsificação profunda pode ser circulada, mostrando alguém em evidência jogando com os ovos de uma ave em extinção. O público reagiria com horror e, embora possa ser revelado que foi gerado por IA, aquele ovo não volta para a casca – o dano está feito.

Precisamos que tais coisas sejam regulamentadas por tecnólogos informados. Qual forma que isso assume – um conselho, um órgão de normas, um quadro internacional – permanece por ser visto. O que é conhecido é que a IA está em um arco de confiança e, como indústria, precisamos provar que somos dignos disso.

Eduardo Mota é um arquiteto de dados de nuvem sênior e especialista em AI/ML na DoiT. Um arquiteto de nuvem e especialista em ML accomplishado, ele possui um Bacharelado em Administração de Empresas e várias certificações relacionadas, demonstrando sua busca incansável por conhecimento. A jornada de Eduardo inclui papéis fundamentais na DoiT e AWS, onde sua especialização em arquitetura e estratégias de otimização de nuvem da AWS e GCP teve um impacto significativo na eficiência operacional e economia de custos para várias organizações.