Entrevistas
Jon Friskics, Autor Técnico Principal, Pluralsight – Série de Entrevistas

Jon Friskics, Autor Técnico Principal, Pluralsight, é um educador experiente e líder de conteúdo especializado em experiências de aprendizado de desenvolvimento de software e inteligência artificial. Em sua atual função, cria cursos de vídeo liderados por especialistas e laboratórios práticos que abordam tecnologias como Claude, Node.js, TypeScript, Tailwind CSS e Python, construindo sobre uma longa carreira dentro da empresa que abrange autoria sênior, arquitetura de aprendizado e liderança em treinamento e estratégia de currículo. Anteriormente, desempenhou um papel fundamental em moldar sistemas de aprendizado escaláveis e multimodais e orientou milhares de criadores de conteúdo técnico com práticas de design instrucional baseadas em evidências, enquanto no início de sua carreira liderou a estratégia de conteúdo da Code School e ensinou uma ampla gama de matérias técnicas na Universidade da Flórida Central, estabelecendo uma base sólida tanto na educação quanto no desenvolvimento do mundo real.
Pluralsight é uma plataforma líder de desenvolvimento de habilidades tecnológicas que fornece cursos online, laboratórios práticos e avaliações de habilidades para ajudar indivíduos e organizações a construir expertise em áreas como desenvolvimento de software, inteligência artificial, computação em nuvem e segurança cibernética. Fundada em 2004, a empresa evoluiu para um ecossistema de aprendizado abrangente usado por empresas e profissionais em todo o mundo, combinando conteúdo autorado por especialistas com insights para fechar lacunas de habilidades e acelerar o desenvolvimento da força de trabalho em uma economia cada vez mais impulsionada pela tecnologia.
Sua carreira abrange design de currículo interativo, sistemas de aprendizado técnico em larga escala e educação em ferramentas avançadas de inteligência artificial. Como essa formação influenciou sua perspectiva sobre a importância do julgamento de engenharia em uma era de codificação assistida por inteligência artificial?
Minha experiência mostrou que o julgamento de engenharia é mais do que escrever código. É sobre entender sistemas e consequências de longo prazo. A inteligência artificial pode automatizar tarefas e criar um quadro que leva a soluções, mas não sempre compreende o impacto das decisões sobre os usuários ou sistemas de maneira previsível. O julgamento humano garante que a inteligência artificial seja usada para aumentar a produtividade de forma segura, o julgamento de engenharia é mais valioso do que nunca, orientando equipes para usar a inteligência artificial de forma eficaz, mantendo a qualidade e a confiabilidade.
A Pluralsight sempre se concentrou em fechar lacunas de habilidades técnicas. Como você vê essa missão evoluindo agora que as habilidades de colaboração com inteligência artificial devem estar ao lado dos fundamentos tradicionais de desenvolvimento de software?
A missão da Pluralsight é equipar os aprendizes com as habilidades técnicas fundamentais que eles precisam para ter sucesso. À medida que a inteligência artificial se torna uma colaboradora em tarefas de desenvolvimento, esses fundamentos permanecem essenciais, mas as equipes também precisam entender como trabalhar com a inteligência artificial de forma responsável e validar suas saídas. Embora a inteligência artificial possa gerar código, não substitui a necessidade de habilidades de codificação, e pode melhorá-las ao adicionar compreensão de fluxo de trabalho e pensamento de sistemas ao existing expertise. A Pluralsight ajuda os aprendizes a construir sobre habilidades fundamentais existentes e manter o pensamento estratégico por meio de soluções de aprendizado que incluem cursos sob demanda, laboratórios práticos e oficinas lideradas por especialistas humanos que evoluem junto com a inovação tecnológica.
Quais habilidades arquitetônicas, de implantação e de gerenciamento de riscos você acredita que estão mais em risco se os desenvolvedores se tornarem excessivamente dependentes de código gerado por inteligência artificial?
Os desenvolvedores que confiam demais na geração de código de inteligência artificial e aceitam sua saída sem se dar ao trabalho de entender o que foi gerado podem acabar enfraquecendo suas habilidades estratégicas, como pensamento arquitetônico e avaliação de riscos, com o passar do tempo. Entender como os componentes interagem e projetar para confiabilidade são capacidades que são aprendidas por meio de experiências em muitas situações diferentes. Isso significa que a dependência excessiva da inteligência artificial não apenas pode levar a vulnerabilidades ocultas e instabilidade do sistema, mas também debilitar as capacidades de resolução de problemas dos desenvolvedores a longo prazo, permitindo que esses problemas passem despercebidos ou sem solução até que seja tarde demais.
À medida que as ferramentas de codificação autônomas ganham tração, onde você vê a maior desconexão entre o que essas ferramentas prometem e o que os engenheiros estão realmente preparados para validar ou supervisionar?
A aprendizagem contínua é essencial para os engenheiros enquanto trabalham ao lado de ferramentas de desenvolvimento assistidas por inteligência artificial e sistemas de codificação autônomos. As ferramentas de codificação autônomas prometem velocidade e precisão na geração de código funcional, mas carecem de compreensão de interações de sistema, segurança e impacto comercial, e isso significa que você precisa fornecer esse contexto ausente. A desconexão está em supor que a saída da inteligência artificial é completa ou correta na ausência de supervisão humana. Quando os passos de validação são pulados ou apressados, as equipes correm o risco de introduzir bugs caros, vulnerabilidades de segurança ou inconsistências arquitetônicas. Isso reforça a necessidade de os engenheiros continuarem atualizando suas habilidades para que possam gerenciar e validar o trabalho gerado por inteligência artificial de forma eficaz.
Como as empresas devem repensar suas estratégias de capacitação para garantir que os desenvolvedores saibam quando confiar nas sugestões da inteligência artificial e quando reduzir a velocidade e aplicar uma revisão mais profunda?
A capacitação deve enfatizar saber quando a saída da inteligência artificial é confiável versus quando uma revisão mais profunda é necessária, incluindo testes de cenário e validação de prompts. Essa abordagem reforça o julgamento ao lado das habilidades de codificação, garantindo que os engenheiros possam confiar na inteligência artificial de forma seletiva, em vez de confiar demais no código gerado. Os programas de L&D que fornecem experiências de aprendizado estruturadas e práticas permitem que os desenvolvedores experimentem fluxos de trabalho assistidos por inteligência artificial para ver como o código gerado se comporta dentro de aplicativos completos e exercitem esse julgamento em um ambiente de sandbox. Ao se apoiar em ambos, instrução liderada por especialistas e exercícios práticos, os engenheiros podem reforçar as habilidades de pensamento crítico necessárias para avaliar as saídas geradas por inteligência artificial de forma responsável.
Em ambientes de produto em rápida movimentação, como os líderes de engenharia podem evitar que os atalhos gerados por inteligência artificial introduzam dívida técnica de longo prazo ou vulnerabilidades de segurança?
Os líderes devem impor estruturas de governança e avaliação de riscos para o código gerado por inteligência artificial. Estabelecer fortes limites e auditorias de saídas pode ajudar a prevenir a dívida técnica de longo prazo e vulnerabilidades de segurança. Eu também sugeriria educação de desenvolvedores focada em práticas de codificação seguras e conscientização arquitetônica para garantir que seus engenheiros entendam as compensações por trás das sugestões geradas por inteligência artificial. Exercícios de revisão práticos e treinamento baseado em cenários podem ajudar a reduzir a probabilidade de que os atalhos se acumulem em riscos ocultos do sistema.
Quais estruturas práticas ou guardrails você recomenda que as organizações adotem para manter a codificação de inteligência artificial como uma colaboração e não como uma responsabilidade?
As ferramentas que funcionam melhor para isso são novos protocolos de revisão, rastreamento de controle de versão e experimentação de inteligência artificial em sandbox. Utilizar métricas, estruturas de observabilidade e avaliações ajudará as equipes a acompanhar a qualidade da saída e reforçar a colaboração responsável para garantir que a inteligência artificial seja uma parceira na produtividade e não uma responsabilidade. Também é valioso para as organizações explorar fluxos de trabalho assistidos por inteligência artificial para entender as capacidades e limitações dessas ferramentas para as necessidades únicas de suas equipes. Essas práticas ajudarão as equipes a desenvolver o julgamento necessário para integrar as sugestões da inteligência artificial de forma eficaz sem comprometer a qualidade do código ou a estabilidade do sistema.
Olhando para o futuro, o que distingue os desenvolvedores que prosperarão em um futuro aumentado por inteligência artificial daqueles que podem ter dificuldade em se adaptar?
Os desenvolvedores que se destacarão em um futuro aumentado por inteligência artificial combinarão habilidades fundamentais sólidas com julgamento, adaptabilidade e pensamento de sistemas. Eles entendem quando confiar na inteligência artificial, quando intervir para orientá-la e como as saídas se encaixam no sistema mais amplo. Aqueles que lutam podem confiar demais na automação, carecer de experiência com casos de bordo ou falhar em validar os resultados, correndo o risco de cometer erros para sua organização e perder oportunidades valiosas de aprendizado que fortalecem a expertise de um desenvolvedor ao longo de uma carreira rigorosa. A aprendizagem contínua e a experimentação prática com fluxos de trabalho assistidos por inteligência artificial ajudarão os desenvolvedores a aperfeiçoar essas habilidades em um curto período de tempo e permanecer eficazes à medida que as ferramentas de codificação de inteligência artificial evoluem.
Obrigado pela grande entrevista, leitores que desejam aprender mais devem visitar Pluralsight.












