Connect with us

Entrevistas

Jon Friskics, Autor Técnico Principal, Pluralsight – Serie de Entrevistas

mm

Jon Friskics, Autor Técnico Principal, Pluralsight, es un educador experimentado y líder de contenido especializado en experiencias de aprendizaje de desarrollo de software y enfocadas en inteligencia artificial. En su cargo actual, crea cursos de video y laboratorios prácticos dirigidos por expertos que cubren tecnologías como Claude, Node.js, TypeScript, Tailwind CSS y Python, basándose en una larga carrera dentro de la empresa que abarca la autoría senior, la arquitectura del aprendizaje y el liderazgo en la estrategia de capacitación y currículum. Anteriormente, desempeñó un papel clave en la configuración de sistemas de aprendizaje escalables y multimodales, y en la guía de miles de creadores de contenido técnico con prácticas de diseño instructivo basadas en evidencia, mientras que al comienzo de su carrera lideró la estrategia de contenido en Code School y enseñó una amplia variedad de temas técnicos en la Universidad de la Florida Central, estableciendo una base sólida tanto en educación como en desarrollo del mundo real.

Pluralsight es una plataforma líder en el desarrollo de habilidades tecnológicas que proporciona cursos en línea, laboratorios prácticos y evaluaciones de habilidades para ayudar a las personas y las organizaciones a desarrollar experiencia en áreas como el desarrollo de software, la inteligencia artificial, la computación en la nube y la ciberseguridad. Fundada en 2004, la empresa ha evolucionado hasta convertirse en un ecosistema de aprendizaje integral utilizado por empresas y profesionales de todo el mundo, combinando contenido autorizado por expertos con conocimientos para cerrar las brechas de habilidades y acelerar el desarrollo de la fuerza laboral en una economía cada vez más impulsada por la tecnología.

Su carrera abarca el diseño de currículos interactivos, sistemas de aprendizaje técnico a gran escala y educación en herramientas de inteligencia artificial avanzadas. ¿Cómo ha moldeado su experiencia su perspectiva sobre por qué el juicio de ingeniería sólido sigue siendo importante en una era de codificación asistida por inteligencia artificial?

Mi experiencia me ha demostrado que el juicio de ingeniería sólido es más que escribir código. Se trata de comprender sistemas y consecuencias a largo plazo. La inteligencia artificial puede automatizar tareas y crear un marco que conduce a soluciones, pero no siempre comprende el impacto de las decisiones en los usuarios o los sistemas de manera predecible. El juicio humano garantiza que la inteligencia artificial se utilice para aumentar la productividad de manera segura, el juicio de ingeniería es más valioso que nunca, guiando a los equipos para que utilicen la inteligencia artificial de manera efectiva mientras mantienen la calidad y la confiabilidad.

Pluralsight se ha centrado durante mucho tiempo en cerrar las brechas de habilidades técnicas. ¿Cómo ve la evolución de esta misión ahora que las habilidades de colaboración con inteligencia artificial deben estar junto a los fundamentos tradicionales del desarrollo de software?

La misión de Pluralsight es equipar a los aprendices con las habilidades técnicas fundamentales que necesitan para tener éxito. A medida que la inteligencia artificial se convierte en una colaboradora en las tareas de desarrollo, esos fundamentos siguen siendo esenciales, pero los equipos también necesitan comprender cómo trabajar con la inteligencia artificial de manera responsable y validar sus resultados. Aunque la inteligencia artificial puede generar código, no reemplaza la necesidad de habilidades de codificación, y puede mejorarlas al agregar una comprensión del flujo de trabajo y el pensamiento de sistemas sobre la experiencia existente. Pluralsight ayuda a los aprendices a construir sobre habilidades fundamentales existentes y a mantener el pensamiento estratégico a través de soluciones de aprendizaje que incluyen cursos bajo demanda, laboratorios prácticos y talleres liderados por expertos humanos que evolucionan junto con la innovación tecnológica.

¿Qué habilidades arquitectónicas, de implementación y de gestión de riesgos considera que están más en riesgo si los desarrolladores se vuelven demasiado dependientes del código generado por inteligencia artificial?

Los desarrolladores que confían demasiado en la generación de código de inteligencia artificial y aceptan su salida sin tomarse el tiempo para comprender lo que se generó pueden debilitar sus habilidades estratégicas como el pensamiento arquitectónico y la evaluación de riesgos con el tiempo. Comprender cómo interactúan los componentes y diseñar para la confiabilidad son capacidades que se aprenden a través de la experiencia en muchas situaciones diferentes. Esto significa que la dependencia excesiva de la inteligencia artificial no solo puede conducir a vulnerabilidades ocultas y a la inestabilidad del sistema, sino también debilitar las capacidades de resolución de problemas a largo plazo de los desarrolladores, lo que permite que estos problemas pasen desapercibidos o no resueltos hasta que es demasiado tarde.

¿Dónde ve el mayor desconexión entre lo que prometen las herramientas de codificación autónomas y lo que los ingenieros están realmente preparados para validar o supervisar?

El aprendizaje continuo es esencial para los ingenieros mientras trabajan junto con herramientas de desarrollo asistidas por inteligencia artificial y sistemas de codificación autónomos. Las herramientas de codificación autónomas prometen velocidad y precisión al generar código funcional, pero carecen de comprensión de las interacciones del sistema, la seguridad y el impacto comercial, y eso significa que hay que proporcionar ese contexto faltante. La desconexión radica en asumir que la salida de la inteligencia artificial es completa o correcta en ausencia de supervisión humana. Cuando se omiten o se apresuran los pasos de validación, los equipos corren el riesgo de introducir errores costosos, vulnerabilidades de seguridad o inconsistencias arquitectónicas. Esto refuerza la necesidad de que los ingenieros actualicen continuamente sus habilidades para que puedan gestionar y validar el trabajo generado por la inteligencia artificial de manera efectiva.

¿Cómo deben replantear las empresas sus estrategias de capacitación para asegurarse de que los desarrolladores sepan cuándo confiar en las sugerencias de la inteligencia artificial y cuándo frenar y aplicar una revisión más profunda?

La capacitación debe enfatizar saber cuándo la salida de la inteligencia artificial es confiable versus cuándo se necesita una revisión más profunda, incluyendo pruebas de escenarios y validación de instrucciones. Este enfoque refuerza el juicio junto con las habilidades de codificación, asegurando que los ingenieros puedan confiar en la inteligencia artificial de manera selectiva en lugar de confiar demasiado en el código generado. Los programas de aprendizaje y desarrollo que proporcionan experiencias de aprendizaje prácticas y estructuradas permiten a los desarrolladores experimentar con flujos de trabajo asistidos por inteligencia artificial para ver cómo se comporta el código generado dentro de aplicaciones completas y ejercitar ese juicio en un entorno de sandbox. Al apoyarse en la instrucción liderada por expertos y ejercicios prácticos, los ingenieros pueden fortalecer las habilidades de pensamiento crítico necesarias para evaluar los resultados generados por la inteligencia artificial de manera responsable.

En entornos de productos en constante evolución, ¿cómo pueden los líderes de ingeniería evitar que los atajos generados por la inteligencia artificial introduzcan deuda técnica a largo plazo o vulnerabilidades de seguridad?

Los líderes deben hacer cumplir marcos de gobernanza y evaluación de riesgos para el código generado por la inteligencia artificial. Establecer fuertes límites y auditar las salidas podría ayudar a prevenir la deuda técnica a largo plazo y las vulnerabilidades de seguridad. También sugiero educación para desarrolladores centrada en prácticas de codificación seguras y conciencia arquitectónica para asegurarse de que sus ingenieros comprendan los compromisos detrás de las sugerencias generadas por la inteligencia artificial. Ejercicios de revisión prácticos y entrenamiento basado en escenarios pueden ayudar a reducir la probabilidad de que los atajos se acumulen en riesgos ocultos del sistema.

¿Qué marcos o salvaguardas prácticas recomienda que adopten las organizaciones para mantener la codificación de inteligencia artificial como una colaboración en lugar de una responsabilidad?

Las herramientas que funcionan mejor para esto son nuevos protocolos de revisión, seguimiento de control de versiones y experimentación de inteligencia artificial en un entorno de sandbox. Utilizar métricas, marcos de observabilidad y evaluaciones ayudará a los equipos a rastrear la calidad de la salida y reforzar la colaboración responsable para asegurarse de que la inteligencia artificial sea una asociada en la productividad en lugar de una responsabilidad. También es valioso que las organizaciones exploren flujos de trabajo asistidos por inteligencia artificial para comprender las capacidades y limitaciones de estas herramientas para las necesidades únicas de sus equipos. Estas prácticas ayudarán a los equipos a desarrollar el juicio necesario para integrar las sugerencias de la inteligencia artificial de manera efectiva sin comprometer la calidad del código o la estabilidad del sistema.

¿Qué distingue a los desarrolladores que prosperarán en un futuro aumentado por la inteligencia artificial de aquellos que pueden tener dificultades para adaptarse?

Los desarrolladores que sobresalgan en un futuro aumentado por la inteligencia artificial combinarán habilidades fundamentales sólidas con juicio, adaptabilidad y pensamiento de sistemas. Comprenden cuándo confiar en la inteligencia artificial, cuándo intervenir para guiarla y redirigirla, y cómo las salidas encajan en el sistema más amplio. Aquellos que luchen pueden confiar demasiado en la automatización, carecer de experiencia con casos límite o no validar los resultados, lo que no solo pone en riesgo errores para su organización, sino que también pierden oportunidades de aprendizaje valiosas que fortalecen la experiencia de un desarrollador a lo largo de una carrera rigurosa. El aprendizaje continuo y la experimentación práctica con flujos de trabajo asistidos por inteligencia artificial ayudarán a los desarrolladores a afilar estas habilidades en un plazo más corto y seguir siendo efectivos a medida que las herramientas de codificación de inteligencia artificial evolucionen.

Gracias por la excelente entrevista, los lectores que deseen aprender más pueden visitar Pluralsight.

Antoine es un líder visionario y socio fundador de Unite.AI, impulsado por una pasión inquebrantable por dar forma y promover el futuro de la IA y la robótica. Un empresario serial, cree que la IA será tan disruptiva para la sociedad como la electricidad, y a menudo se le escucha hablando con entusiasmo sobre el potencial de las tecnologías disruptivas y la AGI. Como un futurista, está dedicado a explorar cómo estas innovaciones darán forma a nuestro mundo. Además, es el fundador de Securities.io, una plataforma enfocada en invertir en tecnologías de vanguardia que están redefiniendo el futuro y remodelando sectores enteros.