访谈
Jon Friskics,Pluralsight 首席技术作者 – 采访系列

Jon Friskics,Pluralsight 首席技术作者,是一位经验丰富的教育者和内容领导者,专注于软件开发和 AI 集中的学习体验。在他的当前角色中,他创建了专家主导的视频课程和实践实验室,涵盖了 Claude、Node.js、TypeScript、Tailwind CSS 和 Python 等技术,建立在公司内长期的高级作者、学习架构和培训与课程策略领导经验之上。在此之前,他在塑造可扩展的多模式学习系统和指导成千上万的技术内容创作者使用基于证据的教学设计实践方面发挥了关键作用,而在他的早期职业生涯中,他曾在 Code School 领导内容策略,并在中佛罗里达大学教授了广泛的技术学科,建立了教育和实际开发的坚实基础。
Pluralsight 是一家领先的技术技能开发平台,提供在线课程、实践实验室和技能评估,以帮助个人和组织在软件开发、AI、云计算和网络安全等领域建立专业知识。成立于 2004 年,该公司已经发展成为一个综合的学习生态系统,用于企业和专业人士,结合专家内容和见解以弥补技能差距并加速劳动力发展,在日益技术驱动的经济中。
您的职业生涯跨越了交互式课程设计、大规模技术学习系统和高级 AI 工具教育。您如何看待在 AI 辅助编码时代,强大的工程判断力仍然很重要?
我的经验表明,强大的工程判断力不仅仅是关于编写代码,而是关于理解系统和长期后果。AI 可以自动执行任务并创建一个框架,导致解决方案,但它并不总是理解决策对用户或系统的影响。人类的判断力确保 AI 被用于提高生产力,同时保持安全、工程判断力比以往任何时候都更有价值,指导团队有效地利用 AI,同时保持质量和可靠性。
Pluralsight 一直专注于弥补技术技能差距。您如何看待这一使命在 AI 协作技能必须与传统软件开发基础知识并列的情况下演变?
Pluralsight 的使命是为学习者提供他们需要的基础技术技能。随着 AI 成为开发任务中的协作伙伴,这些基础知识仍然至关重要,但团队也需要了解如何负责地与 AI 合作并验证其输出。即使 AI 可以生成代码,也不能取代编码技能的需要,并且可以通过在现有专业知识上添加工作流理解和系统思维来增强它们。Pluralsight 帮助学习者建立在现有基础技能之上,并通过包括按需课程、实践实验室和人类专家主导的研讨会在内的学习解决方案来保持战略思维,这些解决方案随着技术创新而演变。
您认为,如果开发人员过度依赖 AI 生成的代码,哪些特定的架构、部署和风险管理技能最容易受到影响?
开发人员如果过于依赖 AI 代码生成,并在没有花时间了解生成内容的情况下接受其输出,可能会随着时间的推移削弱他们的战略技能,例如架构思维和风险评估。这意味着过度依赖 AI 不仅会导致隐藏的漏洞和系统不稳定,还会削弱开发人员的长期问题解决能力,使问题未被注意到或未被解决,直到为时已晚。
随着自主编码工具的普及,您看到的最大脱节在哪里,工具的承诺和工程师实际准备验证或监督的内容之间存在差异?
对于工程师来说,随着他们与 AI 辅助开发工具和自主编码系统一起工作,持续学习至关重要。自主编码工具承诺在生成功能代码方面具有速度和准确性,但它们缺乏对系统交互、安全性和业务影响的理解,这意味着您必须提供缺失的上下文。脱节在于假设 AI 输出在没有人类监督的情况下是完整或正确的。当跳过或匆忙完成验证步骤时,团队冒着引入昂贵错误、安全漏洞或架构不一致的风险。这强调了工程师需要不断更新他们的技能,以便他们能够有效地管理和验证 AI 生成的工作。
公司应该如何重新思考他们的提升技能策略,以确保开发人员知道何时信任 AI 建议,何时应该放慢速度并进行更深入的审查?
提升技能应该强调知道何时 AI 输出是可靠的,何时需要更深入的审查,包括场景测试和提示验证。这种方法加强了判断力和编码技能,确保工程师可以有选择地信任 AI,而不是过度依赖生成的代码。提供结构化、实践学习经验的 L&D 程序允许开发人员在 AI 辅助工作流中尝试,以查看生成的代码在完整应用程序中如何行为,并在沙盒环境中练习判断力。通过依靠专家主导的教学和实践练习,工程师可以更好地加强评估 AI 生成输出的责任感所需的批判性思维技能。
在快速移动的产品环境中,工程领导者如何防止 AI 生成的捷径引入长期的技术债务或安全漏洞?
领导者必须执行治理框架和 AI 生成代码的风险评估。建立强大的边界和审计输出可以帮助防止长期的技术债务和安全漏洞。我还建议开发人员教育重点关注安全编码实践和架构意识,以确保他们的工程师了解 AI 生成建议背后的权衡。定期的实践审查练习和基于场景的培训可以帮助降低捷径积累为隐藏系统风险的可能性。
您推荐组织采用哪些实用框架或防护措施,以保持 AI 编码成为一种协作而不是责任?
为此工作的工具是新的审查协议、版本控制跟踪和沙盒 AI 实验。利用指标、可观察性框架和评估将帮助团队跟踪输出质量,并加强负责的协作,以确保 AI 成为生产力的合作伙伴,而不是责任。对于组织来说,探索 AI 辅助工作流以了解这些工具的能力和局限性对于他们的团队的独特需求也是有价值的。这些做法将帮助团队开发将 AI 建议有效整合而不损害代码质量或系统稳定的判断力。
展望未来,哪些因素将区分在 AI 增强的未来中茁壮成长的开发人员和那些可能难以适应的人?
在 AI 增强的未来中,开发人员将结合强大的基础技能、判断力、适应性和系统思维。他们了解何时信任 AI,何时介入引导和重定向它,以及输出如何融入更广泛的系统。那些挣扎的人可能过于依赖自动化,缺乏边缘情况的经验,或者未能验证结果,这不仅会为他们的组织带来错误,还会错过加强开发人员专业知识的宝贵学习机会,持续学习和与 AI 辅助工作流的实践实验将帮助开发人员在较短的时间内磨练这些技能,并在 AI 编码工具演变时保持有效。
感谢这次精彩的采访,希望了解更多的读者可以访问 Pluralsight。
