Connect with us

Intervjuer

Jon Friskics, Principal Technical Author, Pluralsight – Intervju-serie

mm

Jon Friskics, Principal Technical Author, Pluralsight, är en erfaren utbildare och innehållsledare som specialiserar sig på mjukvaruutveckling och AI-fokuserad lärande. I sin nuvarande roll skapar han expertledda videokurser och praktiska laborationer som täcker teknologier som Claude, Node.js, TypeScript, Tailwind CSS och Python, och bygger på en lång karriär inom företaget som omfattar seniorförfattarskap, lärandearkitektur och ledarskap inom utbildnings- och läroplansstrategi. Tidigare har han spelat en nyckelroll i att forma skalbara, multimodala lärandesystem och vägleda tusentals tekniska innehållsskapare med evidensbaserad instruktionsdesign, medan han tidigare i sin karriär ledde innehållsstrategi på Code School och undervisade i ett brett spektrum av tekniska ämnen vid University of Central Florida, och etablerade en stark grund i både utbildning och verklig utveckling.

Pluralsight är en ledande plattform för teknisk kompetensutveckling som tillhandahåller onlinekurser, praktiska laborationer och färdighetsbedömningar för att hjälpa individer och organisationer bygga kompetens inom områden som mjukvaruutveckling, AI, molnteknik och cybersäkerhet. Grundat 2004 har företaget utvecklats till en omfattande lärandemiljö som används av företag och proffs över hela världen, som kombinerar expertskapade innehåll med insikter för att täppa till kompetensgap och påskynda arbetsstyrkeutveckling i en alltmer tekniktung ekonomi.

Din karriär spänner över interaktiv läroplansdesign, storskaliga tekniska lärandesystem och avancerad AI-verktygsutbildning. Hur har den bakgrunden format din syn på varför starka ingenjörsbedömningar fortfarande är viktiga i en era med AI-assisterad kodning?

Min erfarenhet har visat mig att starka ingenjörsbedömningar handlar om mer än att skriva kod. Det handlar om att förstå system och långsiktiga konsekvenser. AI kan automatisera uppgifter och skapa en ram som leder till lösningar, men det förstår inte alltid påverkan av beslut på användare eller system på sätt som är förutsägbara. Mänsklig bedömning säkerställer att AI används för att förbättra produktiviteten på ett säkert sätt, Ingenjörsbedömning är mer värdefull än någonsin, vilket vägleder team för att utnyttja AI effektivt samtidigt som de upprätthåller kvalitet och tillförlitlighet.

Pluralsight har länge fokuserat på att täppa till tekniska kompetensgap. Hur ser du att den missionen utvecklas nu när AI-samarbetsfärdigheter måste sitta bredvid traditionella mjukvaruutvecklingsgrunder?

Pluralsights mission är att utrusta lärande med de grundläggande tekniska färdigheter de behöver för att lyckas. När AI blir en samarbetspartner i utvecklingsuppgifter förblir dessa grunder fortfarande avgörande, men team behöver också förstå hur man arbetar med AI på ett ansvarsfullt sätt och validerar dess utdata. Även om AI kan generera kod, ersätter det inte behovet av kodningsfärdigheter, och det kan förbättra dem genom att lägga till arbetsflödesförståelse och systemtänkande ovanpå befintlig expertis. Pluralsight hjälper lärande att bygga på befintliga grundläggande färdigheter och upprätthålla strategiskt tänkande genom lösningar för lärande som inkluderar kurser på begäran, praktiska laborationer och expertledda workshoppar som utvecklas tillsammans med teknisk innovation.

Vilka specifika arkitektur-, distributions- och riskhanteringsfärdigheter tror du är mest utsatta för att utvecklare blir alltför beroende av AI-genererad kod?

Utvecklare som förlitar sig för mycket på AI-kodgenerering och accepterar dess utdata utan att ta sig tid att förstå vad som genererades kan komma att försvaga sina strategiska färdigheter som arkitektur och riskbedömning över tid. Att förstå hur komponenter samverkar och designa för tillförlitlighet är förmågor som lärs genom erfarenhet i många olika situationer. Detta innebär att en alltför stor tillit till AI kan leda till dolda sårbarheter och systeminstabilitet, och försvaga utvecklarnas långsiktiga förmåga att lösa problem, vilket gör att problemen kan gå obemärkta eller olösta tills det är för sent.

Där autonoma kodverktyg får alltmer uppmärksamhet, var ser du den största diskrepansen mellan vad dessa verktyg lovar och vad ingenjörer faktiskt är beredda att validera eller övervaka?

Kontinuerligt lärande är avgörande för ingenjörer när de arbetar bredvid AI-assisterade utvecklingsverktyg och autonoma kodsystem. Autonoma kodverktyg lovar snabbhet och noggrannhet i att generera fungerande kod, men de saknar förståelse för systeminteraktioner, säkerhet och affekt, och det innebär att du måste tillhandahålla den saknade kontexten. Diskrepansen ligger i antagandet att AI-utdata är komplett eller korrekt i avsaknad av mänsklig tillsyn. När valideringssteg skippas eller skyndas, riskerar team att införa dyra buggar, säkerhetsrisker eller arkitekturinkonsekvenser. Detta förstärker behovet av att ingenjörer kontinuerligt uppdaterar sina färdigheter så att de kan hantera och validera AI-genererat arbete effektivt.

Hur bör företag omvärdera sina strategier för kompetensutveckling för att säkerställa att utvecklare vet när de ska lita på AI-förslag och när de ska sakta ner och tillämpa en djupare granskning?

Kompetensutveckling bör betona när AI-utdata är tillförlitligt kontra när en djupare granskning behövs, inklusive scenariotestning och promptvalidering. Detta tillvägagångssätt förstärker bedömning bredvid kodningsfärdigheter, vilket säkerställer att ingenjörer kan lita på AI selektivt snarare än att förlita sig för mycket på genererad kod. L&D-program som tillhandahåller strukturerad, praktisk lärandeupplevelse tillåter utvecklare att experimentera med AI-assisterade arbetsflöden för att se hur genererad kod beter sig inom fullständiga applikationer och öva den bedömningen i en sandlådemiljö. Genom att luta sig mot både expertledd undervisning och praktiska övningar kan ingenjörer stärka de kritiska tänkande färdigheter som behövs för att utvärdera AI-genererade utdata på ett ansvarsfullt sätt.

I snabbt föränderliga produktmiljöer, hur kan teknikledare förhindra att AI-genererade genvägar introducerar långsiktig teknisk skuld eller säkerhetsrisker?

Ledare måste genomdriva styrningsramar och riskbedömning för AI-genererad kod. Att etablera starka gränser och granska utdata kan hjälpa till att förhindra långsiktig teknisk skuld och säkerhetsrisker. Jag skulle också föreslå utvecklarutbildning fokuserad på säkra kodningspraxis och arkitekturmedvetenhet för att säkerställa att deras utvecklare förstår avvägningarna bakom AI-genererade förslag. Regelbundna praktiska granskningsövningar och scenariobaserad utbildning kan hjälpa till att minska sannolikheten att genvägar ackumuleras till dolda systemsrisker.

Vilka praktiska ramverk eller skyddsanordningar rekommenderar du att organisationer antar för att hålla AI-kodning som ett samarbete snarare än en belastning?

De verktyg som fungerar bäst för detta är nya granskningsprotokoll, versionskontrollspårning och sandlådesexperiment med AI. Att utnyttja mått, observerbarhetsramverk och utvärderingar kommer att hjälpa team att spåra utdatakvalitet och förstärka ansvarsfullt samarbete för att säkerställa att AI är en partner i produktivitet snarare än en belastning. Det är också värdefullt för organisationer att utforska AI-assisterade arbetsflöden för att förstå förmågor och begränsningar hos dessa verktyg för sina teams unika behov. Dessa metoder kommer att hjälpa team att utveckla den bedömning som behövs för att integrera AI-förslag effektivt utan att äventyra kodkvalitet eller systemstabilitet.

Om man ser framåt, vad skiljer utvecklare som kommer att trivas i en AI-förstärkt framtid från de som kan ha svårt att anpassa sig?

Utvecklare som excellerar i en AI-förstärkt framtid kommer att kombinera starka grundläggande färdigheter med bedömning, anpassningsförmåga och systemtänkande. De förstår när de ska lita på AI, när de ska ingripa för att vägleda och omriktning, och hur utdata passar in i det bredare systemet. De som kämpar kan förlita sig för mycket på automation, sakna erfarenhet av gränsfall eller misslyckas med att validera resultat, vilket både riskerar fel för deras organisation och missar de värdefulla lärandemöjligheterna som stärker en utvecklares expertis under en lång och rigorös karriär. Kontinuerligt lärande och praktiskt experiment med AI-assisterade arbetsflöden kommer att hjälpa utvecklare att skärpa dessa färdigheter på en kortare tidsram och förbli effektiva när AI-kodverktyg utvecklas.

Tack för den utmärkta intervjun, läsare som vill lära sig mer kan besöka Pluralsight.

Antoine är en visionär ledare och medgrundare av Unite.AI, driven av en outtröttlig passion för att forma och främja framtiden för AI och robotik. En serieentreprenör, han tror att AI kommer att vara lika omstörtande för samhället som elektricitet, och fångas ofta i extas över potentialen för omstörtande teknologier och AGI. Som en futurist, är han dedikerad till att utforska hur dessa innovationer kommer att forma vår värld. Dessutom är han grundare av Securities.io, en plattform som fokuserar på att investera i banbrytande teknologier som omdefinierar framtiden och omformar hela sektorer.