Interviste
Jon Friskics, Autore Tecnico Principale, Pluralsight – Serie di Interviste

Jon Friskics, Autore Tecnico Principale, Pluralsight, è un educatore esperto e leader di contenuti specializzato in esperienze di apprendimento focalizzate sullo sviluppo software e sull’intelligenza artificiale. Nel suo ruolo attuale, crea corsi video e laboratori pratici guidati da esperti che coprono tecnologie come Claude, Node.js, TypeScript, Tailwind CSS e Python, costruendo su una lunga carriera all’interno dell’azienda che comprende autorizzazione senior, architettura dell’apprendimento e leadership nella formazione e nella strategia del curriculum. Prima di questo, ha svolto un ruolo chiave nel plasmare sistemi di apprendimento scalabili e multimodali e nel guidare migliaia di creatori di contenuti tecnici con pratiche di progettazione didattica basate sulle prove, mentre all’inizio della sua carriera ha guidato la strategia dei contenuti a Code School e ha insegnato una vasta gamma di soggetti tecnici all’Università della Florida Centrale, stabilendo una solida base sia nell’istruzione che nello sviluppo del mondo reale.
Pluralsight è una piattaforma leader per lo sviluppo delle competenze tecnologiche che fornisce corsi online, laboratori pratici e valutazioni delle competenze per aiutare individui e organizzazioni a costruire competenze in aree come lo sviluppo software, l’intelligenza artificiale, il cloud computing e la sicurezza informatica. Fondata nel 2004, l’azienda si è evoluta in un ecosistema di apprendimento completo utilizzato da imprese e professionisti di tutto il mondo, combinando contenuti autorizzati da esperti con informazioni per colmare le lacune delle competenze e accelerare lo sviluppo della forza lavoro in un’economia sempre più guidata dalla tecnologia.
La tua carriera copre la progettazione di curriculum interattivi, sistemi di apprendimento tecnico su larga scala e istruzione avanzata sugli strumenti di intelligenza artificiale. Come questo background ha plasmato la tua prospettiva sull’importanza del giudizio ingegneristico forte in un’era di coding assistito dall’intelligenza artificiale?
La mia esperienza mi ha mostrato che un forte giudizio ingegneristico è più che scrivere codice. È comprendere i sistemi e le conseguenze a lungo termine. L’intelligenza artificiale può automatizzare compiti e creare un framework che porta a soluzioni, ma non sempre afferra l’impatto delle decisioni sugli utenti o sui sistemi in modi prevedibili. Il giudizio umano assicura che l’intelligenza artificiale sia utilizzata per aumentare la produttività in modo sicuro, il giudizio ingegneristico è più prezioso che mai, guidando i team a sfruttare l’intelligenza artificiale in modo efficace mantenendo la qualità e l’affidabilità.
Pluralsight si è sempre concentrata sul colmare le lacune delle competenze tecniche. Come vedi evolversi questa missione ora che le competenze di collaborazione con l’intelligenza artificiale devono stare accanto ai fondamenti tradizionali dello sviluppo software?
La missione di Pluralsight è quella di dotare gli apprendisti delle competenze tecniche fondamentali di cui hanno bisogno per avere successo. Mentre l’intelligenza artificiale diventa un collaboratore nei compiti di sviluppo, quei fondamenti rimangono essenziali, ma i team devono anche capire come lavorare con l’intelligenza artificiale in modo responsabile e convalidare i suoi output. Anche se l’intelligenza artificiale può generare codice, non sostituisce la necessità di competenze di coding, e può migliorarle sovrapponendo la comprensione del flusso di lavoro e del pensiero sistemico alle competenze esistenti. Pluralsight aiuta gli apprendisti a costruire su competenze fondamentali esistenti e a mantenere il pensiero strategico attraverso soluzioni di apprendimento che includono corsi on-demand, laboratori pratici e workshop guidati da esperti umani che evolvono insieme all’innovazione tecnologica.
Quali competenze specifiche architettoniche, di distribuzione e di gestione dei rischi ritieni siano più a rischio se gli sviluppatori diventano eccessivamente dipendenti dal codice generato dall’intelligenza artificiale?
Gli sviluppatori che si affidano troppo alla generazione di codice dell’intelligenza artificiale e accettano il suo output senza prendersi il tempo di capire cosa è stato generato potrebbero indebolire le loro competenze strategiche come il pensiero architettonico e la valutazione dei rischi nel tempo. Capire come le componenti interagiscono e progettare per l’affidabilità sono capacità che si imparano attraverso l’esperienza in molte situazioni diverse. Ciò significa che un’eccessiva dipendenza dall’intelligenza artificiale potrebbe non solo portare a vulnerabilità nascoste e instabilità del sistema, ma anche indebolire le capacità di risoluzione dei problemi degli sviluppatori a lungo termine, permettendo a quei problemi di passare inosservati o irrisolti fino a quando non è troppo tardi.
Man mano che gli strumenti di coding autonomi guadagnano popolarità, dove vedi la maggiore disconnessione tra ciò che questi strumenti promettono e ciò che gli ingegneri sono effettivamente preparati a convalidare o supervisionare?
L’apprendimento continuo è essenziale per gli ingegneri mentre lavorano con strumenti di sviluppo assistiti dall’intelligenza artificiale e sistemi di coding autonomi. Gli strumenti di coding autonomi promettono velocità e precisione nella generazione di codice funzionale, ma mancano di comprensione delle interazioni del sistema, della sicurezza e dell’impatto aziendale, e ciò significa che devi fornire quel contesto mancante. La disconnessione si trova nell’assumere che l’output dell’intelligenza artificiale sia completo o corretto in assenza di supervisione umana. Quando i passaggi di convalida vengono saltati o affrettati, i team rischiano di introdurre bug costosi, vulnerabilità di sicurezza o incoerenze architettoniche. Ciò rafforza la necessità per gli ingegneri di aggiornare costantemente le loro competenze in modo da poter gestire e convalidare efficacemente il lavoro generato dall’intelligenza artificiale.
Come le aziende dovrebbero ripensare le loro strategie di aggiornamento per assicurarsi che gli sviluppatori sappiano quando fidarsi delle suggerimenti dell’intelligenza artificiale e quando rallentare e applicare una revisione più approfondita?
L’aggiornamento dovrebbe enfatizzare la conoscenza di quando l’output dell’intelligenza artificiale è affidabile rispetto a quando è necessaria una revisione più approfondita, inclusi test di scenario e convalida dei prompt. Questo approccio rafforza il giudizio accanto alle competenze di coding, assicurando che gli ingegneri possano fidarsi dell’intelligenza artificiale in modo selettivo piuttosto che affidarsi eccessivamente al codice generato. I programmi di apprendimento e sviluppo che forniscono esperienze di apprendimento pratiche e strutturate consentono agli sviluppatori di sperimentare con flussi di lavoro assistiti dall’intelligenza artificiale per vedere come il codice generato si comporta all’interno di applicazioni complete e esercitare quel giudizio in un ambiente di prova. Facendo affidamento sia sull’istruzione guidata da esperti che su esercizi pratici, gli ingegneri possono rafforzare meglio le competenze di pensiero critico necessarie per valutare in modo responsabile gli output generati dall’intelligenza artificiale.
In ambienti di prodotto in rapida evoluzione, come possono i leader ingegneristici prevenire che gli shortcut generati dall’intelligenza artificiale introducano debito tecnico a lungo termine o vulnerabilità di sicurezza?
I leader devono far rispettare i framework di governance e la valutazione dei rischi per il codice generato dall’intelligenza artificiale. Stabilire forti confini e controllare gli output potrebbe aiutare a prevenire il debito tecnico a lungo termine e le vulnerabilità di sicurezza. Suggerirei anche l’educazione degli sviluppatori focalizzata su pratiche di coding sicure e consapevolezza architettonica per assicurarsi che i loro ingegneri comprendano i compromessi dietro le suggerimenti generate dall’intelligenza artificiale. Esercizi di revisione pratici e formazione basata su scenari possono aiutare a ridurre la probabilità che gli shortcut si accumulino in rischi nascosti del sistema.
Quali framework pratici o sistemi di protezione consiglieresti alle organizzazioni di adottare per mantenere la codifica dell’intelligenza artificiale come una collaborazione piuttosto che una responsabilità?
Gli strumenti che funzionano meglio per questo sono nuovi protocolli di revisione, tracciamento del controllo versione e sperimentazione dell’intelligenza artificiale in un ambiente sandbox. Sfruttare metriche, framework di osservabilità e valutazioni aiuterà i team a tracciare la qualità dell’output e rafforzare la collaborazione responsabile per assicurarsi che l’intelligenza artificiale sia un partner nella produttività piuttosto che una responsabilità. È anche prezioso per le organizzazioni esplorare flussi di lavoro assistiti dall’intelligenza artificiale per comprendere le capacità e i limiti di questi strumenti per le esigenze uniche dei loro team. Queste pratiche aiuteranno i team a sviluppare il giudizio necessario per integrare le suggerimenti dell’intelligenza artificiale in modo efficace senza compromettere la qualità del codice o la stabilità del sistema.
Guardando avanti, cosa distingue gli sviluppatori che prospereranno in un futuro aumentato dall’intelligenza artificiale da quelli che potrebbero lottare per adattarsi?
Gli sviluppatori che eccellono in un futuro aumentato dall’intelligenza artificiale combineranno solide competenze fondamentali con giudizio, adattabilità e pensiero sistemico. Capiscono quando fidarsi dell’intelligenza artificiale, quando intervenire per guidarla e come gli output si inseriscono nel sistema più ampio. Quelli che lottano potrebbero affidarsi troppo all’automazione, mancare di esperienza con casi limite o non validare i risultati, rischiando errori per la loro organizzazione e perdendo le preziose opportunità di apprendimento che rafforzano l’esperienza di uno sviluppatore nel corso di una carriera rigorosa. L’apprendimento continuo e la sperimentazione pratica con flussi di lavoro assistiti dall’intelligenza artificiale aiuteranno gli sviluppatori a temprare queste competenze in un minor lasso di tempo e rimanere efficaci mentre gli strumenti di coding dell’intelligenza artificiale evolvono.
Grazie per la grande intervista, i lettori che desiderano saperne di più possono visitare Pluralsight.












