Wywiady
Jon Friskics, Principal Technical Author, Pluralsight – Wywiad z serii

Jon Friskics, Principal Technical Author, Pluralsight, jest doświadczonym edukatorem i liderem treści specjalizującym się w tworzeniu oprogramowania i doświadczeń edukacyjnych związanych z sztuczną inteligencją. W swojej obecnej roli tworzy ekspertowe kursy wideo i laboratoria praktyczne, obejmujące technologie takie jak Claude, Node.js, TypeScript, Tailwind CSS i Python, budując na długoletniej karierze w firmie, która obejmuje senior authoring, architekturę uczenia się i przywództwo w strategii szkoleniowej i programowej. Wcześniej odegrał kluczową rolę w kształtowaniu skalowalnych, wielomodalnych systemów uczenia się i wspieraniu tysięcy twórców treści technicznej w oparciu o praktyki projektowania instrukcji opartych na dowodach, a wcześniej w swojej karierze kierował strategią treści w Code School i nauczał szerokiego zakresu przedmiotów technicznych na Uniwersytecie Centralnej Florydy, ustanawiając silną podstawę zarówno w edukacji, jak i rozwoju w świecie rzeczywistym.
Pluralsight to wiodąca platforma rozwoju umiejętności technologicznych, która zapewnia kursy online, laboratoria praktyczne i oceny umiejętności, aby pomóc osobom i organizacjom w budowaniu ekspertyzy w dziedzinach takich jak rozwój oprogramowania, sztuczna inteligencja, chmura obliczeniowa i bezpieczeństwo cybernetyczne. Założona w 2004 roku, firma ewoluowała w kompleksowy ekosystem uczenia się, wykorzystywany przez przedsiębiorstwa i profesjonalistów na całym świecie, łącząc treści opracowane przez ekspertów z wglądem w celu zamykania luk umiejętności i przyspieszania rozwoju siły roboczej w coraz bardziej zdominowanej przez technologię gospodarce.
Twoja kariera obejmuje interaktywny projekt curriculum, duże systemy techniczne i zaawansowaną edukację narzędzi AI. Jak to tło wpłynęło na Twoją perspektywę dotyczącą tego, dlaczego silne osądy inżynierskie nadal mają znaczenie w erze kodowania wspomaganego przez AI?
Moje doświadczenie pokazało mi, że silne osądy inżynierskie dotyczą więcej niż tylko pisania kodu. Chodzi o zrozumienie systemów i długoterminowych konsekwencji. AI może automatyzować zadania i tworzyć ramy, które prowadzą do rozwiązań, ale nie zawsze pojmują wpływ decyzji na użytkowników lub systemy w sposób przewidywalny. Ludzkie osądy zapewniają, że AI jest wykorzystywany do zwiększania produktywności w sposób bezpieczny, a osądy inżynierskie są bardziej wartościowe niż kiedykolwiek, prowadząc zespoły w celu efektywnego wykorzystania AI przy jednoczesnym utrzymaniu jakości i niezawodności.
Pluralsight od dawna koncentruje się na zamykaniu luk umiejętności technicznych. Jak widzisz ewolucję tej misji teraz, gdy umiejętności współpracy z AI muszą być umieszczone obok tradycyjnych podstaw rozwoju oprogramowania?
Misją Pluralsight jest wyposażenie uczniów w podstawowe umiejętności techniczne, których potrzebują, aby odnieść sukces. Gdy AI staje się współpracownikiem w zadaniach rozwojowych, te podstawy pozostają niezmiennie ważne, ale zespoły muszą również zrozumieć, jak odpowiedzialnie współpracować z AI i walidować jego dane wyjściowe. Chociaż AI może generować kod, nie zastępuje potrzeby umiejętności programistycznych i może je wzmacniać, nakładając na istniejącą ekspertyzę zrozumienie przepływu pracy i myślenia systemowego. Pluralsight pomaga uczniom budować na istniejących umiejętnościach podstawowych i utrzymywać myślenie strategiczne za pomocą rozwiązań edukacyjnych, które obejmują kursy na żądanie, laboratoria praktyczne i warsztaty prowadzone przez ludzi ekspertów, które ewoluują wraz z innowacjami technologicznymi.
Jakie konkretnie architektoniczne, wdrożeniowe i zarządzanie ryzykiem umiejętności są najbardziej narażone na to, że deweloperzy staną się zbyt zależni od kodu generowanego przez AI?
Deweloperzy, którzy zbyt mocno polegają na generowaniu kodu AI i akceptują jego dane wyjściowe bez poświęcenia czasu na zrozumienie, co zostało wygenerowane, mogą osłabić swoje strategiczne umiejętności, takie jak myślenie architektoniczne i ocena ryzyka, z czasem. Zrozumienie, jak komponenty wzajemnie na siebie wpływają i projektowanie z myślą o niezawodności, są umiejętnościami, które są nabyte przez doświadczenie w wielu różnych sytuacjach. Oznacza to, że nadmierne poleganie na AI może nie tylko prowadzić do ukrytych słabości i niestabilności systemu, ale także osłabić długoterminowe umiejętności rozwiązywania problemów deweloperów, pozwalając na to, by te problemy pozostały niezauważone lub nierozwiązane, aż do momentu, gdy będzie już za późno.
Gdzie widzisz największe rozłączenie między tym, co te narzędzia obiecują, a tym, czym inżynierowie są naprawdę przygotowani do walidacji lub nadzorowania, gdy narzędzia do kodowania autonomicznego zyskują na popularności?
Ciągłe uczenie się jest niezwykle ważne dla inżynierów, gdy pracują obok narzędzi do rozwoju wspomaganego przez AI i systemów kodowania autonomicznego. Narzędzia do kodowania autonomicznego obiecują szybkość i dokładność w generowaniu funkcjonalnego kodu, ale brakuje im zrozumienia interakcji systemowych, bezpieczeństwa i wpływu biznesowego, a to oznacza, że trzeba dostarczyć ten brakujący kontekst. Rozłączenie leży w założeniu, że dane wyjściowe AI są kompletne lub poprawne w przypadku braku nadzoru ludzkiego. Gdy kroki walidacji są pomijane lub spieszone, zespoły ryzykują wprowadzeniem kosztownych błędów, słabości bezpieczeństwa lub nieścisłości architektonicznych. To podkreśla potrzebę, aby inżynierowie ciągle aktualizowali swoje umiejętności, aby mogli skutecznie zarządzać i walidować prace wygenerowane przez AI.
Jak firmy powinny przemyśleć swoje strategie doskonalenia, aby zapewnić, że deweloperzy wiedzą, kiedy można ufać sugestiom AI, a kiedy zwolnić i zastosować głębszą kontrolę?
Doskonalenie powinno podkreślać wiedzę, kiedy dane wyjściowe AI są niezawodne, a kiedy potrzebna jest głębsza kontrola, w tym testowanie scenariuszy i walidacja sugestii. Ten podejście wzmacnia osądy obok umiejętności programistycznych, zapewniając, że inżynierowie mogą ufać AI w sposób selektywny, a nie polegać wyłącznie na wygenerowanym kodzie. Programy szkoleniowe i rozwoju, które zapewniają strukturalne, praktyczne doświadczenia edukacyjne, pozwalają deweloperom eksperymentować z przepływami pracy wspomaganymi przez AI, aby zobaczyć, jak wygenerowany kod zachowuje się w pełnych aplikacjach, i ćwiczyć ten osąd w środowisku piaskownicy. Poprzez oparcie się na instrukcji prowadzonej przez ekspertów i ćwiczeniach praktycznych inżynierowie mogą wzmocnić umiejętności myślenia krytycznego, niezbędne do oceny danych wyjściowych AI w sposób odpowiedzialny.
W szybko zmieniających się środowiskach produktowych, jak mogą liderzy inżynierów zapobiec wprowadzeniu długoterminowego długu technicznego lub słabości bezpieczeństwa przez skróty generowane przez AI?
Liderzy muszą egzekwować ramy zarządzania i oceny ryzyka dla kodu generowanego przez AI. Ustanowienie silnych granic i audytowanie danych wyjściowych może pomóc zapobiec długoterminowemu długu technicznemu i słabościom bezpieczeństwa. Zaleciłbym również edukację deweloperów ukierunkowaną na bezpieczne praktyki programistyczne i świadomość architektoniczną, aby zapewnić, że ich inżynierowie rozumieją kompromisy za sugestiami AI. Regularne ćwiczenia przeglądu i szkolenia oparte na scenariuszach mogą pomóc zmniejszyć prawdopodobieństwo, że skróty nagromadzą się w ukryte ryzyka systemowe.
Jakie praktyczne ramy lub barierki zalecasz organizacjom, aby utrzymać kodowanie AI jako współpracę, a nie odpowiedzialność?
Narzędzia, które najlepiej działają w tym celu, to nowe protokoły przeglądu, śledzenie kontroli wersji i eksperymenty z AI w środowisku piaskownicy. Wykorzystanie metryk, ram obsługi i ocen pomoże zespołom śledzić jakość danych wyjściowych i wzmacniać odpowiedzialną współpracę, aby zapewnić, że AI jest partnerem w produktywności, a nie odpowiedzialnością. Jest również wartościowe dla organizacji, aby eksplorować przepływy pracy wspomagane przez AI, aby zrozumieć możliwości i ograniczenia tych narzędzi dla unikalnych potrzeb ich zespołów. Te praktyki pomogą zespołom rozwinąć osądy niezbędne do skutecznej integracji sugestii AI bez kompromitowania jakości kodu lub stabilności systemu.
Spójrzając w przyszłość, co wyróżnia deweloperów, którzy będą prosperować w przyszłości wspomaganej przez AI, od tych, którzy mogą mieć trudności z adaptacją?
Deweloperzy, którzy odnoszą sukces w przyszłości wspomaganej przez AI, będą łączyć silne umiejętności podstawowe z osądami, adaptacyjnością i myśleniem systemowym. Rozumieją, kiedy ufać AI, kiedy interweniować, aby kierować i przekierowywać je, oraz jak dane wyjściowe mieszczą się w szerszym systemie. Ci, którzy mają trudności, mogą zbyt mocno polegać na automatyce, brakować doświadczenia z przypadkami granicznymi lub nie walidować wyników, ryzykując błędy dla swojej organizacji i tracąc cenne możliwości uczenia się, które wzmacniają ekspertyzę deweloperów na przestrzeni czasu. Ciągłe uczenie się i eksperymentowanie z przepływami pracy wspomaganymi przez AI pomogą deweloperom wyostrzyć te umiejętności w krótszym czasie i pozostać skutecznymi, gdy narzędzia do kodowania AI ewoluują.
Dziękujemy za wspaniały wywiad. Czytelnicy, którzy chcą dowiedzieć się więcej, powinni odwiedzić Pluralsight.












