Tankeledere
AI-generert kode er kommet for å bli. Er vi mindre trygge som et resultat av dette?

Koding i 2025 handler ikke om å slite med fragmenter eller bruke lange timer på feilsøking. Det er en helt annen stemning. AI-generert kode kommer til å være majoriteten av koden i fremtidige produkter, og det har blitt et essensielt verktøysett for den moderne utvikleren. Bruk av kode generert av verktøy som Github Copilot, Amazon CodeWhisperer og Chat GPT, kjent som «vibe-koding», vil være normen og ikke unntaket for å redusere byggetid og øke effektiviteten. Men utgjør bekvemmeligheten med AI-generert kode en mørkere trussel? Øker generativ AI sårbarheter i sikkerhetsarkitektur, eller finnes det måter utviklere kan «vibe-kode» på en trygg måte?
«Sikkerhetshendelser som følge av sårbarheter i AI-generert kode er et av de minst diskuterte temaene i dag», sa Sanket Saurav, grunnlegger av DeepSource. «Det er fortsatt mye kode generert av plattformer som Copilot eller Chat GPT som ikke får menneskelig gjennomgang, og sikkerhetsbrudd kan være katastrofale for selskaper som er berørt.»
Utvikleren av en åpen kildekode-plattform som bruker statisk analyse for kodekvalitet og sikkerhet, siterte Saurav SolarWinds-hacket i 2020 som den typen «utryddelseshendelse» som selskaper kan møte hvis de ikke har installert de riktige sikkerhetsrekkverkene når de bruker AI-generert kode. «Statisk analyse muliggjør identifisering av usikre kodemønstre og dårlig kodepraksis», sa Saurav.
Angrepet gjennom biblioteket
Sikkerhetstrusler mot AI-generert kode kan ta oppfinnsomme former og kan rettes mot biblioteker. Biblioteker i programmering er nyttig gjenbrukbar kode som utviklere bruker for å spare tid når de skriver.
De løser ofte vanlige programmeringsoppgaver som å administrere databaseinteraksjoner og hjelper programmerere med å slippe å skrive om kode fra bunnen av.
En slik trussel mot biblioteker er kjent som «hallusinasjoner», der AI-generativ kode viser en sårbarhet ved å bruke fiktive biblioteker. En annen nyere angrepslinje på AI-generert kode kalles «slopsquatting», der angripere kan målrette biblioteker direkte for å infiltrere en database.
Å håndtere disse truslene direkte kan kreve mer oppmerksomhet enn det som antydes av begrepet «vibe-koding». Professor Rafael Khoury har fulgt utviklingen innen sikkerheten til AI-generert kode nøye fra sitt kontor ved Université du Québec en Outaouais, og er sikker på at nye teknikker vil forbedre sikkerheten.
In et 2023-papirProfessor Khoury undersøkte resultatene av å be ChatGPT om å produsere kode uten ytterligere kontekst eller informasjon, en praksis som førte til usikker kode. Det var i de tidlige dagene med Chat GPT, og Khoury er nå optimistisk med tanke på veien videre. «Siden den gang har det vært mye forskning under vurdering akkurat nå, og fremtiden ser på en strategi for bruk av LLM som kan føre til bedre resultater», sa Khoury, og la til at «sikkerheten blir bedre, men vi er ikke i en situasjon der vi kan gi en direkte forespørsel og få sikker kode.»
Khoury fortsatte med å beskrive en lovende studie hvor de genererte kode og deretter sendte denne koden til et verktøy som analyserer den for sårbarheter. Metoden som brukes av verktøyet kalles å finne linjeavvik med generativ AI (eller FLAG forkortet).
«Disse verktøyene sender FLAG-er som for eksempel kan identifisere en sårbarhet i linje 24, som en utvikler deretter kan sende tilbake til LLM med informasjonen og be dem om å se på det og fikse problemet», sa han.
Khoury antydet at denne frem-og-tilbake-samtalen kan være avgjørende for å fikse kode som er sårbar for angrep. «Denne studien antyder at med fem iterasjoner kan man redusere sårbarhetene til null.»
Når det er sagt, er ikke FLAG-metoden uten problemer, spesielt siden den kan gi opphav til både falske positiver og falske negative resultater. I tillegg til dette er det også begrensninger i lengden på koden som LLM-er kan lage, og det å sette sammen fragmenter kan legge til et ekstra risikolag.
Holder mennesket oppdatert
Noen aktører innen «vibe coding» anbefaler å fragmentere kode og sørge for at mennesker holder seg i sentrum i de viktigste redigeringene av en kodebase. «Når du skriver kode, tenk i form av commits», sa Kevin Hou, leder for produktutvikling hos Windsurf, og lovpriste visdommen i små biter.
«Bryt opp et stort prosjekt i mindre deler som normalt ville vært commits eller pull requests. La agenten bygge den mindre skalaen, én isolert funksjon om gangen. Dette kan sikre at kodeutdataene er godt testet og godt forstått», la han til.
I skrivende stund har Windsurf nærmet seg over 5 milliarder linjer med AI-generert kode (gjennom sitt tidligere navn Codeium). Hou sa at det mest presserende spørsmålet de besvarte var om utvikleren var klar over prosessen.
«AI-en er i stand til å gjøre mange redigeringer på tvers av mange filer samtidig, så hvordan kan vi sørge for at utvikleren faktisk forstår og gjennomgår hva som skjer, i stedet for å bare blindt akseptere alt?» spurte Hou, og la til at de hadde investert tungt i Windsurfs brukeropplevelse «med massevis av intuitive måter å holde seg helt oppdatert på hva AI-en gjør, og for å holde mennesket fullt oppdatert.»
Derfor som «vibe koding«blir mer vanlig», må menneskene i loopen være mer forsiktige med dens sårbarheter. Fra «hallusinasjoner» til «slopsquatting»-trusler er utfordringene reelle, men det er også løsningene.
Nye verktøy som statisk analyse, iterative forbedringsmetoder som FLAG og gjennomtenkt UX-design viser at sikkerhet og hastighet ikke trenger å utelukke hverandre.
Nøkkelen ligger i å holde utviklere engasjerte, informerte og i kontroll. Med de riktige sikkerhetsreglene og en «stol på, men bekreft»-tankegang kan AI-assistert koding være både revolusjonerende og ansvarlig.