Connect with us

Ajatusjohtajat

Salassapohjainen Imperatiivi: Miksi Perinteiset Turvamallit Menevät Rikki Kun AI-Agentit Koskettaa Koodia

mm

Huhtikuussa 2023,  Samsung löysi, että heidän insinööreillään oli vuotanut herkkää tietoa ChatGPT:lle. Mutta se oli vahinko. Kuvittele nyt, että ne koodirepositoriot olisivat sisältäneet tietoisesti istutettuja ohjeita, jotka ovat näkymättömiä ihmisille, mutta AI prosessoi ne, ja ne on suunniteltu poistamaan ei vain koodin, vaan jokaisen API-avaimen, tietokantatunnisteen ja palvelutunnuksen, jonka AI pystyy käyttämään. Tämä ei ole hypoteettinen. Turvallisuustutkijat ovat jo osoittaneet että nämä “näkymättömät ohjeet” -hyökkäykset toimivat. Kysymys ei ole siinä, tapahtuuko tämä, vaan milloin.

Raja, Joka Ei Enää Ole Olemassa

Vuosikymmenien ajan, olemme rakentaneet turvallisuutta perustuvan perusoletukseen: koodi on koodia, ja data on dataa. SQL-injekti opetti meidät parametroitumaan kyselyjä. Cross-site scripting opetti meidät pakkaamaan tulosteet. Olemme oppineet rakentamaan seinät ohjelmien ja käyttäjän syötteiden välille.

AI-agenttien kanssa, tämä raja on hävinnyt.

Toisin kuin deterministinen ohjelmisto, joka seuraa ennustettavia polkuja, Large Language -mallit ovat todennäköisyysmustat laatikot, jotka eivät voi erottaa legitiimejä kehittäjän ohjeita ja malicious syötteitä. Kun hyökkääjä syöttää kehotteen AI-koodin avustajalle, he eivät vain anna dataa. He ohjelmoivat sovelluksen uudelleen lennossa. Syöte on itse ohjelma.

Tämä edustaa perustavanlaatuista katkoa kaikkeen, mitä tiedämme sovellusturvallisuudesta. Perinteiset syntaksiin perustuvat palomuurit, jotka etsivät malicious kuvioita kuten DROP TABLE tai <script> -tagit, epäonnistuvat täysin luonnollisen kielen hyökkäyksiä vastaan. Tutkijat ovat osoittaneet “semanttisen korvaamisen” tekniikoita, joissa “API-avaimet” korvaaminen “omenilla” kehoitteissa sallii hyökkääjille ohittaa suodattimet täysin. Miten voit palomuuri aikomusta, kun se on naamioitu vaarattomaksi keskusteluksi?

Nolla-Klikkaus-Todellisuus, Josta Kukaan Ei Puhu

Tässä on se, mitä useimmat turvallisuustiimit eivät ymmärrä: kehotteen injektio ei vaadi, että käyttäjä kirjoittaa mitään. Nämä ovat usein nolla-klikkaus-hyökkäykset. AI-agentti, joka skannaa koodirepositorion tavalliselle tehtävälle, tarkastelee pull-pyynnön tai lukee API-dokumentaatiota, voi laukaista hyökkäyksen ilman mitään ihmisen välikäsisyyttä.

Kuvittele tämä skenaario, joka perustuu tekniikoille, joita tutkijat ovat jo todistaneet: Pahantahtoinen toimija upottaa näkymättömiä ohjeita HTML-kommentteihin suositun avoimen lähdekoodin kirjaston dokumentaatioon. Jokainen AI-avustaja, joka analysoi tämän koodin, olipa se sitten GitHub Copilot, Amazon CodeWhisperer tai mikä tahansa yrityksen koodin apu, voi muuttua potentiaaliseksi tunnistetiedon kerääjäksi. Yksi vaarantunut kirjasto voi tarkoittaa tuhansia alttiita kehitysympäristöjä.

Vaara ei ole LLM itse; se on se toimivalta, jonka annamme sille. Hetkenä, jolloin integroimme nämä mallit työkaluihin ja API:hin, antaen niiden noutaa dataa, suorittaa koodia ja päästä käsiksi salaisuuksiin, muutimme avustajat täydellisiksi hyökkäysvektoriksi. Riski ei skaalaa mallin älykkyyden mukaan; se skaalaa sen yhteyden mukaan.

Miksi Nykyinen Lähestymistapa On Tuomittu

Teollisuus on tällä hetkellä omistautunut “align” -malleihin ja parempien kehotteen palomuurien rakentamiseen. OpenAI lisää enemmän varotoimia. Anthropic keskittyy perustuslailliseen AI:hen. Kaikki yrittävät tehdä malleja, jotka eivät voi olla petoksia.

Tämä on häviävä taistelu.

Jos AI on tarpeeksi älykäs ollakseen hyödyllinen, se on tarpeeksi älykäs ollakseen petetty. Me olemme lankeamassa “sanitoinnin ansaan”: olettaen, että parempi syötteiden suodatus pelastaa meidät. Mutta hyökkäykset voidaan piilottaa näkymättömään tekstiin HTML-kommentteihin, haudattuna syvälle dokumentaatioon tai koodattuna tavoilla, joita emme ole vielä kuvitelleet. Et voi puhdistaa sitä, mitä et voi kontekstualisesti ymmärtää, ja konteksti on se, mikä tekee LLM:istä voimakkaita.

Teollisuuden on hyväksyttävä kova totuus: kehotteen injektio onnistuu. Kysymys on, mitä tapahtuu, kun se onnistuu.

Arkkitehtoninen Muutos, Jota Tarvitaan

Olemme tällä hetkellä “korjausvaiheessa”, lisäten syötteiden suodattimia ja validointisääntöjä. Mutta juuri niin kuin lopulta opimme, että SQL-injektiön estäminen vaati parametroituja kyselyjä, ei vain parempaa merkkijonon pakkausta, meidän on löydettävä arkkitehtoninen ratkaisu AI-turvallisuudelle.

Vastaus piilee periaatteessa, joka kuulostaa yksinkertaiselta, mutta vaatii uudelleen ajattelua siitä, miten rakennamme järjestelmiä: AI-agenttien ei koskaan pitäisi omistaa salaisuuksia, joita ne käyttävät.

Tämä ei ole paremman salasananhallinnan tai parannettujen holvien ratkaisua. Se on tunnustaminen AI-agenttien ainutlaatuisista, verifioitavista identiteeteistä, eikä käyttäjien tarvitse salasanoja. Kun AI-agentti tarvitsee pääsyä suojattuun resurssiin, se pitäisi:

  1. Tunnistautua sen verifioitavalla identiteetillä (ei tallennetulla salaisuudella)

  2. Vastaanottaa vain juuri ajoitettuja tunnistautumistietoja, jotka ovat voimassa vain kyseiselle tehtävälle

  3. Näiden tunnistautumistietojen vanhentuminen automaattisesti sekunneissa tai minuuteissa

  4. Älä koskaan tallenna tai “näe” pitkäaikaisia salaisuuksia

Useita lähestymistapoja on kehittynyt. AWS IAM-roolit palvelutilille, Google Workload Identity, HashiCorp Vaultin dynaamiset salaisuudet ja tarkoitukseen tehtyjä ratkaisuja, kuten Akeylessin Zero Trust -määritys, osoittavat tätä salattoman tulevaisuuden suuntaa. Toteutusyksityiskohdat vaihtelevat, mutta periaate on sama: jos AI:lla ei ole salaisuuksia, joita voidaan varastaa, kehotteen injektio muuttuu merkittävästi pienemmäksi uhaksi.

Kehitysympäristö Vuonna 2027

Kolmen vuoden kuluttua .env-tiedosto on kuollut AI-välittäisessä kehityksessä. Pitkäaikaiset API-avaimet, jotka ovat ympäristömuuttujissa, tullaan näkemään samalla tavalla kuin salasanat tekstinä: häpeällinen jäänne naivista ajasta.

Sen sijaan jokainen AI-agentti toimii tiukassa etuoikeuksien erottelussa. Vain luku-oikeus oletuksena. Toimintojen valkoinen lista on standardi. Hiekkalaatikko-suoritinympäristöt ovat vaatimus. Me lopetamme yrittämisen AI:n ajattelun hallitsemisen ja keskitymme täysin siihen, mitä se voi tehdä.

Tämä ei ole pelkästään tekninen evoluutio; se on perustavanlaatuinen muutos luottamisen malleissa. Siirrymme “luota ja tarkista” -periaatteesta “älä luota, aina tarkista ja oletta kompromissi” -periaatteeseen. Vähimmän etuoikeuksien periaate, jota on pitkään saarnattu, mutta harvoin käytännössä, muuttuu ehdottomaksi, kun juniorikehittäjäsi on AI, joka prosessoi tuhansia potentiaalisesti malicious syötteitä päivittäin.

Valinta, Jota Meidän On Tehtävä

AI:n integrointi ohjelmistokehitykseen on välttämätöntä ja suurelta osin hyödyllistä. GitHub raportoi, että kehittäjät, jotka käyttävät Copilota, suorittavat tehtäviä 55 % nopeammin. Tuottavuuden hyödyt ovat todellisia, eikä mikään organisaatio, joka haluaa pysyä kilpailukykyisenä, voi jättää niitä huomiotta.

Mutta me seisomme risteyksessä. Voimme jatkaa nykyistä tietä lisäämällä enemmän varotoimia, rakentamalla parempia suodattimia, toivoen, että voimme tehdä AI-agentteja, jotka eivät voi olla petoksia. Tai voimme tunnustaa uhkauskuvan perustavanlaatuisen luonteen ja rakentaa turvallisuusarkkitehtuuriamme sen mukaisesti.

Samsung-asiainen oli varoituslaukaus. Seuraava rikkominen ei ole vahinko, eikä se rajoitu yhteen yritykseen. Kun AI-agentit saavat enemmän kykyjä ja pääsevät käsiksi enemmän järjestelmiin, potentiaalinen vaikutus kasvaa eksponentiaalisesti.

Kysymys jokaiselle CISO:lle, jokaiselle teknisen johtajalle ja jokaiselle kehittäjälle on yksinkertainen: Kun kehotteen injektio onnistuu teidän ympäristössänne (ja se onnistuu), mitä hyökkääjä löytää? Löytävätkö he aarreaitan pitkäaikaisia tunnistautumistietoja, vai löytävätkö he AI-agentin, joka on vaikka kompromissi, mutta ei ole salaisuuksia, joita voidaan varastaa?

Valinta, jonka teemme nyt, määrää, muuttuuko AI suurimmaksi ohjelmistokehityksen kiihdyttäjäksi vai suurimmaksi haavoittuvuudeksi, jonka olemme koskaan luoneet. Teknologia rakentaa turvallisia, salattomia AI-järjestelmiä on olemassa jo tänään. Kysymys on, toteutammeko sen ennen kuin hyökkääjät pakottavat meidät.

OWASP on jo tunnistanut kehotteen injektion #1 riskinä heidän Top 10 -listallaan LLM-sovelluksille. NIST kehittää ohjeita nollaturvallisuusarkkitehtuureista. Kehykset ovat olemassa. Ainoa kysymys on toteutusnopeus versus hyökkäyksen evoluutio.

Refael Angel on Akeylessin perustaja ja CTO, jossa hän kehitti yrityksen patentoiman Zero-Trust-salausTeknologian. Kokenut ohjelmistoinsinööri, jolla on syvä asiantuntemus salauksesta ja pilviturvallisuudesta, Refael toimi aikaisemmin Senior Software Engineerina Intuitin tutkimus- ja kehityskeskuksessa Israelissa, jossa hän rakensi järjestelmiä salausten avaimien hallintaan julkisissa pilviympäristöissä ja suunnitteli koneen todennuspalveluita. Hänellä on B.Sc. tietojenkäsittelytieteestä Jerusalem College of Technologysta, jonka hän suoritti 19-vuotiaana.