Connect with us

Cybersäkerhet

Hur man hanterar nätverkssäkerhetsutmaningar relaterade till Agentic AI

mm

Agentic artificiell intelligens (AI) representerar den nästa fronten för AI, med löften om att gå utöver även generativ AI (GenAI):s förmågor. Till skillnad från de flesta GenAI-system, som förlitar sig på mänskliga instruktioner eller tillsyn, är agentic AI proaktiv eftersom den inte kräver användarindata för att lösa komplexa, flerstegsproblem. Genom att utnyttja ett digitalt ekosystem av stora språkmodeller (LLM), maskinlärning (ML) och naturlig språkbehandling (NLP), utför agentic AI uppgifter autonomt på uppdrag av en människa eller system, vilket massivt förbättrar produktivitet och drift.

Medan agentic AI fortfarande är i sin linda, har experter betonat några banbrytande användningsfall. Överväg en kundtjänstmiljö för en bank där en AI-agent gör mer än att bara svara på en användares frågor när de ställs. Istället kommer agenten att verkligen slutföra transaktioner eller uppgifter som att flytta medel när användaren begär det. Ett annat exempel kan vara i en finansiell miljö där agentic AI-system assisterar mänskliga analytiker genom att autonomt och snabbt analysera stora mängder data för att generera granskningsklara rapporter för datainformerat beslutsfattande.

De otroliga möjligheterna med agentic AI är obestridliga. Men, liksom alla nya teknologier, finns det ofta säkerhets-, styrnings- och regelefterlevnadsproblem. Den unika naturen hos dessa AI-agenter presenterar flera säkerhets- och styrningsutmaningar för organisationer. Företagen måste hantera dessa utmaningar för att inte bara skörda fördelarna med agentic AI, utan också säkerställa nätverkssäkerhet och effektivitet.

Vilka nätverkssäkerhetsutmaningar skapar Agentic AI för organisationer?

AI-agenter har fyra grundläggande operationer. Den första är perception och datainsamling. Dessa hundratals, tusentals och kanske miljontals agenter samlar in och samlar data från flera platser, antingen molnet, lokalt, kanten osv., och denna data kan fysiskt komma från valfri plats, snarare än en specifik geografisk plats. Den andra steget är beslutsfattande. När dessa agenter har samlat in data, använder de AI- och ML-modeller för att fatta beslut. Den tredje steget är åtgärd och genomförande. Efter att ha fattat beslut, agerar dessa agenter i enlighet med detta för att genomföra beslutet. Den sista steget är inlärning, där dessa agenter använder den insamlade data före och efter deras beslut för att justera och anpassa sig på lämpligt sätt.

I denna process kräver agentic AI tillgång till enorma datamängder för att fungera effektivt. Agenter kommer vanligtvis att integreras med datasystem som hanterar eller lagrar känslig information, såsom finansiella register, hälsojournaler och annan personlig identifierbar information (PII). Tyvärr komplicerar agentic AI ansträngningarna att skydda nätverksinfrastrukturen mot sårbarheter, särskilt med tanke på molntillgänglighet. Det presenterar också utmaningar för utgående säkerhet, vilket gör det svårt för företag att skydda sig mot exfiltrering samt kommando- och kontrollbrott. Om en AI-agent blir komprometterad, kan känslig data lätt läcka ut eller stjälas. Likaså kan agenter kapas av illvilliga aktörer och användas för att generera och distribuera desinformation i stor skala. När brott sker, är det inte bara ekonomiska straff, utan också rykteskonsekvenser.

Nyckelfunktioner som observerbarhet och spårbarhet kan försvåras av agentic AI, eftersom det är svårt att spåra vilka datamängder AI-agenter har åtkomst till, vilket ökar risken för att data exponeras eller åtkomms av obehöriga användare. På samma sätt kan agentic AI:s dynamiska inlärning och anpassning försvåra traditionella säkerhetsrevisioner, som förlitar sig på strukturerade loggar för att spåra dataflöde. Agentic AI är också efemär, dynamisk och kontinuerligt igång, vilket skapar ett 24/7 behov av att upprätthålla optimal synlighet och säkerhet. Skala är en annan utmaning. Angreppsytan har vuxit exponentiellt, utöver det lokala datacentret och molnet till att omfatta kanten. Faktum är att agentic AI, beroende på organisationen, kan lägga till tusentals till miljontals nya slutpunkter vid kanten. Dessa agenter opererar på många platser, antingen olika moln, lokalt, kanten osv., vilket gör nätverket mer sårbar för attacker.

En omfattande strategi för att hantera Agentic AI-säkerhetsutmaningar

Organisationer kan hantera säkerhetsutmaningarna med agentic AI genom att tillämpa säkerhetslösningar och bästa praxis vid var och en av de fyra grundläggande operativa stegen:

  1. Perception och datainsamling: Företag behöver höghastighetsnätverksanslutning som är slut-till-slut-krypterad för att möjliggöra för sina agenter att samla in den enorma mängd data som krävs för att fungera. Kom ihåg att denna data kan vara känslig eller mycket värdefull, beroende på användningsfallet. Företag bör distribuera en höghastighetskrypterad anslutningslösning för att köra mellan alla dessa datakällor och skydda känslig och PII-data.
  2. Beslutsfattande: Företag måste säkerställa att deras AI-agenter har tillgång till de korrekta modellerna och AI- och ML-infrastrukturen för att fatta rätt beslut. Genom att implementera en molnbrandvägg kan företag få den anslutning och säkerhet som deras AI-agenter behöver för att komma åt de korrekta modellerna på ett granskningsbart sätt.
  3. Åtgärd och genomförande: AI-agenter vidtar åtgärder baserat på beslutet. Men företag måste identifiera vilken agent av de hundratals eller tusentals som fattade det beslutet. De behöver också veta hur deras agenter kommunicerar med varandra för att undvika konflikt eller “robotar som slåss mot robotar.” Som sådan behöver organisationer observerbarhet och spårbarhet av de åtgärder som vidtas av deras AI-agenter. Observerbarhet är förmågan att spåra, övervaka och förstå de inre tillstånden och beteendet hos AI-agenter i realtid. Spårbarhet är förmågan att spåra och dokumentera data, beslut och åtgärder som vidtagits av en AI-agent.
  4. Inlärning och anpassning: Företag spenderar miljontals, om inte hundratals miljoner eller mer, för att justera sina algoritmer, vilket ökar värdet och precisionen hos dessa agenter. Om en illvillig aktör får tag på den modellen och exfiltrerar den, kan alla dessa resurser hamna i deras händer på några minuter. Företag kan skydda sina investeringar genom utgående säkerhetsfunktioner som skyddar mot exfiltrering och kommando- och kontrollbrott.

Att kapitalisera på Agentic AI på ett säkert och ansvarsfullt sätt

Agentic AI har en anmärkningsvärd potential, som ger företag möjlighet att nå nya höjder av produktivitet och effektivitet. Men, liksom alla nya teknologier i AI-området, måste organisationer vidta försiktighetsåtgärder för att skydda sina nätverk och känsliga data. Säkerhet är särskilt viktig idag, med tanke på de högt sofistikerade och välorganiserade illvilliga aktörerna som finansieras av nationer, som Salt Typhoon och Silk Typhoon, som fortsätter att genomföra storskaliga attacker.

Organisationer bör samarbeta med molnsäkerhetsexperter för att utveckla en robust, skalbar och framtidssäker säkerhetsstrategi som kan hantera de unika utmaningarna med agentic AI. Dessa partners kan möjliggöra för företag att spåra, hantera och skydda sina AI-agenter; dessutom hjälper de företagen att få den medvetenhet de behöver för att tillfredsställa standarderna relaterade till regelefterlevnad och styrning.

Anirban Sengupta är Chief Technology Officer och Senior Vice President of Engineering på Aviatrix, med över tre decenniers erfarenhet av ingenjörs- och ledarskapsledning. Senast tjänstgjorde Anirban som Senior Director of Engineering på Google, där han drev Google Kubernetes Engine (GKE) management och säkerhetstjänster samt Anthos-utveckling. Under sin tid på Google hjälpte Anirban till att växa Anthos-företaget från starten till mer än 200 miljoner dollar i årlig återkommande intäkt (ARR). Han lanserade också GKE Enterprise, som erbjuder en integrerad containerplattform.

Innan Anirban gick med i Google, tjänstgjorde han som Vice President of Engineering – NSBU på VMware. I denna roll byggde Anirban ut NSX-nätverks- och säkerhetsportföljen, inklusive NSX Edge, Distributed Firewall och NSX Intelligence-produkter. Innan VMware hade Anirban ledande roller på Cisco Systems, Lucent Technologies, Ascend Communications, bland andra.

Anirban har en kandidatexamen i datavetenskap och teknik från Indian Institute of Technology, Kharagpur, Indien, och en masterexamen i datateknik från Santa Clara University, Kalifornien.