Finansiering
SplxAI SĂ€krar 7 Miljoner Dollar I Startfinansiering För Att Hantera Ăkande SĂ€kerhetshot Mot Agenta AI-System

I ett stort steg mot att säkra framtiden för AI, SplxAI, en pionjär inom offensiv säkerhet för Agenta AI, har samlat in 7 miljoner dollar i startfinansiering. Rundan leddes av LAUNCHub Ventures, med strategiskt deltagande från Rain Capital, Inovo, Runtime Ventures, DNV Ventures, och South Central Ventures. Det nya kapitalet kommer att accelerera utvecklingen av SplxAI-plattformen, som är utformad för att skydda organisationer som distribuerar avancerade AI-agenter och applikationer.
Medan företag alltmer integrerar AI i dagliga operationer utvecklas hotlandskapet snabbt. År 2028 förväntas 33% av företagsapplikationer inkludera agentic AI — AI-system som kan fatta autonoma beslut och utföra komplexa uppgifter. Men denna förändring medför en väsentligt utvidgad angreppsyta som traditionella cybersäkerhetsverktyg inte är utrustade för att hantera.
”Distribution av AI-agenter i stor skala introducerar betydande komplexitet,” sa Kristian Kamber, VD och medgrundare av SplxAI. ”Manuell testning är inte genomförbar i denna miljö. Vår plattform är den enda skalbara lösningen för att säkra agentic AI.”
Vad Är Agentic AI Och Varför Är Det Ett Säkerhetsrisk?
Till skillnad från konventionella AI-assistenter som svarar på direkta påståenden, refererar agentic AI till system som kan utföra multi-stegsuppgifter autonomt. Tänk på AI-agenter som kan schemalägga möten, boka resor eller hantera arbetsflöden — allt utan pågående mänsklig inmatning. Denna autonomi, som är kraftfull, introducerar allvarliga risker, inklusive promptinjektioner, avvikande svar, kontextläckage och AI-hallucinationer (falska eller vilseledande utdata).
Dessutom är de flesta befintliga skydd, såsom AI-väggar, reaktiva och ofta dåligt tränade, vilket resulterar i antingen alltför restriktivt beteende eller farlig tillåtande. Det är där SplxAI kommer in.
SplxAI-plattformen: Red Teaming För AI I Stor Skala
SplxAI-plattformen levererar fullständigt automatiserad red teaming för GenAI-system, vilket möjliggör för företag att genomföra kontinuerlig, realtids penetrationstestning över AI-drivna arbetsflöden. Den simulerar sofistikerade adversariala attacker — den typ som imiterar riktiga, högt kvalificerade angripare — över flera modaliteter, inklusive text, bilder, röst och till och med dokument.
Några utmärkande funktioner inkluderar:
-
Dynamisk Riskanalys: Kontinuerligt provar AI-applikationer för att upptäcka sårbarheter och ge handlingsbara insikter.
-
Domänspecifik Pentestning: Anpassar testning till de unika användningsfallen för varje organisation — från finans till kundservice.
-
CI/CD-pipelinsintegration: Införlivar säkerhet direkt i utvecklingsprocessen för att upptäcka sårbarheter innan produktion.
-
Regelefterlevnadskartläggning: Utvärderar automatiskt överensstämmelse med ramverk som NIST AI, OWASP LLM Top 10, EU AI-lag och ISO 42001.
Denna proaktiva strategi får redan gensvar. Kunder inkluderar KPMG, Infobip, Brand Engagement Network och Glean. Sedan lanseringen i augusti 2024 har företaget rapporterat 127% kvartalsvis tillväxt.
Investorerna Stöder Visionen För AI-säkerhet
LAUNCHub Ventures’ General Partner Stan Sirakov, som nu ansluter till SplxAI:s styrelse, betonade behovet av skalbara AI-säkerhetslösningar: ”Medan agentic AI blir normen, blir också dess potential för missbruk det. SplxAI är den enda leverantören med en plan för att hantera den risken i stor skala.”
Rain Capitals Dr. Chenxi Wang ekade denna åsikt, och betonade vikten av automatiserad red teaming för AI-system i deras linda: ”SplxAI:s expertis och teknik positionerar det för att vara en central aktör i att säkra GenAI. Manuell testning fungerar inte längre.”
Nya Tillskott Stärker Teamet
I samband med finansieringen meddelade SplxAI två strategiska rekryteringar:
-
Stan Sirakov (LAUNCHub Ventures) ansluter till styrelsen.
-
Sandy Dunn, tidigare CISO för Brand Engagement Network, går in som Chief Information Security Officer för att leda företagets Governance, Risk, och Compliance (GRC)-initiativ.
Banbrytande Verktyg: Agentic Radar Och Real-Tidig Åtgärd
Utöver den centrala plattformen lanserade SplxAI nyligen Agentic Radar — ett öppen källkodsverktyg som kartlägger beroenden i agentic arbetsflöden, identifierar svaga länkar och ytor säkerhetsgap genom statisk kodanalys.
Samtidigt erbjuder deras åtgärdsmotor en automatiserad metod för att generera förstärkta systemprompt, vilket minskar angreppsytor med 80%, förbättrar promptläckageförebyggande med 97% och minskar ingenjörsinsatsen med 95%. Dessa systemprompt är avgörande för att forma AI-beteende och, om de utsätts eller är dåligt utformade, kan de bli stora säkerhetsrisker.
Simulering Av Verkliga Hot I 20+ Språk
SplxAI stöder också säkerhetstestning på multi-språk, vilket gör det till en global lösning för företags AI-säkerhet. Plattformen simulerar skadliga prompt från både adversariala och benigna användartyper, vilket hjälper organisationer att avslöja hot som:
-
Kontextläckage (oavsiktlig avslöjande av känslig data)
-
Social ingenjörskonst attacker
-
Promptinjektion och jailbreak tekniker
-
Toxiska eller partiska utdata
Allt detta levereras med minimala falska positiva resultat, tack vare SplxAI:s unika AI-red team-intelligens.
Blickar Framåt: Framtiden För Säker AI
Medan företag tävlar om att integrera AI i allt från kundservice till produktutveckling, har behovet av robust, realtids AI-säkerhet aldrig varit större. SplxAI leder laddningen för att säkerställa att AI-system inte bara är kraftfulla — utan också pålitliga, säkra och regelefterlevande.
”Vi är på en mission att säkra och skydda GenAI-drivna applikationer,” tillade Kamber. ”Vår plattform ger organisationer möjlighet att agera snabbt utan att bryta saker — eller kompromissa med förtroendet.”
Med sitt färska kapital och momentum är SplxAI väl positionerat för att bli en grundläggande komponent i AI-säkerhetsstacken för åren som kommer.










