Connect with us

๋ฏธ์…˜ ํฌ๋ฆฌํ‹ฐ์ปฌ SOC ํ™œ๋™์— AI SOC ์—์ด์ „ํŠธ๋ฅผ ์‹ ๋ขฐํ•˜๊ธฐ

์‚ฌ๊ณ  ๋ฆฌ๋”

๋ฏธ์…˜ ํฌ๋ฆฌํ‹ฐ์ปฌ SOC ํ™œ๋™์— AI SOC ์—์ด์ „ํŠธ๋ฅผ ์‹ ๋ขฐํ•˜๊ธฐ

mm

대형 언어 모델(LLM)과 AI 에이전트는 사이버 보안을 포함한 많은 분야에 상당한 영향을 미치고 있습니다. 그들의 잠재력은 무궁무진합니다. 그러나 현실에서는 LLM이 비즈니스 결정이 이루어지는 핵심 업무 흐름에 통합되면서, 특히 프라이버시와 데이터 정확성과 관련된 많은 문제가 나타났습니다. 우리는 이렇게 묻게 됩니다: 내 비즈니스에 AI 에이전트를 신뢰할 수 있을까? 사이버 보안과 보안 운영 센터(SOC)에 관해서는, 우리가 경력을 쌓아오며 들어온 것처럼 간단한 대답은 다음과 같습니다: 예, SOC에 적절한 통제와 완화 장치가 있다면, AI 에이전트는 인간 SOC 분석가와 함께 상당한 가치를 더하며 프로덕션 환경에 성공적이고 안전하게 배포될 수 있습니다.

AI 사이버 보안의 과제

독립형 솔루션으로 사용되는 기성 LLM에는 환각, 데이터 오염, 프롬프트 인젝션과 같은 몇 가지 핵심 문제가 있습니다. 이러한 문제는 자율 SOC에서 다음과 같은 심각한 문제를 일으킬 수 있습니다: 제한된 데이터로 인한 부정확한 판단 – AI 에이전트는 자신의 역할을 잘 수행하기 위해 환경의 모든 관련 정보가 필요합니다. 최소한 인간 보안 분석가가 가진 만큼의 데이터가 필요하며, 이상적으로는 더 많은 데이터가 필요합니다. 불충분한 데이터는 AI 에이전트로 하여금 조사 실행마다 달라질 수 있는 잘못된 가정을 하게 만듭니다. 보안 문제로 데이터 접근을 제한하거나 예산 문제로 AI가 할 수 있는 일의 범위를 제약한다면, 정확도가 떨어질 것이라고 예상해야 합니다. 일관성 없는 판단 – AI 에이전트는 수집한 데이터를 기반으로 결정을 내리고 작업을 수행해야 합니다. 일반적인 환경에는 방대한 양의 보안 데이터가 있기 때문에, 정확도와 예산을 균형 있게 맞추기 위해 샘플링 접근 방식을 취하는 것이 일반적입니다. 조사를 여러 번 실행하면, 판단, 결정된 심각도, 권장 조치에 차이가 나타날 수 있습니다. 이 차이가 허용 한도 내에 있다면 정상적인 현상이며, 두 명의 서로 다른 인간 분석가가 동일한 경고를 볼 때도 발생합니다. 불투명한 추론, 또는 “블랙박스” 문제 – 일부 AI 에이전트는 불투명한 시스템으로 작동합니다. 이러한 AI 기반 SOC 결과는 처음에는 매우 인상적으로 보일 수 있지만, 중요한 비즈니스 결정을 위해서는 AI SOC가 권장 조치를 내리게 한 근거를 이해해야 합니다. 그러나 이는 AI의 본질적인 한계는 아닙니다. 일부 AI 에이전트는 투명성을 위해 많은 노력을 기울이기 때문입니다. AI 에이전트를 도입하기 전에 가치 증명(PoV) 단계에서 철저히 검증하는 것이 좋습니다.

사이버 보안 AI의 개선 사항

AI 기반 사이버 보안 접근 방식은 처음 도입된 이후 상당한 개선을 이루었습니다. 다음 사항을 고려해 보십시오: 샘플링을 이용한 합의로 불일치 완화 – 결정이나 결과의 불일치는 서로 다른 구성(예: 다른 온도에서의 다른 모델)을 가진 여러 AI 에이전트를 활용하여 이전 에이전트 작업에서 수집된 데이터를 해석함으로써 효과적으로 해결될 수 있습니다. 샘플링을 사용하면 조직은 서로 다른 AI 모델이 어디서 일치하고 어디서 분기하는지 이해할 수 있습니다. 결과적으로, 모든 모델이 동의하는 정보에 의존하고 모델 간에 차이가 나는 정보는 배제함으로써 불일치를 상당히 완화할 수 있습니다. 그러나 샘플 에이전트들이 동의하지 않는 정보도 불확실성을 식별하고 더 나은 데이터나 입력이 필요함을 나타내므로 가치가 있다는 점에 유의하는 것이 중요합니다. 이러한 불일치 정보는 조직이 개선된 의사 결정을 위해 필수 데이터에 대한 접근을 우선순위화하는 데 도움이 될 수 있습니다. 조사 플레이북을 통한 일관된 절차 – AI SOC 조사를 여러 번 실행했을 때 일관되지 않은 결과가 나오는 주요 이유 중 하나는 수집된 데이터의 변동뿐만 아니라 AI 에이전트 조사 중 생성되거나 수정된 가설의 변동 때문입니다. 특정 범주에 대한 높은 수준의 표준 운영 절차(SOP) 조사 가이드를 수립하면 에이전트가 더 일관된 가설을 형성하고 전반적인 결과의 일관성을 향상시킬 수 있습니다. 이는 새로운 접근 방식이 아닙니다. 대부분의 인간 SOC 분석가는 이미 효과적이고 일관된 조사를 보장하기 위해 SOP에 의존하고 있습니다. AI 에이전트도 동일한 방식으로 SOP를 사용할 수 있습니다. 추적 가능한 증거로 블랙박스의 신비를 해소 – 모범 사례로서, AI SOC는 지원 증거를 염두에 두고 처음부터 설계되어야 합니다. 에이전트가 내리는 모든 결정과 가설은 추적 기록과 그 추론을 뒷받침하는 원시 로그 데이터를 포함한 지원 정보로 뒷받침되어야 합니다.

신뢰할 수 있는 사이버 보안 AI

AI 에이전트는 사이버 보안에서 탐지, 분류, 위협 대응을 가속화할 수 있지만, 일관되지 않은 결과, 불투명한 결정, 데이터 품질에 대한 민감성과 같은 실제적인 위험도 함께 도입합니다. 미션 크리티컬 환경에서 사용하기 위한 신뢰를 얻기 위해서는 추적 기록과 원시 아티팩트를 포함한 증거 기반 추론; 변동성을 줄이기 위한 구조화된 SOP; 합의와 불확실성을 분리하기 위한 다중 에이전트 샘플링; 데이터 무결성, 프롬프트 인젝션, 단계 및 예산 제한을 위한 가드레일이 필요합니다. 이러한 모든 중요한 수정 사항은 현대의 AI 기반 보안 운영의 복잡성을 해결하도록 설계된 고급 LLM AI 에이전트 접근 방식으로 해결될 수 있습니다. 예를 들어, 일부 고급 LLM 접근 방식은 고급 다중 에이전트 샘플링을 사용하여 조직이 다양한 AI 모델의 집단 지성을 활용하여 합의를 이루고, 불일치를 최소화하며, 불확실성 영역을 정확히 찾아낼 수 있게 합니다. 구조화되고 명확한 조사 가이드는 분석 단계가 모범 사례와 표준화된 절차를 따르도록 보장하여 모든 운영에서 일관성과 신뢰성을 추구합니다. 종단 간 결정 추적성은 모든 판단, 권장 사항, 자동화된 조치가 감사되고 이해되어 보안 팀에 완전한 투명성을 제공하는 동시에 이해관계자와의 신뢰를 구축하도록 합니다. 이러한 핵심 요소를 통합하고 프롬프트 데이터 품질, 안전성, 운영 가드레일에 대한 강력한 통제를 구현함으로써, 고급 LLM AI 에이전트 접근 방식은 SOC가 신뢰할 수 있고 투명할 뿐만 아니라 현실 세계 환경과 가장 미션 크리티컬한 활동을 위해 프로덕션 준비가 된 결과를 달성할 수 있도록 합니다.

//simbian.ai/">Simbian์˜ ๊ณต๋™ ์ฐฝ๋ฆฝ์ž์ด์ž CEO์ž…๋‹ˆ๋‹ค. ์•ฐ๋ถ€์ง€๋Š” ์•”ํ˜ธํ•™ ๋ถ„์•ผ์—์„œ 30๊ฑด ์ด์ƒ์˜ ํŠนํ—ˆ์™€ ์—ฌ๋Ÿฌ ๋ฒˆ์˜ ์„ฑ๊ณต์ ์ธ ์Šคํƒ€ํŠธ์—…์„ ๋ณด์œ ํ•œ ์ธ์ •๋ฐ›๋Š” ๋ฆฌ๋”์ž…๋‹ˆ๋‹ค. ์•ฐ๋ถ€์ง€๋Š” ๋˜ํ•œ Cryptography Research Inc.์—์„œ ์ˆ˜์„ ์•„ํ‚คํ…ํŠธ๋กœ ์žฌ์งํ•˜๋ฉฐ ๋งค๋…„ ์ˆ˜๋ฐฑ๋งŒ ๋Œ€์˜ ์žฅ์น˜์— ์ ์šฉ๋˜๋Š” ํšŒ์‚ฌ์˜ ๋‹ค์–‘ํ•œ ๋ณด์•ˆ ๊ธฐ์ˆ ์„ ์ฃผ๋„ํ•˜๊ณ  ๊ฐœ๋ฐœํ–ˆ์Šต๋‹ˆ๋‹ค. ์ด์ „์—๋Š” NVIDIA์—์„œ ์„ธ๊ณ„์—์„œ ๊ฐ€์žฅ ๋น ๋ฅธ ๋ฉ”๋ชจ๋ฆฌ ์ปจํŠธ๋กค๋Ÿฌ๋ฅผ ํฌํ•จํ•œ ์„ธ๊ณ„ ์ตœ๊ณ  ์ˆ˜์ค€์˜ ์ปดํ“จํ„ฐ ์นฉ์„ ์„ค๊ณ„ํ–ˆ์Šต๋‹ˆ๋‹ค.