์ฌ์ ๋ฆฌ๋
AI ์์ ID ์ธ์ฆ์ ํตํ ์ ๋ขฐ ๊ตฌ์ถ

생성적 AI는 전 세계 비즈니스에서 관심을 끌고 있습니다. 실제로, 60%의 AI를 채택한 조직은 현재 생성적 AI를 사용하고 있습니다. 오늘날의 리더들은 기술 스택에 AI 도구를 통합하여 경쟁력과 관련성을 유지하기 위해 어떻게 하는지 결정하기 위해 경쟁하고 있습니다. 또한 AI 개발자는 이전에 कभ도 없던 수준으로 많은 도구를 생성하고 있습니다. 그러나 빠른 채택과 기술의 특성으로 인해 많은 보안 및 윤리적 문제가 비즈니스에서 최신 기술을 통합하기 위해 서두르는 동안 완전히 고려되지 않고 있습니다. 결과적으로 신뢰는 감소하고 있습니다.
최근 조사에 따르면 미국인 중 48%만이 AI가 안전하고 보안이 있다고 믿으며, 78%는 AI가 악의적인 의도로 사용될 수 있다고 매우 또는 다소 우려합니다. AI는 일상적인 워크플로우를 개선하는 것으로 밝혀졌지만, 소비자는 악의적인 행위자와 AI를 조작할 수 있는 능력에 대해 우려합니다. 예를 들어, 딥페이크 기능은 기술이 대중에게 더 쉽게 접근할 수 있게 됨에 따라 더 큰 위협이 되고 있습니다.
AI 도구를 가지고 있는 것은 더 이상 충분하지 않습니다. AI가 진정한, 유익한 잠재력을 발휘하기 위해서는 비즈니스에서는 소비자에게 더 높은 신뢰를 주기 위해 기술의 책임감 있고 비용 효율적인 사용을 보여주는 솔루션에 AI를 통합해야 합니다. 특히 사이버 보안에서 신뢰는 핵심입니다.
AI 사이버 보안 도전
생성적 AI 기술은 급속하게 발전하고 있으며 개발자는 ChatGPT Enterprise의 최근 출시를 통해 기업에서 이 기술을 도입하는 중요성을 이제야 이해하기 시작했습니다.
현재 AI 기술은 10년 전과 비교하면 과학 소설의 영역에서만 논의되던 것을 달성할 수 있습니다. 그것이 작동하는 방식은 인상적이지만, 모든 것이 발생하는 속도는 더욱 인상적입니다. 이것이 AI 기술이 회사, 개인, 그리고 물론 사기꾼에게도 확장 가능하고 접근하기 쉽게 만드는 이유입니다. AI 기술의 능력은 혁신을 주도했지만, 그 넓은 사용은 또한 딥페이크-어스-서비스와 같은 위험한 기술의 개발로 이어졌습니다. “딥페이크”라는 용어는 이 특정 스타일의 조작된 콘텐츠(또는 “가짜”)를 생성하는 기술에 사용되는 깊은 학습 기술에서 유래되었습니다.
사기꾼은 항상 가장 높은 ROI를 제공하는 돈을 따라갑니다. 따라서 높은 수익을 제공하는 비즈니스는 항상 그들의 표적입니다. 이것은 핀테크, 인보이스를 지불하는 비즈니스, 정부 서비스, 고가의 상품 소매업체가 항상 그들의 목록 상위에 있음을 의미합니다.
우리는 신뢰가 위협을 받고 있으며, 소비자는 점점 더 신뢰하지 않아, 초보자 사기꾼에게 공격할 기회를 더 많이 제공하고 있습니다. AI 도구의 접근성과 비용이 낮아짐에 따라, 사기꾼은 다른 사람의 이미지와 신원을 조작하기 위해 더 쉽게 사용할 수 있습니다. 딥페이크 기능은 딥페이크 앱과 웹사이트를 통해 대중에게 더 쉽게 접근할 수 있게 되었으며, 정교한 딥페이크를 생성하는 데는 매우 적은 시간과 상대적으로 낮은 수준의 기술이 필요합니다.
AI를 사용함으로써 우리는 또한 계정 탈취가 증가하는 것을 보았습니다. AI 생성 딥페이크는 누구든지 유명인이나甚至 자신의 상사와 같은 가짜 또는 합성 신원을 쉽게 생성할 수 있습니다.
AI와 대규모 언어 모델(LLM) 생성 언어 애플리케이션은 탐지와 제거가 어려운 더 정교하고 회피적인 사기를 생성하는 데 사용될 수 있습니다. LLM은 특히 완벽하게 모국어를 말할 수 있는 피싱 공격을 대규모로 생성했습니다. 이것은 또한 스케일에서 “로맨스 사기”의 위험을 생성할 수 있습니다. 즉, 누군가가 데이트 웹사이트 또는 앱을 통해 누군가와 연결을 맺을 때, 그들과 소통하는 사람이 사기꾼이고 가짜 프로필을 사용하고 있는 경우입니다. 이것은 많은 소셜 플랫폼이 스케일에서 지속 가능하게 유지하기 위해 “인간성 증명” 검사를 배치하는 것을 고려하도록 이끌고 있습니다.
그러나 현재 보안 솔루션은 악의적인 행위자를 막을 수 없습니다. 딥페이크 탐지는 실제와 가짜 사이의 차이를 찾는 분류기에 기반합니다. 그러나 이러한 고급 위협을 탐지하는 데는 더 많은 데이터 포인트가 필요합니다.
AI와 신원 확인: 함께 작동
AI 개발자는 기술을 사용하여 검증된 사이버 보안 조치를 위한 개선된 방어를 제공하는 데 집중해야 합니다. 이것은 더 신뢰할 수 있는 AI 사용 사례를 제공할 뿐만 아니라 더 책임감 있는 사용을 제공할 것입니다. 또한 사이버 보안 관행을 개선하고 기존 솔루션의 능력을 발전시키는 데 도움이 될 것입니다.
이 기술의 주요 사용 사례는 신원 확인 내에 있습니다. AI 위협 풍경은不断하게 진화하고 있으며 팀은 신속하게 조정하고 새로운 기술을 구현할 수 있는 기술로 장비되어야 합니다.
AI와 신원 확인 기술을 사용하는 일부 기회에는 다음이 포함됩니다:
- 중요한 디바이스 속성 검사
- 반대-AI를 사용하여 조작 식별: 사기를 당하지 않고 중요한 데이터를 보호하기 위해 반대-AI는 들어오는 이미지의 조작을 식별할 수 있습니다.
- 일부 상황에서 ‘데이터 부재’를 위험 요소로 처리
- 여러 세션과 고객에 걸친 패턴을积極적으로 검색
AI와 신원 확인 기술이 제공하는 이러한 계층적 방어는 개인, 주장된 신원 문서, 네트워크 및 디바이스를 조사하여 딥페이크와의 조작으로 인한 위험을 최소화하고 오직 신뢰할 수 있는, 실제 사람만이 서비스에 액세스할 수 있도록 합니다.
AI와 신원 확인은 계속 함께 작동해야 합니다. 더 강력하고 완전한 훈련 데이터를 사용할수록 모델이 더 좋아지고, AI는 입력된 데이터만큼 좋은 만큼입니다. 따라서 더 많은 데이터 포인트를 가지면, 신원 확인과 AI가 더 정확할 것입니다.
AI와 ID 확인의 미래
신뢰할 수 있는 출처로 입증되지 않는 한 온라인에서 아무 것도 신뢰할 수 없습니다. 오늘날, 온라인 신뢰의 핵심은 검증된 신원에 있습니다. LLM과 딥페이크 도구에 대한 접근성은 온라인 사기 위험을 증가시킵니다. 조직화된 범죄 집단은 잘 자금이 지원되고 이제 그들은 더 큰 규모에서 최신 기술을 활용할 수 있습니다.
회사들은 방어 지형을 넓혀야 하며, 기술에 투자하는 것을 두려워해서는 안 됩니다. 더 이상 하나의 방어 지점만 있을 수 없습니다. 그들은 시스템, 상품 또는 서비스에 액세스하려고 하는 개인과 관련된 모든 데이터 포인트를 살펴보고 그들의 여정 전체에 걸쳐 계속해서 검증해야 합니다.
딥페이크는 계속해서 진화하고 더 정교해질 것입니다. 비즈니스 리더들은 솔루션 배포에서 새로운 사기 패턴을 식별하고 위협과 함께 사이버 보안 전략을 지속적으로 발전시키기 위해 데이터를 지속적으로 검토해야 합니다.












