Rescale 미팅 예약

사상가

AI 확장으로 Bard에 오르기 전에 위험을 고려하세요

mm

게재

 on

최근 구글 발표 대화형 생성 AI(GenAI) 도구를 다른 서비스에 통합하는 Bard Extensions의 본격적인 출시. Bard는 이제 사용자의 개인 데이터를 활용하여 이메일 정리, 항공편 예약, 여행 계획, 메시지 응답 작성 등 다양한 작업을 수행할 수 있습니다.

Google의 서비스가 이미 우리 일상 생활에 깊이 얽혀 있는 가운데, 이번 통합은 GenAI의 실용적인 일상 애플리케이션을 위한 진정한 진전을 의미하며 개인 작업과 워크플로를 처리하는 보다 효율적이고 생산적인 방법을 제공합니다. 결과적으로 Google이 보다 편리한 AI 도구를 출시함에 따라 현재 브라우저 기반 생산성 확장을 원하는 사용자의 요구를 충족하기 위해 다른 웹 기반 AI 기능이 생겨나고 있습니다.

그러나 사용자 역시 주의하고 책임을 져야 합니다. Bard Extensions 및 유사한 도구는 유용하고 생산적일 수 있지만 아직 발견되지 않은 위험 중에서 사용자의 개인 데이터를 손상시킬 수 있는 잠재적인 보안 결함에 대한 새로운 문을 열어줍니다. Bard 또는 기타 GenAI 생산성 도구를 활용하는 데 관심이 있는 사용자는 민감한 정보를 맹목적으로 넘겨주기 전에 모범 사례를 배우고 포괄적인 보안 솔루션을 찾는 것이 좋습니다.

개인 데이터 검토

Google은 명시적으로 상태 회사 직원은 청구서부터 은행 정보, 사랑의 메모에 이르기까지 개인 정보가 포함될 수 있는 Bard와 사용자의 대화를 검토할 수 있습니다. 따라서 사용자는 Google 직원이 제품, 서비스, 기계 학습 기술을 알리기 위해 보거나 사용하기를 원하지 않는 기밀 정보나 데이터를 입력하지 말 것을 경고받습니다.

Google 및 기타 GenAI 도구 제공업체도 사용자의 개인 데이터를 사용하여 기계 학습 모델을 재교육할 가능성이 높습니다. 이는 GenAI 개선에 필요한 측면입니다. AI의 힘은 스스로 가르치고 새로운 정보로부터 학습하는 능력에 있지만, GenAI 확장 프로그램을 개인 데이터로 신뢰한 사용자로부터 새로운 정보가 나오면 비밀번호, 은행 정보 또는 연락처 정보를 Bard의 공개 서비스에 제공합니다.

불확실한 보안 문제

Bard가 Google 내에서 더욱 광범위하게 통합되는 도구가 되면서 전문가와 사용자 모두 여전히 Bard의 기능 범위를 이해하기 위해 노력하고 있습니다. 그러나 AI 분야의 모든 최첨단 플레이어와 마찬가지로 Google은 사용자의 정보와 데이터를 어떻게 활용할지 정확히 알지 못한 채 계속해서 제품을 출시하고 있습니다. 예를 들어, 최근에 밝혀진 사실은 다음과 같습니다. 공유 버튼을 통해 친구와 Bard 대화를 나누면 누구나 볼 수 있도록 전체 대화가 표준 Google 검색 결과에 표시될 수 있습니다.

워크플로와 효율성을 개선하기 위한 매력적인 솔루션임에도 불구하고 Bard 또는 기타 AI 기반 확장 프로그램에 사용자를 대신하여 유용한 일상 작업을 수행할 수 있는 권한을 부여하면 AI 환각(GenAI가 알려진 허위 또는 부정확한 출력)의 형태로 바람직하지 않은 결과를 초래할 수 있습니다. 때로는 생성합니다.

Google 사용자의 경우 이는 잘못된 항공편을 예약하거나, 청구서를 잘못 지불하거나, 잘못된 사람과 문서를 공유하는 것을 의미할 수 있습니다. 개인 데이터를 잘못된 당사자나 악의적인 행위자에게 노출하거나 잘못된 데이터를 올바른 사람에게 보내는 것은 신원 도용 및 디지털 개인 정보 보호 손실에서부터 잠재적인 금전적 손실 또는 당황스러운 서신 노출에 이르기까지 원치 않는 결과를 초래할 수 있습니다.

보안 확장

일반 AI 사용자의 경우 가장 좋은 방법은 여전히 ​​예측할 수 없는 AI 비서의 개인 정보를 공유하지 않는 것입니다. 하지만 그것만으로는 완전한 보안을 보장할 수 없습니다.

SaaS 및 웹 기반 애플리케이션으로의 전환으로 인해 브라우저는 이미 공격자의 주요 표적이 되었습니다. 그리고 사람들이 더 많은 웹 기반 AI 도구를 채택하기 시작하면서 민감한 데이터를 훔칠 수 있는 기회의 창이 조금 더 넓어졌습니다. 더 많은 브라우저 확장이 GenAI의 성공에 편승하여 사용자가 새롭고 효율적인 기능을 설치하도록 유도함에 따라 사람들은 이러한 확장 중 상당수가 정보나 사용자의 OpenAI API 키를 훔치게 될 것이라는 사실에 주의해야 합니다. ChatGPT 관련 도구의 경우입니다.

다행스럽게도 데이터 도난을 방지하기 위한 브라우저 확장 보안 솔루션이 이미 존재합니다.. DLP 컨트롤을 사용하여 브라우저 확장을 구현함으로써 사용자는 AI 기반 또는 기타 브라우저 확장을 초대하여 개인 데이터를 오용하거나 공유할 위험을 완화할 수 있습니다. 이러한 보안 확장 프로그램은 브라우저 활동을 검사하고 보안 정책을 시행하여 웹 기반 앱이 민감한 정보를 가져가는 위험을 방지할 수 있습니다.

바드를 지켜라

Bard 및 기타 유사한 확장 프로그램은 향상된 생산성과 편의성을 보장하지만 상당한 사이버 보안 위험을 안고 있습니다. 개인 데이터가 관련될 때마다 사용자가 알아야 할 근본적인 보안 문제가 항상 존재합니다. 아직 미지의 새로운 영역인 Generative AI에서는 더욱 그렇습니다.

사용자가 Bard 및 기타 AI 및 웹 기반 도구가 민감한 개인 데이터를 독립적으로 작동하도록 허용함에 따라 브라우저 보안 확장이나 DLP 제어 없이 취약한 의심하지 않는 사용자에게는 더 심각한 영향이 확실히 닥칠 것입니다. 결국 생산성 향상은 정보 노출 가능성이 높아지면 생산성이 훨씬 떨어지며 개인은 데이터가 잘못 처리되기 전에 AI에 대한 보호 장치를 마련해야 합니다.

Tal은 최고 기술 책임자(CTO)입니다. 인식 점. 이전에 Hysolate의 창립자이자 CTO였던 Tal Zamir는 기술 작동 방식을 재구상하여 긴급한 비즈니스 과제를 해결한 경력을 보유한 20년 간의 소프트웨어 업계 리더입니다.

그는 여러 가지 획기적인 사이버 보안 및 가상화 제품을 개척했습니다. Tal은 VMware의 CTO 사무실에서 차세대 최종 사용자 컴퓨팅 제품을 인큐베이션했습니다.