Connect with us

사상 리더

생성적 AI를 통한 시장 조사: 기회와 위험

mm

“위대한 힘에는 위대한 책임이 따른다.” 마블 팬이 아니더라도 이 인용문을 쉽게 알아볼 수 있다. 이 인용문은 원래 초인적인 속도, 힘, 민첩성, 그리고 회복력을 언급하면서 시작되었지만, 생성적 AI의 부상에 의미를 부여할 때 도움이 된다. 기술 자체는 새로운 것이 아니지만, ChatGPT의 출시로 2개월 만에 1억 명의 사람들에게 도달했으며, 많은 사람들에게는 超能力을 얻은 것과 같은感觉을 주었다. 그러나 모든 超能力과 마찬가지로, 사용하는 방법이 중요하다. 생성적 AI도 예외는 아니다.伟大한 것,好的 것, 그리고 나쁜 것 모두의 가능성이 있다.

세계에서 가장 큰 브랜드들은 현재 이 기술을 어떻게 사용할지 결정해야 하는 중요한 기로에 서 있다. 同时, 경제적 불안정성과 인플레이션은 지속되고 있으며, 소비자들은 지출을 어떻게 우선순위에 둘지에 대해 불확실하다.

이 두 가지 요소를 고려하면, 생성적 AI는 브랜드가 소비자 주목을 얻는 싸움에서 우위를 점하는 데 도움이 될 수 있다. 그러나, 브랜드는 균형 있는 관점을 취해야 한다. 즉, 가능성을 보는 동시에 위험도 보아야 하며, 두 가지 모두에 대해 열린 마음으로 접근해야 한다.

생성적 AI가洞察 작업에 미치는 영향

시장 조사 산업은 변화에 익숙하다. 소비자洞察 전문가들에게 उपलब한 도구와 방법론은 지난 몇십 년 동안 빠르게 발전해 왔다.

현재, 생성적 AI가 가져올 변화의 범위와 속도는 아직 추측의 대상이다. 그러나, 결정권자들이 더 많은 정보가 उपलब해지면 빠르게 대응할 수 있도록 도와주는 기반을 마련하는 것이 중요하다.

궁극적으로, 모든 것은 올바른 질문을 묻는 것에 달려 있다.

기회는 무엇인가?

현재, 생성적 AI가 제공하는 주요 기회는 생산성 향상이다. 생성적 AI는 아이디어, 정보, 작성된 텍스트를 생성하는 과정을 크게 가속화할 수 있다. 이러한 영역에서 효율성을 높임으로써, 인간 전문가가 수행해야 하는 작업에 더 많은 시간을 할애할 수 있다.

속도 있는洞察

洞察 작업에 특히 관심이 있는 영역은 정보 요약이다. 예를 들어, Stravito 플랫폼은 이미 생성적 AI를 사용하여 개별 시장 조사 보고서의 자동 요약을 생성하고 있으며, 각 보고서에 대한 원래 설명을 수동으로 작성할 필요가 없다.

또한, 우리는 이 사용 사례를 더 발전시킬 수 있는 잠재력을 보며,大量의 정보를 빠르게 요약하여 비즈니스 질문에 쉽게 소화할 수 있는 형식으로 답변을 제공할 수 있다. 예를 들어, 검색 창에 질문을 입력하면 회사 내부 지식 베이스를 기반으로 간결한 답변을 얻을 수 있다.

브랜드의 경우, 이는 단순한 질문에 더 빠르게 답변할 수 있으며, 복잡한 문제를 조사할 때 많은 기본 작업을 처리하는 데도 도움이 될 수 있다.

洞察 민주화 통해 더 나은 셀프 서비스

생성적 AI는 또한 모든 비즈니스 이해관계자가洞察에 직접 참여하지 않고도 접근할 수 있도록 할 수 있다. 장벽을 제거함으로써, 생성적 AI는 소비자洞察을 일상적인 운영에 더 깊이 통합하려는 조직을 지원할 수 있다.

또한, 생성적 AI는 잘못된 질문을 묻는 것과 같은 일반적인 문제를 완화하는 데 도움이 될 수 있다. 이 사용 사례에서 생성적 AI는 검색 쿼리와 관련된 관련 질문으로 사용자에게 프롬프트를 제공함으로써 연구 배경이 없는 비즈니스 이해관계자가 더 나은 질문을 묻도록 도와줄 수 있다.

내부 및 외부 대상자에게 맞춤형 커뮤니케이션

생성적 AI가 제공하는 또 다른 기회는 내부 및 외부 대상자에게 맞춤형 커뮤니케이션을 제공하는能力이다.

洞察의 맥락에서, 이는 지식 공유를 더 영향력 있게 만들 수 있다. 즉, 조직 전체의 다양한 비즈니스 이해관계자에게洞察 커뮤니케이션을 개인화할 수 있다. 또한, 연구 기관에 대한 브리핑을 스트리밍하는 방법으로 연구 과정을 최적화하고 반복되는 작업을 최소화하는 데 사용할 수 있다.

위험은 무엇인가?

생성적 AI는洞察 팀을 위한 효과적인 도구가 될 수 있지만, 구현하기 전에 조직이 인식해야 할 다양한 위험이 있다.

프롬프트 의존성

기본적인 위험 중 하나는 프롬프트 의존성이다. 생성적 AI는 통계적이며 분석적이지 않으므로, 다음에 말할 가장 가능성 있는 정보를 예측하여 작동한다. 프롬프트가 잘못된 경우, 여전히 매우 설득력 있는 답변을 얻을 수 있다.

신뢰

더욱 어려운 것은 생성적 AI가 올바른 정보와 잘못된 정보를 혼합하는 방식이다. 낮은 위험 상황에서는 이것이 재미있을 수 있다. 그러나, 수백만 달러의 비즈니스 결정이 내려지는 상황에서는 각 결정의 입력값이 신뢰할 수 있어야 한다.

또한, 많은 소비자 행동 관련 질문은 복잡하다. “미국에 거주하는 밀레니얼 세대가 최근의 개념 테스트에 어떻게 반응했는가?”와 같은 질문은 명확한 답변을 생성할 수 있다. 그러나, 인간의 가치 또는 감정과 관련된 더 깊은 질문은 더细致한 관점이 필요하다. 모든 질문에 단 하나의 올바른 답변이 있는 것은 아니며,大量의 연구 보고서를 종합하는 경우, 주요 세부 사항이 간과될 수 있다.

투명성

주의해야 할 또 다른 주요 위험은 알고리즘이 훈련된 방식에 대한 투명성의 부족이다. 예를 들어, ChatGPT는 항상 답변의 출처를 알려줄 수 없으며, 알려줄 때도 출처가 검증할 수 없거나 실제로 존재하지 않을 수 있다.

또한, AI 알고리즘은 생성적 AI나 기타 알고리즘과 마찬가지로 인간과 기존 정보에 의해 훈련되므로, 편향될 수 있다. 이는 인종차별적, 성차별적, 또는 기타로 부정적인 답변을 생성할 수 있다. 편향성을 도전하고 소비자에게 더 나은 세계를 만들고자 하는 조직의 경우, 이는 생성적 AI가 작업을 덜 생산적으로 만드는 경우이다.

보안

ChatGPT의 일반적인 사용 사례 중 하나는 이메일, 회의록, 또는 보고서를 생성하는 것이다. 그러나, 이러한 텍스트를 생성하기 위해 필요한 세부 정보를 입력하는 것은 민감한 회사 정보를 위험에 빠뜨릴 수 있다.

사실, Cyberhaven이라는 보안 회사에서 수행한 분석에 따르면, 1,600만 명의 지식 노동자 중 5.6%가 이미 ChatGPT를 작업에서 적어도 한 번 시도했으며, 2.3%가 기밀 회사 데이터를 ChatGPT에 입력했다.

JP Morgan, Verizon, Accenture, Amazon과 같은 회사들은 보안 문제로 직원들이 작업에서 ChatGPT를 사용하는 것을 금지했다. 최근에, 이탈리아는 개인 정보 보호 문제를 조사하면서 ChatGPT를 금지한 첫 번째 서구 국가가 되었다. 이는 다른 유럽 국가의 개인 정보 보호 규제 당국으로부터 관심을 끌었다.

기밀 연구 및洞察를 다루는洞察 팀이나 누구에게나, ChatGPT와 같은 도구에 정보를 입력할 때 관련된 위험에 대해 인식하고, 자신의 조직 내부 데이터 보안 정책과 OpenAI와 같은 제공업체의 정책을 최신 상태로 유지하는 것이 필수적이다.

우리의 확고한 믿음은, 소비자 이해의 미래는 여전히 인간 전문가와 강력한 기술의 결합이 필요할 것이다. 가장 강력한 기술도 아무도 사용하지 않는다면 쓸모가 없다.

따라서, 브랜드의 초점은 책임감 있는 실험에 있어야 한다. 즉, 올바른 도구를 사용하여 올바른 문제를 해결하는 것이며, 단순히 기술을 구현하는 것이 아니다. 위대한 힘에는 위대한 책임이 따른다. 이제는 브랜드가 어떻게 사용할지 결정할 때이다.

Thor Olof Philogène는 Stravito의 CEO이자 공동 설립자로, 시장 조사용 인공지능 기반 지식 관리 플랫폼입니다. Stravito 이전에 Thor는 많은 두드러진 리더십 직책을 맡았습니다. 가장 최근에 그는 파이넛에서 인수한 핀테크 회사 iZettle의 Chief Revenue Officer였습니다. 여기서 Thor는 12개 시장 전역을 다루는 200명의 팀을 보유한 성장 부문을 스크래치에서 확장했습니다.