์ฌ์ ๋ฆฌ๋
‘์ฑํ ๋ด’์ด ๋๋ฌ์ด ๋จ์ด๊ฐ ๋ ๋: ๋น์ฆ๋์ค ๋ฆฌ๋๋ค์ด ๋ํํ AI์ ๋ํด ๊ฐ์ง๊ณ ์๋ 3๊ฐ์ง ์คํด
OpenAI의 ChatGPT, Meta의 Llama, Anthropic의 Claude와 같은 LLM의 普及으로 모든 상황에 맞는 채팅봇이 등장했다. 커리어 상담을 위한 채팅봇, 미래의 자신과 대화할 수 있는 채팅봇, 그리고 치킨 요리 방법을 알려주는 채팅봇이 있다.
하지만 이들은 10년 전의 채팅봇과는 다르다. 그 당시 채팅봇은 미리 설정된 제한된 대화만 가능했으며, 종종 다중 선택지나 동등한 응답을 기반으로 하는 큰 흐름 차트에 기반을 두고 있었다. 본질적으로,它们는 전 인터넷 시대의 IVR 전화 메뉴보다 조금 더 발전된 수준에 불과했다.
오늘날의 “채팅봇”은 대화형 AI를指しており, 훨씬 더广泛한 능력과 사용 사례를 가진 도구이다. 그리고 우리는 현재 생성형 AI의 하이프 사이클의 중간에 있기 때문에, 이 세 가지 용어는 모두互換的に 사용되고 있다. 불행히도, 이러한 결과로 비즈니스 리더들, 특히 금융과 같은 높은 규제 산업에서 대화형 AI에 대한 투자에 대한 리스크, 사용 사례, ROI에 대한 많은 오해가 있다.
그래서 나는 “채팅봇”에 대한 몇 가지 일반적인 오해를 바로잡고 싶다.
신화 1: 고객은 채팅봇을 싫어한다
소비자들은 지난 10년 동안 인간 에이전트와 채팅봇 중 무엇을 더 선호하는지 묻는 질문을 받았다. 이것은 전문 마사지와 쇼핑몰 마사지 의자를 비교하는 것과 같다.
하지만 2022年的 ChatGPT의 등장(그리고 그로부터 파생된 모든 도구)은 채팅봇의 능력에 대한 우리의 인식을 완전히 뒤바꾸었다. 위에서 언급했듯이, 이전의 채팅봇은 스크립트에 기반을 두고 있었으며, 그 경로에서 벗어나는 경우 종종 혼란과 비효율적인 응답을 초래했다. 사용자 의도와 컨텍스트를 이해할 수 없었으며, 제한된 정보를 수집, 저장, 전달할 수 있었다.
반면에, 대화형 AI는 인간의 언어와 같은 자연스러운 대화를 통해 사람들과 소통한다. 이것은 더 유연하고 직관적인 교환을 허용한다. 그것은 예상치 못한 결과에 대한 놀라운 유연성과 적응성을 보여준다. 사용자 의도와 관련된 컨텍스트를 이해하고, 감정을 감지하고, 공감적으로 응답할 수 있다.
이 더 깊은 수준의 이해는 오늘날의 AI가 사용자를 그들의 목표로 논리적으로 안내할 수 있도록 한다. 이것에는 필요한 경우 인간 보조를 빠르게 넘겨주는 것도 포함된다. 또한, 대화형 AI는 고급 정보 필터, 검색 메커니즘, 관련 데이터를 유지하는 능력을 사용하여 문제 해결 능력을 크게 향상시킨다. 이것은 더 나은 사용자 경험을 제공한다.
따라서, 고객은 단순히 채팅봇을 싫어하는 것이 아니라, 이전의 채팅봇이 제공한 나쁨 서비스를 싫어한다. 오늘날의 대화형 에이전트는 훨씬 더 발전되어서 소비자의 25% 이상이 인간과 AI 에이전트를 구별하는 능력이 없으며, 일부는 AI 채팅봇이 일부 작업에서 인간 대응자보다 더 나은 것으로 인식한다.
테스트에서, 우리 회사는 AI 에이전트가 리드 전환率를 3배로 증가시킨 것을 보았는데, 이것은 작업의 품질이 중요하다는 것을 의미한다.
신화 2: 채팅봇은 너무 위험하다
비즈니스 리더들과의 AI에 대한 논의에서, 환각, 데이터 보호, 편향이 규제 위반으로 이어질 수 있다는 우려가 있다. 이러한 위험은 합법적이지만, 미세 조정, 검색 보강 생성(Retrieval-Augmented Generation, RAG), 프롬프트 엔지니어링을 통해 완화될 수 있다.
모든 LLM에서 사용할 수 있는 것은 아니지만, 미세 조정은 사전 훈련된 모델을 특정 작업 또는 도메인에 특화할 수 있다. 예를 들어, 의료 회사에서 모델을 의료 질의에 대한 이해와 응답을 개선하기 위해 미세 조정할 수 있다.
RAG는 채팅봇의 정확성을 외부 지식을 동적으로 통합함으로써 향상시킨다. 이것은 채팅봇이 외부 데이터베이스에서 최신 정보를 검색할 수 있도록 한다. 예를 들어, 금융 서비스 채팅봇은 주가에 대한 실시간 답변을 제공하기 위해 RAG를 사용할 수 있다.
마지막으로, 프롬프트 엔지니어링은 더 정확하거나 컨텍스트에 대한 인식이 있는 응답을 생성하도록 채팅봇을 안내하는 프롬프트를 설계함으로써 LLM을 최적화한다. 예를 들어, 전자 상거래 플랫폼에서 고객의 선호도와 검색 기록에 따라 개인화된 제품 추천을 제공하기 위해 채팅봇을 사용할 수 있다.
이러한 접근 방식 중 하나 이상을 사용하는 것 외에도, 생성적 AI의 “온도”를 제어하여 환상을 방지하는 데 도움이 될 수 있다. API 호출 내에서 온도를 낮추면 AI가 더 결정적이고 일관된 응답을 제공하도록 할 수 있다. 특히 지식 기반과 함께 사용하는 경우, 지정된 신뢰할 수 있는 데이터 세트에서만 데이터를 가져오도록 AI를 설정할 수 있다. 위험을 완화하기 위해, 편향이나 잘못된 정보가 법적 문제로 이어질 수 있는 의사 결정 역할에서 AI를 배치하지 않도록 한다.
데이터 개인 정보 보호의 경우, 외부 AI 제공업체가 규정 준수를 보장하거나, 자신의 인프라에서 오픈 소스 모델을 배포하여 데이터에 대한 전체적인 제어를 유지하는 것이 중요하다. 이는 GDPR 준수를 위한 필수 조건이다.
마지막으로, 비즈니스에 대한 추가적인 보호를 제공할 수 있는 전문 보험에 투자하는 것이 항상 현명하다. 이는 불가사의한 시나리오에서, 예를 들어 소송을 시도하는 경우에 대한 보호를 제공한다. 이러한 조치를 통해 비즈니스에서는 브랜드와 고객의 안전을 유지하면서도 AI를 tự신하게 활용할 수 있다.
신화 3: 채팅봇은 복잡한 작업에 준비가 되지 않았다
대형 기술 회사들이 AI 도구를 배포할 때 발생하는 문제를 보면서, 중소기업이 더 쉽게 해낼 수 있을 것이라고 생각하는 것은 낙관적일 수 있다. 하지만 AI는 현재 “모두의 재능이지만, 전문가가 없는” 단계에 있다. 이것은 이러한 도구가 너무 많은 다양한 작업을 아직 효과적으로 AI를 배포하기에 설계되지 않은 환경에서 수행하도록 요청받기 때문이다. 즉, 그것들은 효과적으로 AI를 배포하기에 설계되지 않은 환경에서 수행하도록 요청받기 때문이다.
예를 들어, 데이터가 분리되어 있거나 조직되지 않은 조직은 AI가 구식, 부정확하거나 상반된 정보를 표면화할 가능성이 더 높다. 이것은 아이러니하게도 그들의 복잡성의 결과이다! 이전의 채팅봇은 단순히 기본 정보를 선형적으로 재생산하는 반면, 대화형 AI는 강력한 데이터 세트를 분석하여 여러 영향을 고려하여 가장 적절한 경로를 찾을 수 있다.
따라서, 대화형 AI의 성공은 엄격한 매개 변수와 데이터 소스 및 작업에 대한 매우 명확한 경계에 달려 있다. 올바른 훈련 데이터와 전문적으로 설계된 프롬프트를 사용하면, 대화형 AI의 기능은 단순한 채팅봇의 범위를 훨씬 넘어설 수 있다. 예를 들어, 고객 대화에서 데이터를 수집하고 필터링하여 CRM을 자동으로 업데이트할 수 있다. 이것은 행정 작업을 간소화하고 고객 정보가 일관되게 정확하고 최신 상태로 유지되는 것을 보장한다. 이러한 작업을 자동화함으로써, 비즈니스에서는 전략적 활동에 더 집중할 수 있다.
만약 우리가 계속해서 “채팅봇”이라는 용어를 사용한다면, 과거의 제한된 도구를 제공하는 플랫폼과 차세대 대화형 AI를 통합하는 플랫폼을 구별하는 것이 중요하다. 오늘날 “전화”라는 단어가 더 souvent 터치스크린 스마트폰을 연상시키는 것처럼, 나는 “채팅봇”이 곧 고급 AI 에이전트의 개념으로 대체될 것이라고 믿는다.












