Connect with us

인공지능

LLM 환상 극복을 위한 검색 보강 생성(Retrieval Augmented Generation, RAG)

mm
Featured image

대규모 언어 모델(Large Language Models, LLM)은 언어를 처리하고 생성하는 방식을 혁신하고 있지만, 완벽하지 않다. 인간이 구름에 모양을 보거나 달에 얼굴을 보는 것과 마찬가지로, LLM도 ‘환상’을 볼 수 있다. 즉, 사실과 다르거나 부정확한 정보를 생성하는 것이다. 이러한 현상은 LLM 환상으로 알려져 있으며, LLM의 사용이 확대됨에 따라 점점 더 큰 문제가 되고 있다.

오류는 사용자를 혼동시키고,บาง 경우에는 회사에 법적 문제를 일으킬 수 있다. 예를 들어, 2023년에 에어포스 베테랑 제프리 배틀(The Aerospace Professor)은 마이크로소프트를 상대로 소송을 제기했다. 이유는 마이크로소프트의 ChatGPT 기반의 Bing 검색이 그의 이름을 검색했을 때 사실과 다르고 유해한 정보를 제공했기 때문이다. 검색 엔진은 그를 유죄 판결을 받은 죄수 제프리 레온 배틀과 혼동했다.

환상을 극복하기 위해, 검색 보강 생성(Retrieval-Augmented Generation, RAG)이 유망한 해결책으로 등장했다. 이는 외부 데이터베이스의 지식을 통합하여 LLM의 출력 정확도와 신뢰성을 향상시킨다. 이제 RAG가 어떻게 LLM을 더 정확하고 신뢰성 있게 만드는지 자세히 살펴보겠다. 또한 RAG가 LLM 환상 문제를 효과적으로 대처할 수 있는지 논의하겠다.

LLM 환상 이해: 원인과 예시

LLM,包括 유명한 모델인 ChatGPT, ChatGLM, 및 Claude는 광범위한 텍스트 데이터셋으로 훈련되지만, 사실과 다르거나 부정확한 출력을 생성하는 것은免疫이 아니다. 환상은 LLM이 기본 언어 규칙에 따라 의미 있는 응답을 생성하도록 훈련되기 때문에 발생한다. 사실의 정확성과는 상관없이 말이다.

Tidio 연구에 따르면, 72%의 사용자는 LLM이 신뢰할 수 있다고 믿지만, 75%는 적어도 한 번은 AI에서 부정확한 정보를 받았다. 심지어 가장 유망한 LLM 모델인 GPT-3.5와 GPT-4도 때때로 부정확하거나 무의미한 내용을 생성할 수 있다.

여기에는 일반적인 유형의 LLM 환상의 개요가 있다:

일반적인 AI 환상 유형:

  1. 소스 혼합: 모델이 다양한 소스의 세부 정보를 결합하여 모순이나 허구의 소스를 생성할 수 있다.
  2. 사실 오류: LLM은 사실적 근거가 부족한 내용을 생성할 수 있다. 특히 인터넷의 내재된 부정확성으로 인해 그러하다.
  3. 무의미한 정보: LLM은 확률에 따라 다음 단어를 예측한다. 이는 문법적으로 올바르지만 무의미한 텍스트를 생성할 수 있으며, 사용자가 내용의 권위를 잘못 판단하게 할 수 있다.

작년, 두 명의 변호사가 ChatGPT 생성 정보에 의해 실제와 다르거나 허구의 사건을 법적 문서에 인용하여 가능성 있는 제재를 받게 되었다. 이 예는 LLM 생성 내용을 비판적으로 접근하여 신뢰성을 보장하기 위한 검증의 필요성을 강조한다. 창의적 능력은 이야기 작성과 같은 응용 분야에ประโยชน이 되지만, 학술 연구, 의료 및 금융 분석 보고서 작성, 법률 자문을 수행하는 등의 사실에 엄격하게 준수해야 하는 작업에는 도전이 된다.

LLM 환상 해결책 탐색: RAG 작동 방식

2020년에 LLM 연구자들은 환상을 완화하기 위해 외부 데이터 소스를 통합하는 기술인 검색 보강 생성(Retrieval-Augmented Generation, RAG)을 도입했다. 전통적인 LLM과 달리 RAG 기반의 LLM 모델은 질문에 대답하거나 텍스트를 생성하기 전에 외부 데이터베이스에서 관련 정보를 동적으로 검색하여 사실적 정확성과 신뢰성을 향상시킨다.

RAG 프로세스 분해:

RAG 단계

RAG 프로세스 단계: 소스

단계 1: 검색

시스템은 사용자의 질의와 관련된 정보를 특정 지식 베이스에서 검색한다. 예를 들어, 누군가가 마지막 축구 월드컵 우승자를 묻는다면, 시스템은 관련된 축구 정보를 찾는다.

단계 2: 보강

원래 질의는 검색된 정보로 보강된다. 축구 예를 들어, “誰가 축구 월드컵을 우승했는가?”라는 질의는 “아르헨티나가 축구 월드컵을 우승했다”라는 세부 정보로 업데이트된다.

단계 3: 생성

보강된 질의를 사용하여, LLM은 자세하고 정확한 응답을 생성한다. 우리의 경우, 시스템은 아르헨티나가 월드컵을 우승했다는 보강된 정보를 기반으로 응답을 작성할 것이다.

이 방법은 부정확성을 줄이고 LLM의 응답이 더 신뢰성 있고 정확한 데이터에 기반한 것을 보장한다.

RAG의 장단점

RAG는 생성 프로세스를 수정하여 환상을 줄이는 데 약속을 보여주었다. 이 메커니즘은 RAG 모델이 더 정확하고 최신의 정보를 제공할 수 있도록 허용한다.

물론, RAG에 대한 일반적인 논의는 다양한 구현에서 장점과 한계를 이해하는 데 도움이 된다.

RAG의 장점:

  • 더 나은 정보 검색: RAG는 큰 데이터 소스에서 정확한 정보를 빠르게 찾는다.
  • 개선된 콘텐츠: 사용자가 필요로 하는 콘텐츠를 명확하게 생성한다.
  • 유연한 사용: 사용자는 자신의 특정 요구에 맞게 RAG를 조정할 수 있다. 예를 들어, 자신의 고유한 데이터 소스를 사용하여 효과성을 높일 수 있다.

RAG의 도전:

  • 구체적인 데이터 필요: 질의의 맥락을 정확하게 이해하여 관련性과 정확성을 제공하는 것이 어려울 수 있다.
  • 확장성: 모델을 확대하여 큰 데이터셋과 질의를 처리하면서 성능을 유지하는 것이 어려울 수 있다.
  • 계속적인 업데이트: 지식 데이터셋을 최신 정보로 자동으로 업데이트하는 것은 자원 집약적일 수 있다.

RAG의 대안 탐색

RAG 외에도, 몇 가지 다른 유망한 방법이 있다:

  • G-EVAL: 생성된 콘텐츠의 정확성을 신뢰할 수 있는 데이터셋과 교차 검증하여 신뢰성을 향상시킨다.
  • SelfCheckGPT: 자동으로 자신의 오류를 확인하고 수정하여 출력을 정확하고 일관성 있게 유지한다.
  • 프롬프트 엔지니어링: 사용자가 모델이 정확하고 관련된 응답을 생성하도록 지시하는 정교한 입력 프롬프트를 설계하는 데 도움이 된다.
  • 세부 튜닝: 모델을 특정 작업에 맞게 조정하여 해당 도메인의 성능을 향상시킨다.
  • LoRA (Low-Rank Adaptation): 모델의 일부 매개변수를 작업에 맞게 조정하여 효율성을 향상시킨다.

RAG와 그 대안에 대한 탐색은 LLM의 정확성과 신뢰성을 향상시키는 다이나믹하고 다면적인 접근 방식을 강조한다. 우리는 발전함에 따라, RAG와 같은 기술의 지속적인 혁신이 LLM 환상과 같은 내재된 도전에 대처하는 데 필수적임을 알 수 있다.

최신 AI 및 기계 학습 개발, 심층 분석 및 뉴스에 대한 최신 정보를 얻으려면 unite.ai를 방문하십시오.

Haziqa는 AI 및 SaaS 회사들을 위한 기술 콘텐츠 작성에 광범위한 경험을 가진 데이터 과학자입니다.