Connect with us

사상 리더

미래의 애플리케이션을 구동할 대규모 언어 모델 (LLM)

mm

생성적 AI 및 특히 언어 버전 – ChatGPT는 모든 곳에 존재합니다. 대규모 언어 모델 (LLM) 기술은 미래 애플리케이션의 개발에서 중요한 역할을 할 것입니다. LLM은 광범위한 사전 훈련으로 인해 공공 도메인 텍스트의 수조 개의 줄, 코드를 포함하여 언어를 이해하는 데 매우 능숙합니다. 지도 학습 및 강화 학습과 같은 방법과 인간의 피드백 (RLHF)을 사용하여 이러한 LLM을 더욱 효율적으로 특정 질문에 답변하고 사용자와 대화할 수 있습니다. LLM을 사용하는 다음 단계의 AI 애플리케이션으로 이동할 때 다음 주요 구성 요소가 이러한 차세대 애플리케이션에 중요할 것입니다. 아래 그림은 이러한 진행 과정을 보여주며, 사슬을 따라 이동할수록 애플리케이션에 더 많은 지능과 자율성을 구축할 수 있습니다. 이러한 다양한 수준을 살펴보겠습니다.

LLM 호출:

이들은 Azure OpenAI 또는 Google PaLM 또는 Amazon Bedrock와 같은 LLM 제공업체에 의해 호출 또는 채팅 모델에 대한 직접 호출입니다. 이러한 호출은 매우 기본적인 프롬프트를 가지고 있으며 대부분 내부 메모리를 사용하여 출력을 생성합니다.

: 기본 모델인 “text-davinci”에 “농담을 해주세요”라고 요청하는 것입니다. 매우 적은 컨텍스트를 제공하고 모델은 내부 사전 훈련된 메모리를 사용하여 답변을 생성합니다 (아래 그림에서 Azure OpenAI를 사용하여 강조 표시됨).

프롬프트:

지능의 다음 단계는 프롬프트에更多 컨텍스트를 추가하는 것입니다. LLM에 적용할 수 있는 프롬프트 엔지니어링 기술이 있으며 사용자 지정된 응답을 생성할 수 있습니다. 예를 들어, 사용자에게 이메일을 생성할 때 사용자의 컨텍스트, 과거 구매 및 행동 패턴과 같은 일부 컨텍스트가 프롬프트로 사용될 수 있습니다. ChatGPT를 사용하는 사용자는 예를 들어 사용자 지정된 응답을 생성하는 데 사용되는 프롬프트 방법을 알고 있습니다. 프롬프트는 LLM의 내부 메모리를 추가 컨텍스트와 함께 보완합니다. 예는 아래에 있습니다.

임베딩:

임베딩은 프롬프트를 다음 단계로 이동시킵니다. 컨텍스트를 검색하기 위해 지식 저장소를 검색하고 컨텍스트를 얻고 프롬프트에 추가합니다. 여기서 첫 번째 단계는 큰 문서 저장소를 만들고 텍스트를 색인화하여 벡터 데이터베이스를 채우는 것입니다. 이를 위해 OpenAI의 ‘ada’와 같은 임베딩 모델을 사용하여 텍스트의 일부를 n차원 벡터로 변환합니다. 이러한 임베딩은 텍스트의 컨텍스트를 캡처하므로 유사한 문장은 벡터 공간에서 서로 가까운 임베딩을 가집니다. 사용자가 쿼리를 입력하면 쿼리도 임베딩으로 변환되고 데이터베이스의 벡터와 일치시킵니다. 따라서 쿼리와 일치하는 상위 5개 또는 10개의 텍스트 조각을 얻을 수 있습니다. 쿼리와 컨텍스트는 인간과 같은 방식으로 질문에 답변하기 위해 LLM에 전달됩니다.

사슬:

오늘날 사슬은 가장 발전된 기술이며 광범위하게 사용되어 LLM 애플리케이션을 구축하고 있습니다. 사슬은 결정론적이며 LLM 호출의 시퀀스가 하나 이상의 LLM으로 연결됩니다. 예를 들어, 우리는 SQL 데이터베이스를 쿼리하여 고객 이메일 목록을 가져오고 목록을 고객에게 개인화된 이메일을 생성하는 다른 LLM으로 전달할 수 있습니다. 이러한 LLM 사슬은 기존 애플리케이션 흐름에 통합되어 더 유용한 결과를 생성할 수 있습니다. 사슬을 사용하여 외부 입력과 같은 API 호출 및 지식 그래프와의 통합을 사용하여 컨텍스트를 제공할 수 있습니다. 또한 오늘날 OpenAI, AWS Bedrock, Google PaLM, MosaicML 등과 같은 여러 LLM 제공업체가 있습니다. 우리는 사슬 요소에 제한된 지능을 사용하여 더 낮은 LLM인 ‘gpt3.5-turbo’를 사용할 수 있으며 더 복잡한 작업을 위해 ‘gpt4’를 사용할 수 있습니다. 사슬은 데이터, 애플리케이션 및 LLM 호출에 대한 추상화를 제공합니다.

에이전트:

에이전트는 특히 인공 일반 지능 (AGI)와 관련하여 많은 온라인 토론의 주제입니다. 에이전트는 사전 정의된 사슬 대신 작업을 계획하기 위해 ‘gpt4’ 또는 ‘PaLM2’와 같은 고급 LLM을 사용합니다. 이제 사용자 요청이 있을 때 에이전트 프레임워크는 LLM 호출을 결정하여 동적으로 사슬을 구축합니다. 예를 들어, 에이전트를 “정부 규제 업데이트로 대출 APR이 변경될 때 고객에게 알림”이라는 명령으로 구성할 수 있습니다. 에이전트 프레임워크는 규제 웹사이트를 스크레이핑하고 최신 APR을 추출하는 앱을 호출하고 데이터베이스에서 영향을 받는 고객의 이메일을 추출한 다음 모든 사람에게 알림을 보내기 위해 이메일을 생성하는 LLM 호출을 수행합니다.

최종 생각

LLM은 빠르게 발전하는 기술이며 더 나은 모델과 애플리케이션이 매주 출시되고 있습니다. LLM에서 에이전트까지는 지능의 사다리이며 위로 이동할수록 복잡한 자율 애플리케이션을 구축할 수 있습니다. 더 나은 모델은 더 효과적인 에이전트를 의미하며 차세대 애플리케이션은 이러한 에이전트에 의해 구동될 것입니다. 시간이 지남에 따라 다음 세대의 애플리케이션이 얼마나 발전할지와 어떤 패턴으로 구동될지 알 수 있을 것입니다.

Dattaraj Rao, Persistent Systems의 Chief Data Scientist는 “Keras to Kubernetes: The Journey of a Machine Learning Model to Production”이라는 책의 저자입니다. Persistent Systems에서 Dattaraj는 컴퓨터 비전, 자연어 이해, 확률적 프로그래밍, 강화 학습, 설명 가능한 AI 등 최첨단 알고리즘을 탐구하는 AI 연구소를 이끌며 의료, 금융, 산업 분야에서 적용 가능성을 보여줍니다. Dattaraj는 기계 학습과 컴퓨터 비전 분야에서 11개의 특허를 보유하고 있습니다.