Connect with us

인공지능

Meta의 COCONUT: 언어 없이 생각하는 AI 방법

mm

연구자들이 처음으로 대규모 언어 모델(LLM)이 체인 오브 사고 프롬프팅을 통해 단계적으로 “생각”할 수 있다는 것을 발견했을 때, 이는 획기적인 순간이었다. 마침내, 우리는 이러한 블랙박스의 추론 과정을 들여다볼 수 있었다. 하지만 만약 언어 모델이 자연어로 생각하도록 하는 것이 그들을 제한하고 있을 수 있다고 말한다면?

그것이 Meta와 UC 샌디에고의 연구자들이 새로운 COCONUT (Chain of Continuous Thought) 방법으로 발견한 내용이다.

복잡한 수학 문제를 풀 때마다 모든 단계를 큰 소리로 설명해야 한다면, 얼마나 귀찮을까? 이제 당신은 언어 모델이 직면하는 핵심 도전을 이해하기 시작했다.

우리가 AI 모델이 자연어로 추론하도록 할 때:

  • 그들이 생성하는 대부분의 토큰은 단지 언어적인 글루이다 – “따라서”, “다음”, “결과적으로”와 같은 단어가 추론 가치가 없다
  • 임계적인 결정 지점은 특정 단어에 대한 커밋 필요성에 의해 병목 현상이 발생한다
  • 모델은 실제 문제 해결보다 문법적 일관성을 유지하는 데 상당한 계산 노력을 소요한다

연구자들은 신경영상 연구에서 интерес로운 것을 발견했다. 인간이 복잡한 추론 작업을 수행할 때, 우리 뇌의 언어 센터는 종종 놀라울 정도로 조용하다. 그러나 우리는 그 반대의 AI 시스템을 구축하고 있다. 즉, 모든 추론 단계를 단어로 번역하도록 강제한다.

퍼즐을 해결하는 방법을 생각해 보라. 당신의 마음은 아마도 여러 가능성을 동시에 탐색하고, 애매한 가설을 유지하며, 오직 생각을 공유할 때만 언어로 생각을 결정한다. 그러나 전통적인 체인 오브 사고 접근 방식은 AI 모델이 모든 중간 단계를 언어로 설명하도록 강제한다. 이것은 “언어적 병목 현상”을 생성한다.

이 통찰력은 매력적인 질문으로 이어진다. 만약 우리가 AI 모델이 언어로 번역하는 대신, 그들의 내부 상태의 연속적이고 고차원적인 공간에서 추론할 수 있도록 할 수 있다면?

COCONUT의 혁신 이해

당신의 생각을 큰 소리로 말하는 것과 실제로 당신의 뇌에서 일어나는 정신적 과정 사이의 차이를 생각해 보라. 그 간격 – 즉, 언어화된 생각과 신경 활동 사이의 간격 – 은 정확히 Meta의 연구자들이 COCONUT에서 활용한 것이다.

COCONUT의真正한 혁신은 그것이 AI 모델이 두 가지 다른 방식으로 생각하도록 허용한다는 것이다. 인간이 하는 방식과 마찬가지로, 복잡한 퍼즐을 해결할 때, 당신은 각 이동마다 내면에서 모든 가능한 이동을 설명하지 않는다. 대신, 당신은:

  1. 문제를 흡수: 당신은 정보를 읽는다(퍼즐 규칙과 같은)
  2. 조용히 생각: 당신의 뇌는 언어로 설명하지 않고 여러 가능성을 탐색한다
  3. 해결책을 공유: 당신은 오직 그때에만 당신의 생각을 설명한다

COCONUT는 AI 모델에게 같은 자연스러운 유연성을 제공한다. 전통적인 방법이 하는 것처럼 모든 생각을 큰 소리로 말하도록 강제하는 대신, 그것은 모델이 그들의 내부 상태의 연속적이고 고차원적인 공간에서 생각하도록 허용한다. 연구자들은 이것을 “잠재 공간”이라고 부른다.

모델은 두 가지 모드 사이를 원활하게 전환한다:

  • 질문이나 답변을 이해하거나 제공해야 할 때, 그것은 정상적인 언어를 사용한다
  • 그러나 실제思考 과정에서는? 그것은 언어의 제약에서 자유로운 순수한 신경 패턴을 사용한다

이미지: Meta

교육 과정

COCONUT의 가장 매력적인 측면 중 하나는 그들의 교육 과정이다. 무엇이 이 교육 과정을 특별하게 만드는가? 그것은 자연스러운 학습 진행을 반영한다. 복잡한 기술을 가르칠 때, 우리는 누군가를 즉시 깊은 물에 던지지 않는다. 우리는 점진적으로 진행하며, 각 수준을 마스터할 때마다 복잡성을 추가한다.

연구자들은 COCONUT에 대해 동일한 접근 방식을 취했다:

1단계: 기초

첫째, 모델은 전통적인 체인 오브 사고 추론을 통해 학습한다. 이것은 모델이 기본적인 이해를 얻을 수 있도록 한다.

2단계: 전환

여기서 интерес로운 부분이 시작된다. 점진적으로, 언어로 설명된 추론 단계가 연속적인 생각으로 대체된다. 훈련 바퀴를 천천히 제거하는 것을 상상해 보라. 모델이 자신의 내부思考 패턴을 개발하도록 허용한다.

3단계: 균형

마지막으로, 모델은 잠재 공간에서 깊은思考과 명확한 언어로 통찰력을 전달하는 것을 원활하게 전환하는 방법을 학습한다.

교육 과정 동안, 모델은 아무도 명시적으로 프로그래밍하지 않은 능력을 개발했다. 예를 들어, 여러 추론 경로를 동시에 고려하는 것과 같은 능력이다. 이러한 출현하는 행동은 특히 흥미롭다. 왜냐하면 우리는 더 자연스러운 형태의 AI 추론에 더 가까이 다가갈 수 있기 때문이다. 이러한 예상치 못한 발전은 종종 가장 큰 획기적인 발전으로 이어진다.

이전으로 돌아가서 언급한 신경영상 연구를 기억하시나요? 그것은 인간의 뇌가 복잡한 추론 작업을 수행할 때 언어 센터를 많이 사용하지 않는다는 것을 보여주었다. COCONUT는 유사한 패턴을 개발하는 것으로 보인다. 즉, 필요한 경우에만 언어로 전환하는 대신, 모델은 자신의 내부 상태의 연속적이고 고차원적인 공간에서 깊은思考을 한다.

숫자는 이야기를告诉한다

몇 가지 더 중요한 연구 결과가 있다:

  • 수학 단어 문제 (GSM8k): 여기서 COCONUT는 34.1%의 정확도를 달성했다. 이것은 전통적인 체인 오브 사고(42.9%)보다 낮지만, 기준 접근 방식보다 상당히 좋다.
  • 논리적 추론 (ProntoQA): COCONUT는 99.8%의 정확도를 달성했다. 이것은 전통적인 체인 오브 사고(98.8%)를 능가한다. 그러나 여기서 핵심은 COCONUT가 9개의 토큰만 사용했으며, CoT는 92.5개의 토큰을 사용했다는 것이다.
  • 복잡한 계획 (ProsQA): 가장 인상적인 결과는 이 고급 추론 테스트에서 나왔다. COCONUT는 97%의 정확도를 달성했으며, 전통적인 방법은 77.5%에 그쳤다. 그리고 다시 한번, COCONUT는 14.2개의 토큰만 사용했으며, 전통적인 방법은 49.4개의 토큰을 사용했다.

이 결과가 약속하는 것은 단순히 숫자뿐만 아니라, 그것이 다양한 유형의思考을 나타낸다는 것이다. COCONUT는 수학적 추론에서 아직 발전 중이지만, 복잡한 논리적 계획 및 추론 작업에서 탁월하다.

COCONUT는 AI 시스템이 추론하는 방식을 근본적으로 재고하는 것을 나타낸다. 그리고 그것은 더 자연스럽고, 효율적이고, 강력한 형태의 인공 지능에 더 가까이 다가간다. 언어 기반 추론에서 연속적인思考으로의 여정은 더 능력 있고 효율적인 AI 시스템으로의 단계이다.

Alex McFarland은 인공 지능의 최신 개발을 탐구하는 AI 저널리스트이자 작가입니다. 그는 전 세계의 수많은 AI 스타트업과 출판물들과 협력했습니다.