Штучний інтелект
LLMs Не Є Розумуванням — Вони Просто Дуже Гарні у Плануванні
Великі мовні моделі (LLMs) типу OpenAI’s o3, Google’s Gemini 2.0, та DeepSeek’s R1 показали видатний прогрес у вирішенні складних проблем, генерації тексту, подібного до людського, та навіть написанні коду з точністю. Ці просунуті LLMs часто називаються «моделями розумування» через їхні видатні можливості аналізувати та вирішувати складні проблеми. Але чи ці моделі фактично розумують, чи вони просто винятково гарні у плануванні? Ця відмінність є тонкою, проте глибокою, і має великі наслідки для того, як ми розуміємо можливості та обмеження LLMs.
Для розуміння цієї відмінності порівняймо два сценарії:
- Розумування: Детектив, який розслідує злочин, повинен скласти разом суперечливі докази, вивести, які з них хибні, та прийти до висновку на основі обмежених доказів. Цей процес включає висновок, розв’язання суперечностей та абстрактне мислення.
- Планування: Гравець у шахи, який обчислює найкращу послідовність ходів, щоб поставити мат суперникові.
Хоча обидва процеси включають кілька кроків, детектив займається глибоким розумуванням, щоб зробити висновки, оцінити суперечності та застосувати загальні принципи до конкретної справи. Гравець у шахи, з іншого боку, в основному займається плануванням, вибираючи оптимальну послідовність ходів, щоб виграти гру. LLMs, як ми побачимо, функціонують набагато більше, як гравець у шахи, ніж детектив.
Розуміння Відмінності: Розумування проти Планування
Для того, щоб зрозуміти, чому LLMs гарні у плануванні, а не у розумуванні, важливо спочатку зрозуміти відмінність між цими двома термінами. Розумування — це процес виведення нових висновків з даних припущень за допомогою логіки та висновку. Воно включає ідентифікацію та виправлення несучностей, генерацію нових ідей, а не просто надання інформації, прийняття рішень у двозначних ситуаціях та зайняття каузальним розумуванням та контрфактичним мисленням, як «Якби» сценарії.
Планування, з іншого боку, зосереджується на структуруванні послідовності дій для досягнення конкретної мети. Воно спирається на розбиття складних завдань на менші кроки, слідування відомим стратегіям розв’язання проблем, адаптацію попередньо вивчених шаблонів до подібних проблем та виконання структурованих послідовностей, а не виведення нових ідей. Хоча й розумування, й планування включають крок за кроком обробку, розумування вимагає глибшої абстракції та висновку, тоді як планування слідує встановленим процедурам без генерації фундаментально нових знань.
Як LLMs Підходять до «Розумування»
Сучасні LLMs, такі як OpenAI’s o3 та DeepSeek-R1, оснащені технікою, відомою як Ланцюг Мислення (CoT) розумування, для покращення їхніх можливостей розв’язання проблем. Цей метод спонукає моделі розбивати проблеми на проміжні кроки, імітуючи той спосіб, яким люди логічно думають про проблему. Для того, щоб побачити, як це працює, розгляньте просту математичну проблему:
Якщо магазин продає яблука за 2 долари кожне, але пропонує знижку 1 долар за яблуко, якщо ви купуєте більше 5 яблук, то скільки буде коштувати 7 яблук?
Типовий LLM, який використовує CoT-підказку, може вирішити це так:
- Визначте звичайну ціну: 7 * 2 долари = 14 доларів.
- Визначте, що знижка застосовується (оскільки 7 > 5).
- Обчисліть знижку: 7 * 1 долар = 7 доларів.
- Відніміть знижку від загальної суми: 14 долари – 7 доларів = 7 доларів.
Відкладаючи явну послідовність кроків, модель мінімізує можливість помилок, які виникають при спробі передбачити відповідь за один раз. Хоча такий крок за кроком розбиття робить LLMs схожими на розумування, це насправді форма структурованого розв’язання проблем, подібного до слідування рецепту крок за кроком. З іншого боку, справжній процес розумування міг би визнати загальне правило: Якщо знижка застосовується понад 5 яблук, то кожне яблуко коштує 1 долар. Людина може вивести таке правило одразу, але LLM не може, оскільки просто слідує структурованій послідовності обчислень.
Чому Ланцюг Мислення Не Є Розумуванням, а Плануванням
Хоча Ланцюг Мислення (CoT) покращив результати LLMs у логіко-орієнтованих завданнях, таких як математичні завдання з словами та завдання з кодуванням, це не включає справжнє логічне розумування. Це відбувається через те, що CoT слідує процедурним знанням, спираючись на структуровані кроки, а не генеруючи нові ідеї. Воно не має справжнього розуміння каузальності та абстрактних відносин, що означає, що модель не займається контрфактичним мисленням чи розглядає гіпотетичні ситуації, які вимагають інтуїції за межами відомих даних. Крім того, CoT не може фундаментально змінити свій підхід за межі шаблонів, на яких він був навчений, обмежуючи його можливість розумувати творчо або адаптуватися в незнайомих ситуаціях.
Що Потрібно LLMs, щоб Стати Справжніми Машинами Розумування?
Отже, чого потребують LLMs, щоб真正но розумувати, як люди? Ось деякі ключові області, де їм потрібно покращення та потенційні підходи для досягнення цього:
- Символічне Розуміння: Люди розумують, маніпулюючи абстрактними символами та відносинами. LLMs, однак, не мають справжнього символічного механізму розумування. Інтеграція символічної штучної інтелектної системи або гібридних моделей, які поєднують нейронні мережі з формальною логічною системою, могла б покращити їхню здатність займатися справжнім розумуванням.
- Каузальне Виведення: Справжнє розумування вимагає розуміння причини та наслідку, а не просто статистичної кореляції. Модель, яка розуміє, повинна вивести основні принципи з даних, а не просто передбачати наступний токен. Дослідження каузальної штучної інтелектної системи, яка явно моделює причину-наслідкові відносини, могла б допомогти LLMs перейти від планування до розумування.
- Самоаналіз та Метакогніція: Люди постійно оцінюють свої власні процеси мислення, запитуючи «Чи має цей висновок сенс?» LLMs, з іншого боку, не мають механізму для самоаналізу. Будування моделей, які можуть критично оцінювати свої власні виходи, було б кроком до справжнього розумування.
- Загальний Сенс та Інтуїція: Навіть якщо LLMs мають доступ до величезної кількості знань, вони часто борються з базовим розумуванням загального сенсу. Це відбувається через те, що вони не мають реального досвіду, щоб сформувати свою інтуїцію, і вони не можуть легко розпізнавати абсурди, які люди могли б розпізнати одразу. Вони також не мають способу привести реальні світові динаміки у свої процеси прийняття рішень. Одним із способів покращення цього могла б бути побудова моделі з двигуном загального сенсу, який міг би включати інтеграцію реального світового сенсорного вводу або використання графів знань, щоб допомогти моделі краще зрозуміти світ таким чином, як це роблять люди.
- Контрфактичне Мислення: Людське розумування часто включає запитання «Якби речі були іншими?» LLMs борються з такими «якби» сценаріями, оскільки вони обмежені даними, на яких вони були навчені. Для того, щоб моделі думали більш як люди в цих ситуаціях, їм потрібно було б симулювати гіпотетичні сценарії та розуміти, як зміни в змінних можуть вплинути на результати. Вони також потребують способу тестувати різні можливості та приходити до нових ідей, а не просто передбачати на основі того, що вони вже бачили. Без цих можливостей LLMs не можуть真正но уявляти альтернативні майбутні сценарії — вони можуть тільки працювати з тим, що вони вже вивчили.
Висновок
Хоча LLMs можуть здаватися такими, що розумують, вони насправді спираються на техніки планування для вирішення складних проблем. Чи то розв’язання математичної проблеми, чи зайняття логічним висновком, вони в основному організовують відомі шаблони у структурованій манері, а не глибоко розуміють принципи, які стоять за ними. Ця відмінність є критичною в дослідженнях штучної інтелектної системи, оскільки якщо ми помилково приймаємо складне планування за справжнє розумування, ми ризикуємо переоцінити справжні можливості штучної інтелектної системи.
Дорога до справжнього розумування штучної інтелектної системи буде вимагати фундаментальних проривів за межами прогнозування токенів та ймовірнісного планування. Вона буде вимагати проривів у символічній логіці, каузальному розумінні та метакогніції. До тих пір, поки LLMs залишаться потужними інструментами для структурованого розв’язання проблем, але вони не будуть真正но думати так, як люди.












