Штучний інтелект
Штучний інтелект, який вчить себе, вже не є науковою фантастикою

Нові框ки штучного інтелекту рухаються до радикального стрибка: машини, які самозмінюються, без участі людини.
Тривалий час навіть найрозвітліші моделі штучного інтелекту залишалися пасивними двигунами, передбачаючи відповіді на основі навчальних даних, які вони не могли змінити. Але сьогодні не розмір моделі визначає наступний розділ штучного інтелекту; це те, чи може модель еволюціонувати самостійно.
Нещодавно дослідники з MIT представили нову框ку штучного інтелекту під назвою Самозадаптовані великомасштабні мови (SEAL). Цей підхід дозволяє великомасштабним мовним моделям (LLM) покращувати себе автономно, дозволяючи штучному інтелекту діагностувати свої обмеження та постійно оновлювати свої власні нейронні ваги через внутрішній зворотній зв’язок, який працює на основі підкріплення. Замість того, щоб вимагати від дослідників виявлення помилок, написання нових запитів або введення додаткових прикладів, модель бере на себе повну відповідальність за свою еволюцію.
“Великомасштабні мовні моделі (LLM) є потужними, але статичними; їм бракує механізмів для адаптації їх ваг до нових завдань, знань чи прикладів”, – написали дослідники з MIT у блог-пості. “Експерименти з включенням знань та узагальненням з декількома прикладами показують, що SEAL є перспективним кроком до мовних моделей, здатних до самонавчання у відповідь на нові дані.”
На ранній стадії тестування цей саморедакційний цикл дозволив моделям перейти від повної невдачі до успіху на складних абстрактних завданнях з розуміння, випереджаючи навіть великомасштабніші моделі, такі як GPT-4.1, з показником успіху 72,5 відсотка, де традиційні методи зазнали невдачі. Крім того, SEAL, як повідомляється, зменшує нагляд людини на 85 відсотків, одночасно збільшуючи точність та адаптивність.
Поява самонавчальних框ок штучного інтелекту
SEAL є частиною більш широкої тенденції до автономного машинного інтелекту. Дослідники з Sakana AI, наприклад, представили Машину Дарвіна-Геделя – агент штучного інтелекту, який переписує свій власний код, використовуючи відкриті еволюційні стратегії.
“Він створює різні самопокращення, такі як крок перевірки патчів, кращий перегляд файлів, покращені інструменти редагування, генерація та ранжування декількох рішень для вибору найкращого з них, а також додавання історії того, що було спробувано раніше (і чому це зазнало невдачі), при внесенні нових змін”, – написали в Sakana AI у блог-пості.
Аналогічно, агенти штучного інтелекту Anthropic, потужні nhờ Claude 4, тепер можуть автономно оркеструвати робочі процеси по кодових базах та бізнес-інструментам.
“Система, яка реконфігурує себе на основі типу активу, його середовища та історії, дозволяє перейти від реактивного реагування до безперервної профілактичної стратегії”, – сказав мені Крістіан Струве, генеральний директор та співзасновник Fracttal. “Це не про більше шарів чи більше параметрів, а про більш автономні та більш корисні системи.”
Те, що об’єднує ці зусилля, – це основна віра: штучний інтелект не потребує зростання, щоб стати розумнішим. Він повинен стати більш адаптивним.
“Масштабування принесло значні вигоди, але ми підходимо до меж того, чого можна досягти лише за рахунок розміру. Самозадаптовані моделі навчання, такі як SEAL, пропонують переконливий наступний крок, дозволяючи системам розвиватися та покращуватися з часом”, – сказав мені Хорхе Рієра, засновник та генеральний директор платформи даних Dataco.
Вплив на екосистему штучного інтелекту та глобальний перехід до автономності
Цей рівень автономності також переписує економіку розгортання штучного інтелекту. Припустіть, що системи виявлення шахрайства оновлюються миттєво, щоб протидіяти новим загрозам, або штучні інтелекти-тренери, які змінюють свій стиль викладання на основі поведінки учнів. У робототехніці самозадаптовані框ки можуть привести до автономних машин, які вивчають нові рухові моделі без перепрограмування.
По всьому Близькому Сходу країни, такі як ОАЕ та Саудівська Аравія, швидко будують фундаментальні моделі, призначені для адаптації. Falcon ОАЕ та Jais – це відкриті великомасштабні мовні моделі, створені з урахуванням регіональної специфіки, тоді як ALLaM та Metabrain цифрової компанії Aramco просуваються у сфері автономних агентів штучного інтелекту для розумних міст, охорони здоров’я та логістики.
Ці зусилля ще не еквівалентні можливостям самозредагування MIT SEAL, але вони відображають спільну траєкторію: від пасивних систем штучного інтелекту до активних, еволюційних агентів, які можуть орієнтуватися в складності з обмеженим наглядом людини. І, як і SEAL, ці ініціативи підтримуються потужними框ками управління, підкреслюючи зростаючу усвідомленість того, що автономність штучного інтелекту повинна бути поєднана з відповідальністю.
“Це перший крок до систем самокерування, які змінюють свою логіку без постійної інтервенції”, – сказав Струве. “Я вважаю, що штучний інтелект не переозначає, що таке інтелект, але він змушує нас переосмислити нашу взаємодію з ним. Найважливіше не те, що модель еволюціонує, а те, що вона робить це у відповідності з цілями, які ми визначаємо як люди.”
Джефф Таунс, технічний директор компанії Gorilla Logic, також підкреслює важливість управління, яке супроводжує еволюцію штучного інтелекту: “Питання не в тому, чи може штучний інтелект еволюціонувати, а в тому, чи може підприємство еволюціонувати разом з ним. Управління повинно закріпити кожну адаптацію штучного інтелекту до чітких результатів та показників ефективності, яких можуть виміряти та довіряти лідери, щоб інновації розвивалися з впевненістю, а не з ризиком.”
Чи готові ми до штучного інтелекту, який переписує себе?
Найбільш провокативне питання, яке SEAL піднімає, не є технічним – це питання про те, яку роль ми відіграємо у формуванні його цінностей, пріоритетів та напрямку, якщо моделі можуть вирішувати, як навчати себе?
Експерти попереджають, що коли самозадаптовані системи штучного інтелекту набувають автономності, спішка до самопокращення не повинна випереджати створення етичних бар’єрів. “Я вважаю, що всі системи штучного інтелекту повинні включати принаймні три основні етичні принципи”, – сказав Джейкоб Еванс, технічний директор компанії Kryterion.
“По-перше, і це, можливо, не варто згадувати, але штучний інтелект повинен ідентифікувати себе як штучний інтелект. По-друге, штучний інтелект повинен бути орієнтований на людину, доповнюючи та не замінюючи людський суд. І, нарешті, він повинен визнавати свої обмеження та невизначеності, а також відмовлятися від надання інформації, яка могла б сприяти серйозній шкоді. Без цих гарантій штучний інтелект може стати інструментом маніпуляції, а не надійною підтримкою.”
“Щоб дозволити моделям самоздосконалюватися у виробництві, їм потрібен динамічний зворотній зв’язок, а не просто статичне навчання. Потужним методом є використання “цифрового двійника” або складної пісочниці, де штучний інтелект може безпечно тестувати та валідувати свої власні самозгенеровані покращення, перш ніж вони будуть розгорнуті для користувачів”, – поділився Ганеш Ванама, інженер з комп’ютерного зору компанії Automotus.
Що стосується управління, Ванама додав, “незаперечний контроль – це нагляд людини”. Він сказав, що хочемо, щоб моделі адаптувалися, “але вам потрібно мати постійний моніторинг, щоб виявити ‘зсув виравнювання’, коли модель відхиляється від своїх призначених цілей або обмежень безпеки. Ця система повинна надати людині-аудитору можливість вето або миттєво повернути будь-яке автономне оновлення, яке не пройшло перевірку безпеки чи продуктивності.”
Але інші експерти вважають, що ще є час для розробки цих гарантій, стверджуючи, що створення справжньої, надійної, загального призначення, самоздосконалюваної системи штучного інтелекту залишається монументальною задачею.
“Такі моделі ще не мають можливості надійно перепрограмувати себе в реальному часі. Ключові виклики залишаються, включаючи запобігання посиленню помилок, уникнення катастрофічного забуття, забезпечення стабільності під час оновлень та підтримання прозорості щодо внутрішніх змін”, – сказав Рієра. “До тих пір, поки ці питання не будуть вирішені, повна самонавчальна адаптація залишається фронтиром, а не реальністю.”
Дослідники з MIT вважають SEAL необхідною еволюцією. Як сказав один із ведучих вчених MIT, ця框ка зараз лише відображає людське навчання ближче, ніж будь-що інше, що було раніше.
“Ці системи натякають на зміну від статичних, одноразових моделей до адаптивних архітектур, які можуть вивчати з досвіду, керувати пам’яттю та переслідувати цілі з часом. Напрямок ясний: до модульної, контекстно-залежної інтелігенції, яка може коригувати себе безперервно”, – сказав мені Рієра. “Хоча це ще на експериментальній стадії, цей підхід позначає значний крок до більш автономних та стійких систем штучного інтелекту.”
Чи це приведе до більш персоналізованих систем чи зовсім нових форм машинної агентності, залишається невідомим. Ера самонавчального штучного інтелекту наставила – і вона переписує не тільки свій власний код, а й правила того, чим можуть стати машини.


