Connect with us

Искусственный интеллект, который учится самостоятельно, больше не является научной фантастикой

Искусственный интеллект

Искусственный интеллект, который учится самостоятельно, больше не является научной фантастикой

mm

Новые框架ы искусственного интеллекта движутся к радикальному скачку: машинам, которые могут улучшать себя самостоятельно, без необходимости человеческого вмешательства.

В течение многих лет даже самые передовые модели искусственного интеллекта оставались пассивными двигателями, предсказывающими ответы на основе обучающих данных, которые они не могли изменить. Но сегодня не размер модели определяет следующую главу искусственного интеллекта, а то, может ли модель эволюционировать самостоятельно.

Недавно исследователи из MIT представили новый框架 искусственного интеллекта под названием Самоадаптирующиеся модели языка (SEAL). Этот подход позволяет большим языковым моделям (LLM) улучшать себя самостоятельно, что позволяет искусственному интеллекту диагностировать свои ограничения и обновлять свои собственные нейронные веса посредством внутреннего обратного цикла, работающего на основе обучения с подкреплением. Вместо того, чтобы требовать от исследователей обнаружения ошибок, написания новых подсказок или подачи дополнительных примеров, модель берет на себя полную ответственность за свою эволюцию.

«Большие языковые модели (LLM) являются мощными, но статичными; они не имеют механизмов для адаптации своих весов в ответ на новые задачи, знания или примеры», – написали исследователи из MIT в блоге. «Эксперименты по включению знаний и обобщению с несколькими примерами показывают, что SEAL является перспективным шагом к языковым моделям, способным к самообучению в ответ на новые данные».

В ранних тестах этот цикл самообучения позволил моделям перейти от полного провала к успеху в сложных абстрактных задачах рассуждения, превосходя даже более крупные модели, такие как GPT-4.1, с показателем 72,5% успеха, где традиционные методы потерпели неудачу. Кроме того, SEAL, как сообщается, снижает человеческий надзор на 85%, одновременно увеличивая точность и адаптивность.

Рост самообучаемых框架ов искусственного интеллекта

SEAL является частью более широкой тенденции к автономному машинному интеллекту. Исследователи из Sakana AI, например, представили Машину Дарвина-Гёделя – агент искусственного интеллекта, который переписывает свой собственный код с помощью открытых эволюционных стратегий.

«Он создает различные самоулучшения, такие как проверка патчей, лучший просмотр файлов, улучшенные инструменты редактирования, генерация и ранжирование нескольких решений для выбора лучшего, и добавление истории того, что было попробовано ранее (и почему оно не удалось), при внесении новых изменений», – написали исследователи из Sakana AI в блоге.

Аналогично, агенты искусственного интеллекта Anthropic, пowered by Claude 4, теперь могут автономно оркестрировать рабочие процессы в кодовых базах и бизнес-инструментах.

«Система, которая реконфигурирует себя на основе типа актива, его окружения и истории, позволяет перейти от реактивного ответа к непрерывной стратегии предотвращения», – сказал мне Кристиан Струве, генеральный директор и сооснователь Fracttal.

«Это не о том, что модель эволюционирует, а о том, что она делает это в соответствии с целями, которые мы определяем как люди».

Что объединяет эти усилия, так это основная убежденность: искусственному интеллекту не нужно становиться больше, чтобы стать умнее. Ему нужно стать более адаптивным.

«Масштабирование принесло значительные выгоды, но мы достигаем пределов того, что может достичь только размер. Самоадаптирующиеся модели обучения, такие как SEAL, предлагают убедительный следующий шаг, позволяя системам расти и улучшаться со временем», – сказал мне Хорхе Рьера, основатель и генеральный директор платформы полного стека данных Dataco.

Влияние на экосистему искусственного интеллекта и глобальный переход к автономии

Этот уровень автономии переписывает экономику развертывания искусственного интеллекта. Представьте себе системы обнаружения мошенничества, которые обновляют себя мгновенно, чтобы противостоять новым угрозам, или искусственные интеллектуальные преподаватели, которые меняют свой стиль преподавания на основе поведения студента. В робототехнике самоадаптирующиеся框架ы могут привести к автономным машинам, которые учатся новым шаблонам движения без необходимости перепрограммирования.

По всему Ближнему Востоку страны, такие как ОАЭ и Саудовская Аравия, быстро строят основные модели, предназначенные для адаптации. Falcon ОАЭ и Jais от G42 являются открытыми моделями языка, построенными с учетом региональной актуальности, в то время как ALLaM и Metabrain от Aramco Digital продвигаются в область автономных агентов искусственного интеллекта для умных городов, здравоохранения и логистики.

Эти усилия еще не эквивалентны SEAL по способности самообучения, но они отражают общую траекторию: от пассивных систем искусственного интеллекта к активным, эволюционирующим агентам, которые могут ориентироваться в сложности с ограниченным человеческим руководством. И как SEAL, эти инициативы поддерживаются прочными框架ами управления, подчеркивающими растущее осознание того, что автономия искусственного интеллекта должна сочетаться с ответственностью.

«Это первый шаг к самоуправляемым системам, которые изменяют свою логику без постоянного вмешательства», – говорит Струве. «Я считаю, что искусственный интеллект не переопределяет, что такое интеллект, но он заставляет нас переосмыслить нашу связь с ним. Важно не то, что модель эволюционирует, а то, что она делает это в соответствии с целями, которые мы определяем как люди».

Джефф Таунс, технический директор Gorilla Logic, также подчеркивает важность управления, которое должно идти в ногу с эволюцией искусственного интеллекта: «Вопрос не в том, может ли искусственный интеллект эволюционировать, а в том, может ли предприятие эволюционировать вместе с ним. Управление должно привязать каждую адаптацию искусственного интеллекта к четким результатам и KPI, которые лидеры могут измерить и доверять, чтобы инновации масштабировались с уверенностью, а не с риском».

Готовы ли мы к искусственному интеллекту, который переписывает себя?

Самый провокационный вопрос, который SEAL задает, не является техническим – это вопрос о том, какую роль мы играем в формировании его ценностей, приоритетов и направления, если модели могут решать, как учиться самостоятельно.

Эксперты предупреждают, что по мере того, как самоадаптирующиеся системы искусственного интеллекта получают автономию, спешка к самоулучшению не должна обгонять установление этических ограничений. «Я считаю, что все системы искусственного интеллекта должны включать хотя бы три основных этических принципа», – говорит Джейкоб Эванс, технический директор Kryterion.

«Первое, и это может показаться очевидным, но искусственный интеллект должен идентифицировать себя как искусственный интеллект. Второе, искусственный интеллект должен быть ориентирован на человека, дополняя и не заменяя человеческое суждение. И, наконец, он должен признать свои ограничения и неопределенности, отказываясь предоставлять информацию, которая могла бы способствовать серьезному вреду. Без этих гарантий искусственный интеллект может стать инструментом манипуляции, а не надежной поддержкой».

«Чтобы позволить моделям самообучаться в производстве, им нужен динамический цикл обратной связи, а не только статическая тренировка. Мощным методом является использование «цифрового двойника» или сложной песочницы, где искусственный интеллект может безопасно тестировать и проверять свои собственные самообученные улучшения, прежде чем они будут развернуты для пользователей», – поделился Ганеш Ванама, инженер компьютерного зрения в Automotus.

Что касается управления, Ванама добавил, «неоспоримым контролем является «человек в цикле» надзор». Он сказал, что, хотя мы хотим, чтобы модели адаптировались, «вы должны иметь непрерывный мониторинг, чтобы обнаружить «дрейф выравнивания», когда модель отклоняется от своих намеченных целей или ограничений безопасности. Эта система должна дать человеческому аудитору власть вето или мгновенно откатить любое автономное обновление, которое не проходит проверку безопасности или производительности».

Но другие эксперты считают, что еще есть время для разработки этих гарантий, утверждая, что построение действительно прочной, общего назначения, самоулучшающейся модели искусственного интеллекта остается монументальной задачей.

«Такие модели все еще не имеют возможности надежно перепрограммировать себя в реальном времени. Ключевые проблемы остаются, включая предотвращение подкрепления ошибок, избежание катастрофического забывания, обеспечение стабильности во время обновлений и поддержание прозрачности вокруг внутренних изменений», – говорит Рьера. «Пока эти проблемы не будут решены, полная самообучаемая адаптация остается фронтиром, а не реальностью».

Исследователи из MIT считают SEAL необходимой эволюцией. Как сказал один из ведущих ученых MIT, эта框架 в настоящее время только отражает человеческое обучение более точно, чем все, что было раньше.

«Эти системы намекают на сдвиг от статичных, одноразовых моделей к адаптивным архитектурам, которые могут учиться на опыте, управлять памятью и преследовать цели во времени. Направление rõчно: к модульной, контекстно-зависимой интеллектуальности, способной корректировать себя непрерывно», – сказал мне Рьера. «Хотя это еще экспериментальный подход, этот метод представляет собой значительный шаг к более автономным и устойчивым системам искусственного интеллекта».

Будет ли это означать более персонализированные системы или совершенно новые формы машинной агентности, остается быть увиденным. Эра самообучаемого искусственного интеллекта наступила – и она переписывает не только свой собственный код, но и правила того, чем могут стать машины.

Виктор Дей - это технический редактор и писатель, который освещает темы ИИ, криптовалют, науки о данных, метавселенной и кибербезопасности в корпоративной сфере. Он имеет полдесятилетнего опыта работы в средствах массовой информации и ИИ, работая в известных изданиях, таких как VentureBeat, Metaverse Post, Observer и других. Виктор наставлял студентов-основателей в ускорительных программах ведущих университетов, включая Оксфордский университет и Университет Южной Калифорнии, и имеет степень магистра в области науки о данных и аналитики.