Интервью
Мануэль Ромеро, соучредитель и главный научный сотрудник компании Maisa – серия интервью.

Мануэль РомероРомеро, соучредитель и главный научный сотрудник компании Maisa, — исследователь и инженер в области искусственного интеллекта, специализирующийся на разработке надежных корпоративных систем искусственного интеллекта. Он основал Maisa в 2024 году с целью создания ответственного ИИ, способного прозрачно и контролируемо выполнять сложные бизнес-процессы. До основания Maisa Ромеро занимал руководящие должности в области разработки ИИ и машинного обучения в таких компаниях, как Clibrain и Narrativa, где специализировался на обработке естественного языка и крупномасштабных системах ИИ. Ранее в своей карьере он работал разработчиком программного обеспечения полного цикла и специалистом по DevOps, прежде чем перейти к передовым исследованиям и разработкам в области ИИ, став активным участником экосистемы ИИ с открытым исходным кодом.
Maisa AI Компания разрабатывает автономных «цифровых работников» — агентов искусственного интеллекта, предназначенных для автоматизации сложных корпоративных рабочих процессов при сохранении отслеживаемости, управления и надежности. Платформа позволяет организациям создавать и развертывать агентов ИИ, используя естественный язык, обеспечивая автоматизацию внутренних систем и источников данных без обширного программирования. Сосредоточившись на проверяемом логическом выводе и структурированном выполнении, Maisa стремится преодолеть распространенные ограничения, связанные с генеративными системами ИИ, и помочь предприятиям безопасно развертывать автономный ИИ в масштабах предприятия.
Вы часто сосредотачивались на понимании более глубокого «почему» работают системы искусственного интеллекта. С технической точки зрения, что побудило вас стать соучредителем Maisa в 2024 году, и какой пробел в корпоративной архитектуре ИИ, по вашему мнению, не был устранен?
Мотивацией для создания Maisa послужило осознание того, что большинство корпоративных решений в области искусственного интеллекта построены на основе моделей, а не систем.
В период бума генеративного искусственного интеллекта многие компании сосредоточились на интеграции больших языковых моделей в существующие рабочие процессы. Однако эти системы часто были ненадежными, непрозрачными и сложными в масштабируемом использовании. Им не хватало:
- Детерминированное исполнение там, где это имело значение.
- высокая наблюдаемость, отслеживаемость
- воспроизводимость
Мы обнаружили пробел в виде отсутствия настоящей инфраструктуры искусственного интеллекта для предприятий. Компании создавали приложения на основе API LLM, но им не хватало чего-то эквивалентного компьютерной архитектуре для работы с интеллектуальными данными.
Система Maisa была создана для устранения этого пробела путем разработки архитектуры, основанной на блоке обработки знаний (KPU), системе, которая позволяет искусственному интеллекту надежно работать в реальных корпоративных рабочих процессах.
До основания Maisa вы работали в сфере обработки естественного языка и генеративных систем. Как этот опыт повлиял на архитектурные решения, лежащие в основе платформы?
Мой опыт работы в области обработки естественного языка и генерации естественного языка, особенно в части обучения и предварительного обучения языковых моделей, а затем и больших языковых моделей (сотни моделей), очень ясно показал мне одну вещь при попытке построить на их основе реальные системы. Архитектура трансформеров чрезвычайно мощна, но она имеет как минимум три фундаментальных ограничения, которые необходимо устранить для ее надежного использования в производственной среде.
Первый тип — галлюцинации. Эти модели генерируют текст вероятностным образом и могут выдавать результаты, которые звучат правильно, но не основаны на проверенной информации.
Вторая проблема — ограничения контекста. Даже при больших контекстных окнах модели работают в ограниченном пространстве токенов, что затрудняет рассуждения над большими или сложными массивами знаний.
Третий фактор — это актуальность информации. Предварительно обученные модели представляют собой снимок знаний на момент обучения, в то время как корпоративная среда требует систем, способных анализировать постоянно меняющуюся информацию.
Осознание этих ограничений повлияло на многие архитектурные решения, лежащие в основе Maisa. Вместо того чтобы полагаться только на модель, мы сосредоточились на создании системы, которая обеспечивает структурированный доступ к знаниям, механизмы проверки и контролируемое выполнение, чтобы ИИ мог надежно работать в реальных корпоративных рабочих процессах.
Многие предприятия экспериментируют с генеративным искусственным интеллектом, но им трудно выйти за рамки пилотных проектов. С точки зрения системного проектирования, в чем основная причина неудачного масштабирования во многих организациях?
Многие предприятия испытывают трудности с переходом от пилотных проектов генеративного ИИ к более масштабным решениям, поскольку большинство развертываний создаются в качестве экспериментов, а не как надежные системы. Ранние прототипы часто полагаются на оперативное проектирование, легковесную оркестровку и простые конвейеры получения данных, которые могут продемонстрировать ценность, но не обеспечивают надежность, наблюдаемость и контроль, необходимые для производственных сред. При попытке масштабировать эти системы организации сталкиваются с такими проблемами, как непоследовательность результатов, отсутствие отслеживаемости, трудности интеграции с корпоративными рабочими процессами и ограниченное управление поведением ИИ. В основе проблемы лежит то, что большие языковые модели являются вероятностными генераторами, в то время как корпоративные процессы требуют предсказуемого и проверяемого поведения. Без архитектуры, которая добавляет структуру вокруг рассуждений, проверки, выполнения и мониторинга, масштабирование систем генеративного ИИ за пределы отдельных сценариев использования остается сложной задачей.
Цифровые работники Maisa разработаны таким образом, чтобы их можно было проверять и структурировать, а не полагаться исключительно на вероятность. Что это означает на практике для предприятий, оценивающих возможности использования ИИ в производстве?
Когда мы говорим, что цифровые работники Maisa поддаются аудиту и структурированы, а не являются чисто вероятностными, мы имеем в виду, что ИИ работает в контролируемой системе, где его действия и рассуждения можно отслеживать и регулировать. Вместо того чтобы позволять модели свободно генерировать результаты и решения, система структурирует взаимодействие ИИ с данными, инструментами и рабочими процессами. Каждый шаг процесса может быть зарегистрирован, проверен и подтвержден, а действия выполняются через определенные интерфейсы, а не напрямую из выходных данных модели. Для предприятий это означает, что системы ИИ можно отслеживать, проверять и интегрировать в критически важные процессы с большей уверенностью. Это превращает ИИ из «черного ящика» в систему, поведение которой можно понять, контролировать и которой можно доверять в производственных средах.
Чем отличается модуль обработки знаний от типичного уровня оркестровки или механизма рабочих процессов, построенного на основе больших языковых моделей, с точки зрения архитектора этого модуля?
Блок обработки знаний отличается от типичных уровней оркестровки тем, что он предназначен для управления полным жизненным циклом рассуждений, основанных на ИИ, а не просто для координации запросов и вызовов моделей. Большинство фреймворков оркестровки выступают в роли менеджеров рабочих процессов, которые связывают воедино такие шаги, как поиск, запрос и выполнение инструментов. Блок обработки знаний работает на более глубоком архитектурном уровне, структурируя способы доступа к знаниям, выполнения рассуждений и выполнения действий внутри системы. Он рассматривает обработку знаний как основной вычислительный слой, интегрируя память, проверку и контролируемое выполнение, чтобы ИИ мог надежно работать в сложных корпоративных рабочих процессах, а не просто генерировать ответы.
В регулируемых отраслях допустимый уровень риска низок. Какие конкретные проектные решения вы приняли, чтобы гарантировать надежность результатов работы ИИ и предотвратить распространение ошибок по сложным рабочим процессам?
В регулируемых отраслях надежность и контроль имеют первостепенное значение, поэтому мы разработали систему с несколькими механизмами защиты, чтобы гарантировать достоверность результатов работы ИИ. Один из ключевых принципов — структурированное выполнение, при котором ИИ не может напрямую запускать критически важные действия без прохождения через контролируемые интерфейсы. Мы также включили уровни проверки, которые проверяют результаты работы модели на соответствие схемам, правилам или вторичным механизмам, прежде чем они будут приняты. Кроме того, система обеспечивает полную наблюдаемость, регистрируя этапы рассуждений, взаимодействие инструментов и принятые решения, чтобы их можно было отслеживать и проверять. В совокупности эти проектные решения помогают предотвратить распространение ошибок по рабочим процессам и позволяют организациям эксплуатировать системы ИИ с уровнем надежности и управления, необходимым в регулируемых средах.
Какие наиболее убедительные примеры раннего применения цифровых работников вы наблюдали, когда они перешли от управляемой помощи к полностью функциональному выполнению задач с помощью ИИ?
Наиболее убедительные примеры раннего применения цифровых технологий встречаются в наукоемких рабочих процессах, где процессы четко определены, но все же требуют значительного анализа и принятия решений. В таких областях, как проверка соответствия требованиям, техническая поддержка и внутреннее управление знаниями, цифровые работники могут выйти за рамки простой помощи людям и начать выполнять структурированные задачи от начала до конца. Они могут извлекать и анализировать большие объемы внутренней информации, применять определенные процедуры, взаимодействовать с корпоративными системами с помощью контролируемых инструментов и создавать результаты, которые напрямую поступают в операционные рабочие процессы. Ключевой сдвиг происходит, когда ИИ не только генерирует предложения, но и способен надежно выполнять определенные действия в рамках управляемой системы, позволяя организациям автоматизировать части сложной работы с знаниями, а не просто дополнять ее.
В условиях усиления глобального регуляторного контроля за ИИ, как, по вашему мнению, будет развиваться базовая инфраструктура ИИ для соответствия требованиям без ограничения инноваций?
По мере усиления регуляторного контроля над ИИ, я считаю, мы увидим отход от архитектур, которые просто вызывают API поставщиков моделей и слепо доверяют результатам. Предприятия и регулирующие органы будут все чаще требовать систем, в которых поведение ИИ является наблюдаемым, поддающимся аудиту и управляемым. Именно здесь становятся важными такие архитектуры, как блок обработки знаний (Knowledge Processing Unit, AI). Этот тип архитектуры позволяет организациям обеспечивать контроль, отслеживать решения и гарантировать надежность результатов работы ИИ до того, как они повлияют на реальные процессы. Со временем я ожидаю, что подобные системы станут стандартной основой для надежной инфраструктуры ИИ.
Вы говорили об этике и подотчетности наряду со своей технической работой. Как эти взгляды влияют на ваш подход к созданию прозрачных систем искусственного интеллекта?
Для меня этика и ответственность напрямую влияют на выбор проектных решений. Если системы ИИ будут участвовать в реальных операционных процессах, они не могут функционировать как непрозрачные «черные ящики», поведение которых нельзя проверить или понять. Эта точка зрения сильно повлияла на мой подход к созданию систем ИИ. Прозрачность, отслеживаемость и человеческий контроль должны быть заложены в архитектуру с самого начала. Это означает обеспечение возможности наблюдения за этапами рассуждения, проверки решений и выполнения действий с помощью контролируемых механизмов. Когда эти принципы внедряются на уровне инфраструктуры, системы ИИ становятся не только более надежными, но и позволяют организациям более ответственно управлять ими.
Заглядывая в будущее, считаете ли вы, что инфраструктура для агентного ИИ станет такой же фундаментальной, как облачная инфраструктура в прошлом десятилетии, и что должно произойти с технической точки зрения, чтобы этот сдвиг материализовался?
Я считаю, что инфраструктура для агентного ИИ имеет потенциал стать такой же фундаментальной, как облачная инфраструктура за последнее десятилетие. По мере того, как организации стремятся автоматизировать все более сложные задачи, требующие обработки знаний, им потребуются системы, способные надежно координировать рассуждения, память и выполнение множества задач и источников данных. Однако для того, чтобы этот сдвиг произошел, базовая архитектура должна выйти за рамки простой интеграции моделей. Нам нужна инфраструктура, обеспечивающая структурированное рассуждение, надежный доступ к корпоративным знаниям, высокую наблюдаемость и контролируемое выполнение действий. Когда эти возможности будут встроены в основную систему, агентный ИИ сможет превратиться из экспериментальных инструментов в надежную инфраструктуру, на которую организации будут полагаться для выполнения критически важных операций.
Спасибо за отличное интервью, читатели, которые хотят узнать больше, должны посетить Maisa AI.












