Connect with us

Лидеры мнений

Триллионную проблему ИИ

mm

Когда мы вступаем в 2025 год, сектор искусственного интеллекта стоит на критическом поворотном пункте. Хотя отрасль продолжает привлекать беспрецедентные уровни инвестиций и внимания — особенно в ландшафте генеративного ИИ — несколько основных рыночных динамик предполагают, что мы движемся к большому сдвигу в ландшафте ИИ в течение следующего года.

Извлекая из моего опыта руководства стартапом ИИ и наблюдения за быстрой эволюцией отрасли, я считаю, что в этом году произойдут многие фундаментальные изменения: от крупных концептуальных моделей (ККМ), которые, как ожидается, станут серьезными конкурентами крупным языковым моделям (КЯМ), роста специализированного оборудования ИИ, до того, что крупные технологические компании начнут крупные строительные проекты инфраструктуры ИИ, которые наконец поставят их в позицию, чтобы обогнать стартапы, такие как OpenAI и Anthropic — и, кто знает, может быть, даже обеспечить свою монополию на ИИ после всего.

Уникальная проблема компаний ИИ: ни программное обеспечение, ни оборудование

Основная проблема заключается в том, как компании ИИ работают в ранее не виденном среднем положении между традиционными программными и аппаратными бизнесами. В отличие от чистых программных компаний, которые в основном инвестируют в человеческий капитал с относительно низкими операционными расходами, или компаний по производству оборудования, которые делают долгосрочные инвестиции в капитал с четкими путями к доходам, компании ИИ сталкиваются с уникальной комбинацией проблем, которые делают их текущие модели финансирования хрупкими.

Эти компании требуют огромных первоначальных капитальных расходов на кластеры GPU и инфраструктуру, тратя 100-200 миллионов долларов в год только на вычислительные ресурсы. Однако, в отличие от компаний по производству оборудования, они не могут амортизировать эти инвестиции за длительные периоды. Вместо этого они работают в сжатых двухлетних циклах между раундами финансирования, каждый раз нуждаясь в демонстрации экспоненциального роста и передовой производительности, чтобы оправдать их следующую маркуповку.

Проблема дифференциации КЯМ

Добавляя к этой структурной проблеме, есть тревожная тенденция: быстрое сходимость возможностей крупных языковых моделей (КЯМ). Стартапы, такие как французский единорог Mistral AI и другие, продемонстрировали, что открытыые модели могут достичь производительности, сравнимой с их закрытыми аналогами, но техническая дифференциация, которая ранее оправдывала небоскребные оценки, становится все более трудной для поддержания.

Иными словами, хотя каждая новая КЯМ хвастается впечатляющей производительностью на основе стандартных тестов,真正 значимый сдвиг в базовой архитектуре модели не происходит.

Текущие ограничения в этой области исходят из трех критических областей: доступность данных, поскольку мы истощаем высококачественный учебный материал (как недавно подтвердил Илон Маск); методы курирования, поскольку они все принимают аналогичные подходы обратной связи человека, впервые предложенные OpenAI; и вычислительная архитектура, поскольку они полагаются на один и тот же ограниченный пул специализированного оборудования GPU.

Что возникает, так это закономерность, при которой выигрыши все больше исходят из эффективности, а не масштаба. Компании фокусируются на сжатии большего количества знаний в меньшее количество токенов и разработке лучших инженерных артефактов, таких как системы извлечения, такие как графические RAG (генерация с извлечением). По сути, мы приближаемся к естественной плато, где бросание большего количества ресурсов на проблему дает все более низкие доходы.

Благодаря беспрецедентному темпу инноваций за последние два года, эта сходимость возможностей КЯМ происходит быстрее, чем кто-либо ожидал, создавая гонку против времени для компаний, которые привлекли средства.

На основе последних исследовательских тенденций, следующий рубеж для решения этой проблемы — это появление крупных концептуальных моделей (ККМ) как новой, революционной архитектуры, конкурирующей с КЯМ в их ядре, которое представляет собой понимание естественного языка (NLP).

Технически говоря, ККМ будут обладать несколькими преимуществами, включая потенциал для лучшей производительности с меньшим количеством итераций и возможность достижения аналогичных результатов с меньшими командами. Я считаю, что эти следующие поколения ККМ будут разработаны и коммерциализированы спин-офф командами, знаменитыми «бывшими большими технологическими» мятежниками, основывающими новые стартапы, чтобы возглавить эту революцию.

Несоответствие графика монетизации

Сжатие циклов инноваций создало еще одну критическую проблему: несоответствие между временем выхода на рынок и устойчивой монетизацией. Хотя мы наблюдаем беспрецедентную скорость вертикализации приложений ИИ — с голосовыми агентами ИИ, например, переходящими от концепции к выгодным продуктам всего за несколько месяцев — эта быстрая коммерциализация маскирует более глубокую проблему.

Рассмотрим это: стартап ИИ, оцененный в 20 миллиардов долларов сегодня, скорее всего, потребует генерировать около 1 миллиарда долларов годового дохода в течение 4-5 лет, чтобы оправдать выход на биржу по разумному множителю. Это требует не только технологического совершенства, но и драматической трансформации всей бизнес-модели, от ориентированной на исследования и разработки до ориентированной на продажи, все это при сохранении темпа инноваций и управлении огромными затратами на инфраструктуру.

В этом смысле новые стартапы, ориентированные на ККМ, которые появятся в 2025 году, будут в лучшей позиции для привлечения средств, с более низкими первоначальными оценками, что делает их более привлекательными целями для инвесторов.

Нехватка оборудования и появляющиеся альтернативы

Давайте посмотрим ближе на инфраструктуру. Сегодня каждый новый кластер GPU покупается даже до его строительства крупными игроками, заставляя более мелких игроков либо обязаться к долгосрочным контрактам с поставщиками облачных услуг, либо рисковать быть исключенными из рынка совсем.

Но вот что действительно интересно: пока все борются за GPU, произошел fascинirующий сдвиг в ландшафте оборудования, который все еще в значительной степени упускается из виду. Текущая архитектура GPU, называемая GPGPU (универсальный GPU), невероятно неэффективна для того, что большинство компаний на самом деле нуждаются в производстве. Это как использование суперкомпьютера для запуска приложения калькулятора.

Это почему я считаю, что специализированное оборудование ИИ будет следующим большим сдвигом в нашей отрасли. Компании, такие как Groq и Cerebras, строят оборудование, специфичное для вывода, которое в 4-5 раз дешевле в эксплуатации, чем традиционные GPU. Да, есть более высокая инженерная стоимость для оптимизации ваших моделей для этих платформ, но для компаний, которые выполняют крупномасштабные задачи вывода, выгоды от эффективности очевидны.

Плотность данных и рост меньших, умных моделей

Переход к следующему инновационному рубежу в ИИ, вероятно, потребует не только большей вычислительной мощности — особенно для крупных моделей, таких как ККМ — но и более богатых, комплексных наборов данных.

Интересно, что меньшие, более эффективные модели начинают бросать вызов более крупным, капитализируя, как плотно они обучены на доступных данных. Например, модели, такие как Microsoft’s FeeFree или Google’s Gema2B, работают с намного меньшим количеством параметров — часто около 2-3 миллиардов — но достигают уровней производительности, сравнимых с намного более крупными моделями с 8 миллиардами параметров.

Эти меньшие модели становятся все более конкурентоспособными благодаря их высокой плотности данных, что делает их прочными, несмотря на их размер. Этот сдвиг в сторону компактных, но мощных, моделей соответствует стратегическим преимуществам, которыми обладают компании, такие как Microsoft и Google: доступ к огромным, разнообразным наборам данных через платформы, такие как Bing и Google Search.

Эта динамика раскрывает две критические «войны», разворачивающиеся в разработке ИИ: одну за вычислительную мощность и другую за данные. Хотя вычислительные ресурсы необходимы для расширения границ, плотность данных становится равной — если не более — критической. Компании с доступом к огромным наборам данных уникально позиционированы для обучения меньших моделей с непревзойденной эффективностью и прочностью, укрепляя свое доминирование в эволюционирующем ландшафте ИИ.

Кто выиграет войну ИИ?

В этом контексте все любят задуматься, кто в текущем ландшафте ИИ лучше всего позиционирован, чтобы выйти победителем. Вот некоторая пища для размышлений.

Крупные технологические компании заранее покупают целые кластеры GPU до их строительства, создавая среду нехватки для более мелких игроков. Заказ Oracle на 100 000+ GPU и аналогичные шаги Meta и Microsoft демонстрируют эту тенденцию.

Потратив сотни миллиардов на инициативы ИИ, эти компании требуют тысяч специализированных инженеров и исследователей ИИ. Это создает беспрецедентный спрос на таланты, который может быть удовлетворен только через стратегические приобретения — вероятно, в результате чего многие стартапы будут поглощены в течение следующих месяцев.

Хотя 2025 год будет потрачен на крупномасштабные исследования и разработки и строительство инфраструктуры для таких акторов, к 2026 году они будут в позиции нанести удар, как никогда раньше, благодаря беспрецедентным ресурсам.

Это не означает, что более мелкие компании ИИ обречены — далеко от этого. Сектор продолжит инновации и создание ценности. Некоторые ключевые инновации в секторе, такие как ККМ, вероятно, будут возглавлены более мелкими, появляющимися акторами в течение года, наряду с Meta, Google/Alphabet и OpenAI с Anthropic, все из которых работают над интересными проектами в настоящее время.

Однако мы, вероятно, увидим фундаментальную реструктуризацию того, как компании ИИ финансируются и оцениваются. По мере того, как венчурный капитал становится более дискриминационным, компании должны будут продемонстрировать четкие пути к устойчивой экономике — конкретная проблема для открытых бизнесов, конкурирующих с хорошо обеспеченными проприетарными альтернативами.

Для открытых компаний ИИ конкретно путь вперед может потребовать фокусировки на конкретных вертикальных приложениях, где их прозрачность и возможности настройки обеспечивают явные преимущества перед проприетарными решениями.

Jean-Louis Quéguiner является основателем и генеральным директором Gladia. Ранее он занимал должность вице-президента группы по данным, ИИ и квантовым вычислениям в OVHcloud, одном из ведущих облачных провайдеров Европы. Он имеет степень магистра по символическому ИИ в Университете Квебека в Канаде и Arts et Métiers ParisTech в Париже. На протяжении своей карьеры он занимал значимые должности в различных отраслях, включая финансовую анализ данных, приложения машинного обучения для цифровой рекламы в режиме реального времени и разработку API для речевого ИИ.