Rambler's Top100
Статьи
Антон САЛОВ  03 марта 2025

Облачные итоги – 2024. ИИ из облака – на вершине хайпа

ИИ-технологии все шире используются в реальном секторе экономики, побуждая государство и крупный бизнес развивать для них необходимую инфраструктуру, в том числе облачную, и привлекая новых игроков.

Сегодня про искусственный интеллект и большие языковые модели (large language model, LLM) не говорит только ленивый. Любой проект, любой стартап, да что уж там, любая госпрограмма при включении в описание этих магических терминов сразу повышает свою значимость для инвесторов. Так происходит и в мире, и в России. 

Новое незабытое старое

Тема использования облаков для расчетов и работы ИИ по большому счету не нова. Надо отметить, что облака, и частные, и публичные, и особенно Bare Metal, подходят для обучения и развертывания ML-моделей идеально. Поэтому использовать облачную инфраструктуру для этих целей начали давно. Помните, были популярные приложения FaceSwap, MSQRD, Prisma, которые с помощью нейросетей обрабатывали фотографии для публикации в соцсетях? MSQRD делали ребята из Беларуси, а Prisma – выходцы из Mail.ru (они же потом сделали не менее популярное приложение Lensa). Эти приложения поднялись на вершину хайпа в 2015 – начале 2016 г. Так вот Prisma использовала Bare Metal Cloud облачного провайдера Servers.ru, тогда только вышедшего на российский рынок и предложившего создателям Prisma GPU-вычисления по облачной модели. 

В 2019–2021 гг. российский бигтех в лице Сбера, «Яндекса» и МТС обзавелся собственными суперкомпьютерами, которые используются не только для собственных нужд компаний, но и для коммерческих расчетов больших нейросетевых моделей через «подшефных» провайдеров – Cloud.ru, Yandex.Cloud и MWS соответственно. Помимо суперкомпьютеров клиентам этих провайдеров доступны и классические серверы с GPU по облачной модели. У всех у них в продуктовом каталоге есть различные ИИ-продукты: BMC c GPU, эластичное облако с GPU (классический IaaS), MLOps-платформы, различные GPT LLM, SpeechKit (PaaS). Некоторые провайдеры начали предлагать GPT по модели SaaS: Softline в 2024 г. тестировала доступ к ChatGPT через VDI. ChatGPT сложно зарегистрировать и оплатить российским клиентам, а Softline в этом мастер еще со времен Google Apps.

Но ключевыми остаются две модели потребления GPU-вычислений – BMC/IaaS и MLOps-платформы. И если вычисления по первой модели предоставляет относительно большой пул провайдеров (в основном все же IaaS, а BMC, как я писал в предыдущей статье, многие долгое время игнорировали), то MLOps-платформы есть далеко не у всех. Это обусловлено отсутствием ML-компетенций и специалистов у провайдеров. Таковые есть только у крупных игроков. Из лидеров можно назвать все тех же Cloud.ru, Yandex Cloud, MWS, а также Selectel и VK Tech. Остальные фокусируются на IaaS с GPU, который подходит для начинающих, энтузиастов и простых бизнес-задач, но мало пригоден для продвинутого обучения сложных моделей. Провайдер такого облака просто не даст вам выжать максимум из «железа», а еще, вероятно, включит переподписку, множителем которой управлять не позволит.

ЦОДы для ИИ?

Вариативность реализации ИИ-инфраструктуры, как и доставки сервиса, тоже широкая, связанная во многом с более высоким энергопотреблением и как следствие – с потребностью в более эффективном охлаждении. Если раньше в ЦОДе основной спрос был на стойки с мощностью 5–7 кВт, то сейчас «повседневные нагрузки» достигают 10–12 кВт, с элементами ИИ – около 20, хотя «хардкорные» ИИ-вычисления от этой отметки только начинаются. Всю эту подведенную мощность, преобразованную в тепло, надо отводить. Как? Кто-то пытается добиться максимальной отдачи от воздушного охлаждения ЦОДа. Кто-то, как Сбер, использует комбинированное воздушно-жидкостное охлаждение, когда на радиаторы охлаждения в стойке подаются и холодный воздух из чилеров, и холодная жидкость по герметичным трубкам. Кто-то предлагает иммерсионное охлаждение (когда серверы полностью погружаются в жидкость), и даже появились отечественные облачные провайдеры с иммерсионной инфраструктурой. Все это, естественно, влияет на требования к инфраструктуре ЦОДов, которые проектируют с ориентацией на клиентов с ИИ. Например, IXcellerate осенью анонсировал запуск лаборатории, где занимаются тестированием систем комбинированного водо-воздушного охлаждения под различными нагрузками, способными обеспечивать охлаждение серверных стоек мощностью до 100 кВт. В основе технологий – драйкулеры с адиабатическим предохлаждением и холодные стены с фреоновым контуром, отвечающие за эффективное охлаждение серверов.

Возникает вопрос: строить ли ЦОДы с оглядкой на требования ИИ-вычислений? Вероятно, да, особенно корпоративные. Не смотря на ограничения, уровень хайпа таков, что GPU в страну везут контейнерами. Только один знакомый интегратор в конце года отгрузил клиенту из сферы retail/etail ускорителей на 6 млрд руб.! А в 2025 г. всё это надо будет вставлять в серверы и размещать в машзалах, подготовленных как описано выше. При этом профильные эксперты отрасли на горизонте 2025–2026 гг. прогнозируют дефицит мощностей коммерческих ЦОДов.

ИИ с географией

Но ориентация на ИИ-вычисления влияет не только на технологии, но и на географию ЦОДов. Понятно, что сейчас большая часть бизнеса, связанная с ИИ, как и ЦОДы, сконцентрирована в московском и петербургском регионах. Однако, чем больше ИИ-технологии будут проникать в реальный сектор экономики, тем больше будет потребность приближать обработку и расчет моделей к точке сбора данных. И тут уже начнут развиваться региональные ЦОДы, как, например, ЦОД нового провайдера Cloud X (входит в группу En+ и планирует запустить объект в промышленную эксплуатацию в 2025 г.) в иркутской агломерации. 

Следом маячат те самые edge-ЦОДы, которые снимают опасения за безопасность данных у промышленных предприятий, снижают нагрузку на телеком-инфраструктуру и уменьшают требования к ней, а также создают вычислительную базу для IoT/IIoT-технологий, которые, в свою очередь, являются ключевым поставщиком данных для промышленного применения ИИ. А значит, небольшие модульные ЦОДы, которые будут размещаться вблизи точек сбора первичной информации – около или на территории заводов, технопарков или же предприятий горнодобывающей отрасли, – вполне могут стать новым трендом в ближайшие годы. На рынке уже появилось предложение таких микроЦОДов в аренду (по подписке, как мы любим). Это сайд-проект одного из лидеров производства модульных ЦОДов. И предлагается не просто контейнер со всей инженерной инфраструктурой, но и полный комплекс с вычислительным стеком, в том числе на базе GPU.

Здесь важен и тренд на мультиагентные системы генеративного ИИ, который во всю проявляется в западном бигтехе и постепенно приходит к нам. Мультиагентная система – сеть автономных агентов на базе ИИ, которые взаимодействуют и сотрудничают для достижения конкретных целей в общей среде. Такие агенты способны к автономному принятию решений, общению с другими агентами и координации действий для выполнения сложных задач. Агентами могут быть модели ИИ, программы, роботы и другие вычислительные объекты. Ключевое преимущество мультиагентных систем – их повышенная гибкость и масштабируемость, необходимые для адаптации к меняющимся потребностям бизнеса. В отличие от одноагентных систем, мультиагенты могут объединять различные модели машинного обучения и ИИ и интегрироваться со сторонними инструментами.

То есть собрали данные на предприятии, обработали в edge-ЦОДе, обучили агента и интегрировали его с LLM техногигантов (с их облаком, или если они вам отдали модель, то в вашем облаке в Москве). В итоге получаете эффективный и безопасный ИИ, специфичный именно для вашего бизнеса, вашего технологического ландшафта.

Не «железом» единым

Но вернемся к «железу»: для всего этого разнообразия моделей и радужных перспектив нужна уйма GPU, и не «гражданских» игровых, а специализированных, от той же Nvidia. А США ввели санкции против России и особый контроль за поставками ускорителей в нашу страну и в ряд других. У нас, как и в Китае, разрабатывается импортозамещение ускорителей для ИИ, те же TPU, но по сравнению с китайскими товарищами мы только в начале пути. Да и в Китае на начальном этапе разработки нашумевшей нейросети DeepSeek использовались ускорители Nvidia. Можно, конечно, уповать на «серый» импорт – научились же наши дистрибьюторы возить через Среднюю Азию, ОАЭ и другие страны телеком-оборудование, комплектующие для серверов и прочую хайтек-санкционку. 

Но не все так просто. Nvidia блокирует российским компаниям доступ к виртуализации GPU, а без нее нормально «считать ИИ» не получится. При этом на рынке дефицита собственно GPU Nvidia для ИИ-вычислений не наблюдается, поскольку у большинства провайдеров за пару лет санкций вопрос решился, хотя у кого-то нет карт актуальных моделей, а у кого-то GPU-услуги серьезно подорожали. Проблема же с доступом к системному ПО Nvidia часто решается, как и многое сейчас, через «серую зону» зарубежных локаций наших провайдеров или «еще более серую зону» с юридическим разделением бизнеса на глобальный и российский. Нередко акционеры и команды разработки при этом связи не теряют и активно поддерживают друг друга, в том числе доступом к Nvidia Enterprise Account. Такие примеры известны и среди топовых, и среди небольших нишевых провайдеров. Только в редких исключениях мы наблюдаем реальное разделение бизнеса.

Если же тема ИИ-вычислений так горяча, стоит ли пытаться выходить на этот рынок, при том, что весь облачный провайдинг давно стал commodity? Давайте порассуждаем на эту тему. 

Что могут «верхи»

Что у нас есть в «верхах»? Там есть нацпроект «Экономика данных», в рамках которого много говорится про и ИИ, и про ожидания от него. Например, председатель Правительства России Михаил Мишустин на форуме Digital Almaty в феврале 2024 г. сообщил, что экономический эффект от внедрения технологий ИИ в России составляет около 1 трлн руб., а к 2030 г. превысит уже 10 трлн руб. Он заявил: «Данный показатель добавит к ВВП почти 6%». Однако уже в октябре глава Минцифры Максут Шадаев озвучил позицию ведомства по суперкомпьютерам для ИИ. Он считает, что Сбер и «Яндекс» могут обеспечить рынок мощностями за свой счет. При этом в планах господдержки есть возмещение части затрат бизнеса на внедрение ИИ. Ситуация, по сути, такая же, как с программой поддержки импортозамещения ПО для СМБ, когда компаниям-поставщикам субсидировалось 50% стоимости лицензий для СМБ-клиентов. Только в 2022 г. таких вендоров и провайдеров ПО (включая облачное, например «МойСклад») было 30, а тут их всего два, хотя суперкомпьютеры, как мы отметили, есть у трех провайдеров, а сервисов-провайдеров, которые позволяют эффективно рассчитывать ИИ-модели, уже больше десятка. Напоминает выбор провайдеров «Гостеха» (кстати, что с ним?) и «Гособлака». 

Кстати, о «Гособлаке», «Ростелекоме» и его облачной «дочке» «РТК-ЦОД». Получается, у мегаоператора нет собственного предложения для ИИ? Да, фактически нет. Есть элементы в виде предложения GPU Bare Metal и есть «внутренний супермаркет цифровых ассистентов». Но нет MLOps-платформы и связанных с ней сервисов. Однако заявляется о больших планах по ИИ, заложенных в стратегию. Что это может означать в свете того, что «РТК-ЦОД» активно собирается на IPO даже в текущий сложный макроэкономический момент? А это означает, что после проведения размещения привлеченные средства направят в том числе на M&A и, вероятно, в тех нишах, где провайдеру не хватает экспертизы. Речь, например, может идти о покупке вендора MLOps-платформы или провайдеров с хорошим набором ИИ-продуктов и профильной клиентской базой. Но не будем отбирать хлеб у M&A-аналитиков «РТК-ЦОД» и называть кандидатов, тем более что звезд данной категории «на продажу» просто нет. 

Чего хочет крупный бизнес

Теперь, разобравшись с «верхами» в лице государства и приближенных к нему облачных операторов, посмотрим, что происходит в крупном и федеральном бизнесе. Как уже было отмечено, группа En+ выводит на рынок провайдера Cloud X. Зачем? Очевидно, крупные промышленные холдинги оценили, что ценность облаков и ИИ-вычислений сильно возросла в процессе цифровизации бизнеса. А цифровизация напрямую влияет на повышение эффективности производства. Значит, если у тебя есть доступ к относительно дешевой генерации электроэнергии, например, каскад ГЭС или же атомная энергия или, на худой конец, добыча нефти и газа, то можно в рамках цифровой трансформации (не путать с упомянутой цифровизацией) создать собственного эффективного провайдера. Как минимум кэптивного, который решит вопросы цифровизации и повышения эффективности внутренних структур, не отдавая чувствительные данные в чужие облака. Если же мощности и силы останутся, то можно заняться и цифровизацией внешних клиентов. Так что, думаю, Cloud X не последний провайдер такого рода. 

Кстати, в этом направлении движутся не только добывающие и промышленные компании, но и медиахолдинги. С ними тоже вроде бы понятно: создание, распространение и хранение гигантских объемов контента требуют все больше вычислительных (облачных) мощностей. Там же тоже идет импортозамещение: сегодня не как раньше – закупить фильм/сериал и показать его по ТВ или выгрузить свой контент на YouTube, теперь у нас все больше своего контента: и создаем его мы сами, и показываем сами, и раздаем по стране через собственные сети. В феврале MWS заявила, что за 2024 г. ее CDN-сеть выросла в 2,5 раза. Правда, выручка в этом случае, скорее всего, в основном будет косвенной, внутригрупповой – от KION. Поэтому же, вероятно, билайн при покупке CDNvideo маркирует выручку от актива как B2O, а не как облако. Но и провайдерам меньше перепадает медийных заказов. По данным отраслевых экспертов, один из облачных провайдеров, у которого есть экспертиза и CDN-сервис, получил от одного государственного медиахолдинга инвестиции и заказ на создание очередного «российского YouTube». Причем этот провайдер – из тех самых разделенных на «глобального» и российского. Но разделение гальваническое.

А есть ли у совсем новых проектов, без дешевой энергии или медиазадач, шансы выйти на рынок облачного и ИИ-провайдинга и добиться на нем успеха? Шансы есть, но нужно правильное позиционирование, «нечестное рыночное преимущество» в виде уже строящегося за «старые» дешевые деньги ЦОДа или доступа к дешевым зарубежным деньгам. А также запасной план, если ставка на ИИ не оправдается. В общем, дело это дорогое, но нишу свою найти можно. Только в 2024 г. мне довелось участвовать в создании и верификации бизнес-модели облачного провайдера для двух новых игроков. Один проект в итоге поставили на паузу, а другой медленно, но верно движется. Думаю, они не последние, ждем новых запусков в 2025 г.

P.S. Несмотря на то что эта статья полностью посвящена теме ИИ-вычислений, при ее написании никакой GPT не использовался.

Антон Салов, эксперт RCCPA
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!

Продолжение использования сайта пользователем интерпретируется как согласие на обработку фрагментов персональных данных (таких, как cookies) для целей корректной работы сайта.

Согласен