Гонка мегаватт: как растущий спрос на ИИ меняет рынок ЦОД

Резкий рост ИИ-нагрузок вызвал «гонку мегаватт» в секторе центров обработки данных (ЦОД). Спрос на в вычислительные ресурсы растёт быстрее, чем ввод новых дата-центров, что приводит к перенасыщению уже существующих площадок, дефициту электроэнергии и подъёму стоимости подключения мощностей. По оценкам отраслевых экспертов, к 2030г. совокупное энергопотребление ЦОД в РФ может вырасти до 2,5 ГВт (с ~1 ГВт сегодня), при этом на нужды специализированных ИИ-центров потребуется около 394 МВт генерации и порядка 1,7 трлн рублей инвестиций. Гиперскейлеры и крупные корпорации получают преимущества за счет проектирование ЦОД под ИИ ещё на этапе планирования (жидкостное охлаждение, усиленные контура питания, высокая отказоустойчивость). В то же время традиционные операторы сталкиваются с барьерами – долгим оформлением подключения, нехваткой энергетических и кадровых ресурсов, жёстким регулированием. Переход к ИИ-нагрузкам меняет соотношения капитальных вложений и операционных расходов. Стоимость электроэнергии и систем охлаждение становятся доминирующими статьями.

ИИ-приложения требуют значительно более высокой плотности нагрузки на стойку, чем традиционные ЦОД. В «обычном» дата-центре средняя потребляемая мощность на стойку составляет порядка 7–9 кВт, тогда как современные GPU-кластеры – десятки киловатт. По оценкам экспертов, в ИИ-ориентированных ЦОДах диапазон составляет 40–120 кВт на стойку (некоторые специализированные проекты закладывают и более 200 кВт). Например, проект CloudX в Иркутской области с общей мощностью 72 МВт рассчитан на 2880 стоек по ~200 кВт каждая.

Высокая мощность требований предъявляется и к сетевой и резервной инфраструктуре. ЦОД проектируются с резервированием по нескольким источникам питания, несколькими вводами, источники бесперебойного питания и дизельные генераторы, а также высокоскоростными сетевыми магистралями с минимальной задержкой. Жидкостное охлаждение и гибридные схемы становятся нормой. Системы с прямым водяным охлаждением или погружением (immersion) позволяют отводить столь большие тепловые нагрузки с меньшим потреблением электроэнергии на обдув. По оценкам операторов, на охлаждение современных ИИ-стеков уходит значительная доля общего энергопотребления ЦОД.

С ростом вычислительных мощностей суммарное энергопотребление ЦОД стремительно увеличивается. Нехватка электроэнергии и сложности с подключением уже становится проблемой. Подключение новой ЦОД с потреблением электроэнергии 20 МВт могут достигать от 1,5 года до 4 лет в зависимости от региона. Существующие сети часто не способны обеспечить одновременную подачу десятков мегаватт. Поэтому операторы вынуждены планировать заранее и искать нестандартные решения.

К таковым относится привязка ЦОД к собственным или выделенным электростанциям. Власти обсуждают схемы «АЭС/ТЭС + ЦОД», а также допускают подключение к распределённым генераторам и накопителям не просто как резерву, а как части энергосистемы. В ряде регионов есть профицит энергии (например, Магаданская область с гидроэнергией). Их планомерно привлекают под высокоплотные вычислительные кластеры. Ещё одна мера являются льготные тарифы для северных регионов, что должно стимулировать перенос избыточной мощности ЦОД.

По мнению Алексея Николаевича Чернякова, кандидата философских наук, доцента кафедры информационных технологий Факультета информационных технологий и анализа больших данных Финансового университета при Правительстве Российской Федерации, рынок ЦОД вступает в фазу структурной перестройки: выигрывать будут те операторы, кто сумеет синхронизировать развитие вычислительных мощностей с энергетической стратегией региона и предложить клиентам комплексные решения для ИИ-нагрузок.

Все это требует масштабных капитальных вложений в инженерную инфраструктуру. Большие ЦОД часто сразу проектируются с собственными генераторами и комплексным резервированием. За счёт этого идет удорожание строительство, но увеличивается надёжность работы ЦОД. А это могут себе позволить только крупные игроки, которые и выигрывают конкуренцию.

Изменившиеся условия способствуют перетоку спроса к крупным и специализированным ЦОД. Гиперскейлеры (крупные облачные операторы и интернет-компании) уже проектируют собственные ЦОД с учётом ИИ- требований. Корпоративный сегмент тоже активизировался. Многие компании (Wildberries, X5 Retail Group, РУСАЛ, Сбер и др.) рассматривают собственные ЦОД как часть стратегической ИТ-инфраструктуры. Например, Wildberries объявила о строительстве ЦОД за миллиард рублей.

Развитие ЦОД сдерживают сразу несколько факторов. Новый ФЗ «О ЦОДах» ввёл понятие дата-центра и запретил размещение майнинга внутри ЦОД. Готовится реестр ЦОД и стандарты (СП 541.1325800.2024), которые зададут жесткую проектную базу. Требования по импортозамещению влечёт необходимость перехода на отечественное оборудование. В частности, вводятся «специальные инвестиционные контракты» (СПИК) для операторов ЦОД с условием 50–70% локализации серверов и систем хранения.

Усложнение проектов и рост плотности требуют новых компетенций, что ведет к дефициту кадров. Ограниченный импорт серверов и систем охлаждения приводит к дефициту оборудования. Крупные операторы стараются диверсифицировать поставки и развивать собственное производство критичных компонентов.

Повышение ставок на электроэнергию и экологические стандарты снижают маржинальность проектов. С другой стороны, энергетическая система начинает рассматривать ЦОД как цифровое предприятия. Пока же остается неопределённость с тарифами и регуляторными преференциями.

Все эти риски диктуют инвесторам осторожность. Крупные проекты требуют долгосрочного финансирования и тщательно проработанного плана электроснабжения. С одной стороны, дефицит оборудования и финансирования повышает барьеры входа (конкуренция за ресурсы), но с другой происходит рост спроса на вычислительные мощности.

В целом переход к «ИИ-ориентированным» ЦОД требует согласованных действий: операторы должны перестраивать инженерные решения, инвесторы – учесть новые риски и возможности, а регуляторы – обеспечить условия для балансированного роста, учитывая энергоёмкость новых цифровых мощностей.

Другие пресс-релизы