До 2030 года в России может быть создано 10 новых суперкомпьютеров

У них есть шанс попасть в мировой суперкомпьютерный рейтинг
SberCloud

В России до 2030 г. может появиться 10 новых суперкомпьютеров мощностью 10 000–15 000 GPU H100. Об этом говорится в рабочем документе АНО «Цифровая экономика», составленном по итогам конференции «Э+Данные», которая прошла 11 сентября. Свод предложений, составленных по итогам конференции, АНО должно направить в правительство.

В документе АНО не уточняется, идет речь о совокупной мощности машин 10 000–15 000 GPU H100 или же о планируемой мощности каждого устройства. H100 – это чипы Nvidia последнего поколения, выпущенные в 2022 г. Каждый процессор содержит 80 млрд транзисторов, что обеспечивает производительность в 56–66 терафлопсов. В сентябре 2022 г. стало известно, что США ввели ограничения на экспорт в Россию и Китай ряда графических процессоров (GPU) производства AMD и Nvidia (в том числе H100).

Как следует из презентации АНО «Цифровая экономика», с предложением о создании суперкомпьютеров выступила подгруппа «Доверенная инфраструктура», возглавляемая вице-президентом «Ростелекома» Борисом Глазковым. Представители телекомоператора и Минцифры отказались от комментариев.

Представитель «Цифровой экономики» сообщил, что АНО находится в тесном контакте с бизнес-сообществом, собирает мнения и предложения по теме экономики данных. «Пока говорить о том, какие предложения будут взяты в дальнейшую проработку, преждевременно», – добавил он. Представитель аппарата вице-премьера Дмитрия Чернышенко (курирует IT) сообщил «Ведомостям», что аппарат пока не получал таких предложений.

Сейчас семь российских суперкомпьютеров входят в мировой рейтинг Топ500. У США в нем 150 машин, у Китая – 134. Следом идут Германия с 36 суперкомпьютерами и Япония с 33. На июнь 2023 г. (рейтинг обновляется раз в полгода) Россия занимает в рейтинге 12-ю строчку.

Из российских суперкомпьютеров три («Ляпунов», «Червоненкис» и «Галушкин») принадлежат «Яндексу», два (Christofari и Christofari Neo) – Сбербанку и по одному МГУ («Ломоносов») и МТС (GROM). Все эти компьютеры работают на графических ускорителях от Nvidia прошлых поколений – Tesla K, P-серия, A100. Впрочем, есть и менее мощные машины, например у «Тинькофф банка», «Росатома» или Курчатовского института.

Самый мощный суперкомпьютер «Яндекса» – «Червоненкис» имеет 1592 узла с Nvidia A100 и занимает 27-е место в мире по вычислительной мощности, указано на сайте компании. Его мощность – 21,53 петафлопса. Производительность самого мощного суперкомпьютера в мире – Frontier (США) составляет 1194 петафлопса (данные рейтинга Топ500).

Бенчмарки показывают, что карты H100 в среднем в 1,66 раза быстрее карт A100, на которых работают существующие суперкомпьютеры, отмечает директор по исследованиям VisionLabs Александр Чигорин. Соответственно, 10 суперкомпьютеров с суммарным количеством чипов H100 в 15 000 единиц – это заявка на попадание в топ мирового суперкомпьютерного рейтинга, отмечает он. На сегодняшний день кластер с 15 000 видеокарт Nvidia H100 стал бы одним из самых производительных в мире, подтверждает заместитель гендиректора по разработке и эксплуатации продуктов Selectel Сергей Пимков. «Аналитики компании Nvidia даже дали название феномену постоянного роста производительности графических ускорителей – закон Хуанга», – отмечает он.

В реализации таких проектов могут быть заинтересованы крупные компании типа «Яндекса» и «Сбера», которые уже показали, что умеют строить такие машины, добавляет Чигорин.

По мнению эксперта, такие вычислительные мощности требуются для моделей искусственного интеллекта (ИИ), например GPT4. «Со временем ставки только растут, поэтому для обучения ИИ подобные суперкомпьютеры точно необходимы», – говорит он.

«Яндекс» использует методы машинного обучения, чтобы лучше помогать людям решать их задачи, заявил представитель компании. «Благодаря им мы получаем быстрые и точные ответы в «Поиске», беседуем с «Алисой», как с живым человеком, смотрим видео сразу на родном языке и делаем множество других вещей», – привел он примеры.

Один из самых распространенных сценариев использования суперкомпьютеров – это обучение больших языковых моделей, которые позволяют создавать наиболее совершенные чат-боты на базе ИИ, подтверждает Пимков. «В целом суперкомпьютеры нужны тогда, когда необходимо проводить максимально интенсивные вычисления – для прогнозирования погодно-климатических условий, инженерных симуляций, математических расчетов, синтеза новых материалов, моделирования космоса», – объясняет эксперт.

Представители МГУ, «Сбера» и «Росатома» не ответили на вопросы «Ведомостей».

10 машин с 10 000–15 000 GPU при сегодняшних ценах обойдутся в $6 млрд, или более 500 000 млрд руб., говорит генеральный директор компании «Промобит» Максим Копосов. Привезти такое количество чипов незаметно для производителя с учетом действующего запрета, вероятно, будет очень сложно, полагает эксперт. «Такие суммы правильнее было вложить в создание российских GPU – от разработки до производства. Хотя бы в партнерстве с дружественными странами», – отмечает он.

По оценке Пимкова, для покупки такого количества GPU потребуется $500–700 млн. Но к 2030 г. проект аналогичной мощности будет стоить примерно в 10 раз дешевле, так как GPU довольно быстро улучшаются, появляются новые модели, старые при этом теряют в цене, отмечает он.