Рубрикатор |
Статьи |
Олег КОТЕЛЮХ | 23 декабря 2019 |
Я водяной, я водяной!
Использование в дата-центрах жидкостного охлаждения помогает не только уменьшить расходы на электроэнергию, но и сократить вредные для окружающей среды выбросы.
По оценкам экспертов, на центры обработки данных приходится от 3 до 5% всей потребляемой в мире электроэнергии. При этом они генерируют до 4% выбросов CO2 – это в 2 раза больше, чем, например, коммерческие авиаперевозки. Экоактивистам стоило бы переключить свое внимание с самолетов на соцсети.
Рост объемов бизнес-данных заставляет ЦОДы расширять площади и наращивать мощности. На рынке появляются гипермасштабируемые дата-центры, а плотность заполнения традиционных центров обработки данных вычислительным оборудованием непрерывно растет.
Одновременно все шире используются суперкомпьютеры, графические процессоры и технологии, требующие крупных энергетических затрат: машинное обучение, IoT, искусственный интеллект. И если еще недавно усредненный показатель потребления энергии по ЦОДам составлял всего 5 кВт на стойку, то уже в 2020 году он, вероятно, перешагнет планку в 11 кВт. С таким количеством выделяемого тепла системы воздушного охлаждения справляются с трудом. Поэтому владельцы ЦОДов ищут более энергоемкие инновационные решения, в первую очередь в сфере жидкостного охлаждения. Аналитики Global Market Insights предполагают, что рынок таких продуктов в следующие шесть лет вырастет почти втрое.
Не воздухом единым
Жидкостное охлаждение подразумевает теплообмен за счет непосредственного или опосредованного (в зависимости от типа охлаждения) контакта вычислительных устройств с водой или диэлектрической жидкостью. Сама концепция отвода тепла при помощи воды появилась еще в 1960-х, но долгие годы не была востребована – на рынке безраздельно властвовал более дешевый и безопасный метод воздушного охлаждения. Несмотря на то что с 80-х годов прошлого века некоторые ЦОДы использовали жидкостное охлаждение для инфраструктуры мейнфреймов, реальная популярность к подобным системам пришла только десять лет назад.
Причина простая. Современные высокоскоростные процессоры чрезмерно нагреваются, а серверы расположены слишком близко, чтобы воздух мог их охлаждать. Такая система охлаждения способна обрабатывать не более 20 кубометров воздуха в минуту, в то время как жидкостная за то же время прокачивает до 300 л жидкости. В итоге системы жидкостного охлаждения позволяют достичь невероятных значений PUE (коэффициент эффективности использования энергии).
Жидкостное охлаждение имеет и другие преимущества по сравнению с воздушным:
- возможность развертывания инфраструктуры с более высокой плотностью;
- сниженная стоимость владения;
- меньшая занимаемая площадь;
- бесшумная работа: нет вентиляторов и насосов, издающих шум.
Но и барьеры для внедрения систем жидкостного охлаждения пока высоки. Эти системы имеют сложную структуру, они состоят из серверных шасси, коллекторов, трубопроводов и пунктов управления расходом жидкости. Может возникнуть протечка, произойти поражение электрическим током, вода может попасть в электронные модули. Но системы, в которых применяется диэлектрическая жидкость, снимают большую часть рисков. С другой стороны, тот факт, что на рынке отсутствуют адекватные нормы и стандарты производства решений, усложняет ситуацию.
Исключения, пока исключения
Поэтому сегодня жидкостное охлаждение используют в основном в ситуациях, где требуется огромный объем вычислительных мощностей, а процессоры работают почти со 100%-ной загрузкой: в инновационных приложениях, суперкомпьютерах и промышленных средах.
Графические процессоры
Аппаратные ускорители графических процессоров (GPU) проектируются для работы при более высоких температурах, чем традиционные процессоры, – воздушные охладительные приборы просто не справляются с таким количеством тепла.
Промышленные IoT-системы
В суровых условиях фабрик температура и качество воздуха могут помешать нормальной работе систем воздушного охлаждения. В то же время решения на базе жидкостного охлаждения могут быть автономными и находиться в герметичных блоках – так они защищены от загрязнений или перепадов температуры.
Приложения машинного интеллекта
В этой сфере используются сложные процессоры компактного формата, причем в каждом серверном корпусе находится несколько чипов с серьезным энергопотреблением. Это повышает требования к охлаждению серверных комнат, где расположено оборудование. К примеру, в 2018 году при развертывании вычислительной структуры Google на основе микросхем Tensor Processing Unit 3.0, задействующих алгоритмы ИИ, корпорация ввела жидкостное охлаждение по всей инфраструктуре своих ЦОДов.
Суперкомпьютеры
В топ-500 самых производительных компьютеров мира ежегодно добавляется все больше оборудования, работающего на жидкостном охлаждении. Не в последнюю очередь – из-за экономии средств: эксплуатационные расходы в этом случае можно снизить почти на 40%. И суперкомпьютер «Ломоносов 2», установленный в МГУ им. Ломоносова, и «Говорун», находящийся в Лаборатории информационных технологий ОИЯИ и выполняющий расчеты для задач теоретической физики и моделирование для проекта NICA, имеют системы жидкостного охлаждения.
В тесноте, да не в обиде
Остается лишь один вопрос – где найти столько жидкости, чтобы обслуживать огромные, мощные инфраструктурные сооружения?
Когда Google столкнулась с тем, что для обеспечения температурного режима в ЦОДе в Южной Каролине потребуется выкачивать несколько миллионов литров жидкости в день, было решено использовать подземные воды. В 2017 году компания подверглась критике из-за увеличения забора воды, который мог нарушить экосистему подземного водоема. Но перспективы таких проектов очевидны.
Другой пример использования глубинных вод (и горных недр) – ЦОД Green Mountain DC 1-Stavanger. Он расположился внутри скал одного из норвежских фьордов, в законсервированном хранилище боеприпасов НАТО. Источником холода для ЦОДа служит вода из фьорда на глубине 100 м. Такая глубина позволяет сохранять стабильную среднегодовую температуру воды, равную 8°C.
К любопытному решению пришла телекоммуникационная компания Kyocera Communication Systems, которая планирует охлаждать ЦОД на о. Хоккайдо с помощью снега. Зимой дата-центр за счет низких температур окружающей среды будет отдавать тепло. А для жарких летних месяцев в термальном хранилище у ЦОДа будут собирать и запасать снег для охлаждения. Дата-центр планируют запустить в эксплуатацию в 2021 году.
Наконец, много говорится о строительстве ЦОДов в непосредственной близости от крупных водоемов. ИТ-гиганты экспериментируют со сложными подводными сооружениями, а игроки поменьше предлагают гораздо более практичные решения. Например, несколько лет назад молодая калифорнийская компания Nautilus Data Technologies выступила с предложением размещать дата-центры на баржах, стоящих у причалов. Это освобождает от необходимости строить трубопроводы для доступа к водным ресурсам – можно просто поместить систему охлаждения ниже палубы с компьютерным оборудованием.
Россия в «воздухе»
На сегодняшний день жидкостное охлаждение в России используют меньше 1% участников рынка, так что перспективы роста у технологии в нашей стане есть. Но подавляющее большинство компаний предпочитает работать в привычном «воздушном» формате. Хватает скептических оценок технологии, основанных на консервативном восприятии.
Как и во многих других случаях, позиция технических специалистов зачастую оказывается барьером на пути развития бизнеса, поскольку сохраняет привычный статус-кво, который невыгоден бизнесу и морально устарел. Но вопросы энергоэффективности становятся основными, отечественному рынку придется начать меняться в русле мировых трендов.
Олег Котелюх, управляющий партнер, «Инпро
Технолоджис»
Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!