Rambler's Top100
Статьи ИКС № 07-08 2010
Евгения ВОЛЫНКИНА  27 июля 2010

За эффективность и uptime-зацию

В последний год дата-центры в России – и корпоративные, и коммерческие – открывались с завидной и иногда даже пугающей регулярностью, а громкие анонсы грандиозных свершений на ниве строительства ЦОДов звучали как в докризисные времена. И все это – на фоне предупреждений о явном превышении предложения над спросом.

Коммерческие дата-центры сейчас, как правило, строят те, кто уже имеет опыт проектирования, строительства и эксплуатации подобных объектов. Причем, судя по их заявлениям, каждый следующий ЦОД или следующая очередь уже имеющегося оснащаются все более высокотехнологичным, а значит более дорогим оборудованием. Но если пару лет назад площади ЦОДов чуть ли не полностью бронировались клиентами еще до ввода в эксплуатацию и за воротами оставались толпы страждущих, то теперь предварительная продажа даже 15% площадей нового ЦОДа – повод для гордости владельца.


ТСО, PUE и ФЗ


Потратив на старте немало на строительство и новое оборудование (а кое-кто и на подключение к электрическим сетям), инициаторы подобных недешевых проектов, скорее всего, рассчитывают на снижение операционных расходов, чтобы при общерыночном падении цен на услуги ЦОДов снизить общую стоимость владения (Total Cost of Ownership, ТСО) и добиться окупаемости в запланированные сроки.


Понятно, что реальнее всего снизить операционные расходы, сократив затраты на электричество. Технический директор Siemens Enterprise Networks Владимир Ткачев отмечает, что внимание заказчиков к энергоэффективности ЦОДов стало тенденцией уже довольно давно. Особенно это касается провайдеров коммерческих дата-центров. «Для них экономия электроэнергии всегда являлась ключевым вопросом при создании и обновлении дата-центров. Не секрет, что «выбивание» увеличения мощности подводимого электропитания у энергетических компаний практически везде сопряжено с серьезными проблемами, которые часто нельзя решить даже большими финансовыми затратами», – подчеркивает он.


В общем, в отношении энергосбережения мы наконец-то пошли в ногу с развитыми странами, хотя произошло это, можно сказать, поневоле. Стараниями наших энергетиков, которые постоянно повышают тарифы, не желают вводить новые мощности и требуют непомерных денег за «изыскание внутренних резервов», энергосбережение стало очень популярной темой для владельцев и коммерческих, и корпоративных дата-центров. Ею прониклось и государство, издавшее федеральный закон №261-ФЗ "Об энергосбережении и о повышении энергетической эффективности и о внесении изменений в отдельные законодательные акты РФ" от 23.11.2009г. И теперь почти все, кто хоть что-нибудь слышал о дата-центрах, знают три заветные буквы PUE (power usage effectiveness) – это коэффициент эффективности использования электроэнергии, который равен отношению общей мощности оборудования дата-центра к мощности, потребляемой его ИТ-оборудованием. Иначе говоря, если PUE=2, то на электропитание серверов расходуется лишь половина подводимой энергии ЦОДа, а остальное «съедают» его инженерные системы, что по нынешним временам представляется расточительностью. Коэффициент PUE недавно был официально принят в качестве единой оценки энергоэффективности дата-центров в США, Европе и Японии.


Фрикулинг и другая экзотика


Вполне преуспели в снижении энергопотребления дата-центров разработчики технологий виртуализации (правда, заметный выигрыш они дают лишь при работе с определенными приложениями, поэтому подходят не всем) и производители систем охлаждения с поддержкой режима фрикулинга, т.е. свободного охлаждения внешним воздухом, без компрессоров. Кстати, продвижению фрикулинга может помочь новый стандарт ASHRAE, расширивший допустимый диапазон температур на входе сервера с 20–25 до 18–27°С. По идее Россия с ее нежарким климатом может стать территорией почти полного фрикулинга. Правда, системы охлаждения, поддерживающие режим фрикулинга или полностью работающие в этом режиме, как минимум на 30% дороже обычных фреоновых DX-систем. Да, их PUE заметно ниже, и электроэнергии они потребляют существенно меньше, но амортизационные расходы и российские цены на электричество, которые пока ниже, чем в Европе, приводят к тому, что выигрыш в ТСО наступает не так быстро. как хотелось бы инвесторам. Но будущее, безусловно, за фрикулингом.


Вообще дело снижения энергопотребления и минимизации PUE принимает иногда довольно причудливые формы. Например, недавно в Хельсинки начал работу новый дата-центр в большой пещере под местным собором. Тепло, выделяемое его серверами, используется в городской сети центрального отопления для подогрева воды, и таким способом планируется экономить около $560 тыс. в год на оплате электроэнергии. В Стокгольме в одном из бункеров, построенном во времена «холодной войны», на глубине 30 м под землей теперь находится ЦОД одного из крупнейших Интернет-провайдеров Швеции. Компания HP не стала лезть под землю, а построила дата-центр в Великобритании на берегу Северного моря. В нем в системе охлаждения используется холодный морской воздух и технология фрикулинга, в результате чего PUE объекта составляет всего 1,2. Это крупный ЦОД с четырьмя серверными залами общей площадью более 33 тыс. м2, поэтому экономия на электричестве заявлена очень солидная – порядка $4 млн в год.


Отечественный PUE стремится к 1


Концепт ЦОДа от Stack labs в ночных огнях: красный свет – помещения с горячим воздухом, синий – с холодным.Приятно отметить, что разработками в области фрикулинга и снижения ТСО дата-центров, причем довольно успешно, занимаются и российские специалисты. Недавно компания Stack Labs предложила новую концепцию строительства ЦОДов. Она предполагает быстрое создание модульных дата-центров заданной мощности и необходимого уровня надежности в том месте, где это нужно в данный момент. Полнофункциональным «квантом» такого ЦОДа является модуль КУБ: название отражает не форму (размеры модуля составляют 24х6х7м), а концепцию сборки из «кубиков» дата-центров разной конфигурации. Установив один КУБ, можно потом добавлять к нему новые модули и их блоки, увеличивать нагрузку и уровень Tier, не останавливая работы дата-центра, что в случае традиционного ЦОДа просто невозможно.


Создатели постарались максимально упростить конструкции всех систем и уменьшить количество их элементов (в дата-центре нет трубопроводов, внутренних блоков кондиционеров и аккумуляторных батарей). Причем, как подчеркнул генеральный директор Stack Group Сергей Лысаков, все собрано из вполне доступных на российском рынке деталей. Модуль состоит из трех блоков: небольшого серверного зала на 20–25 стоек, коридора для доступа к стойкам и системы охлаждения новой конструкции с роторным теплообменником от Kyoto Cooling. Когда позволяет температура за бортом, система охлаждения работает в режиме фрикулинга, а когда на улице слишком жарко, то включаются чиллеры. Интеллектуальная система управления на основе данных системы мониторинга регулирует работу всех систем дата-центра в реальном времени в соответствии с нагрузкой и тем самым вносит свой вклад в минимизацию PUE. Уже построен первый демонстрационный образец КУБа с подведенной (от ДГУ) мощностью 300 кВт. В ходе испытаний при температуре за бортом +18°С PUE этого дата-центра равнялся 1,02(!), а когда на улице было +27°С и в охлаждении участвовали чиллеры, PUE составлял 1,24.


По словам С. Лысакова, после отладки технологии сборку модулей можно будет проводить недели за полторы, строительство такого ЦОДа обойдется чуть дешевле, чем классического дата-центра той же мощности, но затраты на эксплуатацию будут как минимум на 30% (а то и вдвое) ниже за счет меньшего количества элементов систем, простой их замены, развитых средств мониторинга и интеллектуальной системы управления.


К настоящему Tier N?


Б. Грановский, «Стинс Коман»: «Наибольшая экономия сейчас достигается на подключении. Если вы приходите на предприятие, где есть свободное электричество, то можете сэкономить на 1 МВт до $1 млн».

Еще одной тенденцией последнего года можно назвать рост интереса к построению «правильных» дата-центров и их официальной сертификации в Uptime Institute. Конечно, владельцы российских ЦОДов уже давно говорят о соответствии своих объектов уровням Tier 3 и Tier 3+ (заявления о Tier 2 крайне редки, по всей видимости, это считается недостойным уважающего себя ЦОДа). Хотя сертификата от Uptime Institute, единственной организации, имеющей право давать такие «звания», нет пока ни у одного проекта российского ЦОДа и уж тем более ни у одной площадки. Правда, в прошлом году на одной из конференций было объявлено, что четыре российских дата-центра (без указания названий) «как раз сейчас» проходят сертификацию в Uptime, но это оказалось не более чем слухами. Зато в сентябре прошлого года в России появились первые специалисты, прошедшие курс обучения в Uptime Institute и получившие сертификаты Accredited Tier Designer. И сейчас в семи российских компаниях, специализирующихся в области проектирования и строительства дата-центров, работают в общей сложности 11 «аккредитованных проектировщиков», которые могут проектировать дата-центры, способные пройти сертификацию в Uptime Institute. Обучаются российские проектировщики ЦОДов и на специальных курсах профессиональной некоммерческой ассоциации BICSI.


Но скоро у нас в стране все-таки должны появиться официально сертифицированные дата-центры. На сайте Uptime Institute можно найти информацию о том, что процедуру сертификации на уровень Tier 3 сейчас проходят два проекта анонимных дата-центров, расположенных в России, а в списке членов Uptime (это необходимое условие сертификации) в регионе ЕМЕА фигурируют DataSpace Partners и Sberbank. Возможно, это простое совпадение, но о компании DataSpace Partners известно, что она участвует в нескольких проектах строительства крупных коммерческих дата-центров в России. Ну а чем занимается организация под названием Sberbank, вряд ли требует пояснений. Известно также, что Сбербанк собирается сертифицировать в Uptime не только проект, но и сам дата-центр, который будет по этому проекту построен (а это отдельная, не менее сложная процедура).


Кстати, с 1 июля Uptime Institute ввел еще один тип сертификации – сертификацию системы эксплуатации Tier Standard: Operational Sustainability для дата-центра, уже имеющего сертификат Data Center Site Infrastructure Tier Standard: Topology. Этот шаг фиксирует давно признанный в профессиональном сообществе факт, что неграмотной эксплуатацией можно сильно снизить уровень надежности дата-центра и даже «загубить» площадку буквально за полгода. По данным Uptime, в 70% случаев перебоев в работе дата-центров виноват именно человеческий фактор, т.е. ошибки в эксплуатации. Для систем эксплуатации введено три сертификата – Gold, Silver и Bronze. Говорят, что Сбербанк вслед за сертификацией ЦОДа будет сертифицировать и свою службу эксплуатации. Наверняка на «золотой» уровень.


Суровая правда нашей жизни такова, что клиент коммерческого дата-центра или компании, владеющей корпоративным ЦОДом, не имеет никаких гарантий того, что его бизнес или частная жизнь не пострадают от сбоев в работе этого дата-центра. Даже если бы существовал российский стандарт для ЦОДов, сертификату соответствия этому стандарту вряд ли кто-нибудь доверял бы всерьез (все знают, как у нас получают практически любую бумагу). Документу от Uptime Institute доверять будут все: профессионализм, авторитет и репутация этой организации не подвергаются сомнению. И если дата-центр имеет сертификат Tier 3, то это означает, что он действительно построен в полном соответствии с сертифицированным проектом ЦОДа уровня Tier 3 и все строительные и монтажные работы в нем выполнены качественно с полным соблюдением технологии. Очень не хватает нам честного соблюдения правил и технологий, поэтому и такой ажиотаж вокруг заморских сертификатов.


Понятно, что официальная сертификация российских дата-центров вряд ли станет массовой (как и во всем мире), но хотелось бы верить, что наличие обладателей настоящих сертификатов Uptime Institute повлияет на общий уровень качества ЦОДов в стране или хотя бы на уровень честности при заявлении их характеристик. В противном случае все останется как есть: для получения достоверной информации о надежности дата-центра потенциальные клиенты часто вынуждены проводить нечто вроде разведывательной операции. Ведь спрос на услуги ЦОДов настоящего, а не просто заявленного уровня Tier 3, есть, он растет, и именно в этом сегменте рынка сохраняется дефицит предложения.


Больше и мощнее


В заключение хотелось бы отметить наметившийся поворот к строительству крупных (хотя бы по российским меркам) дата-центров мощностью более 10 МВт и площадью серверных залов 10 тыс. м2 и более. До сих пор средняя площадь запускаемого дата-центра составляла около 300 м2. В частности, сообщается о реанимации проектов в подмосковной Дубне, где изначально планировалось построить к 2013 г. два дата-центра площадью 10 и 20 тыс. м2. А недавно руководство аналогичной «особой экономической зоны» в Зеленограде объявило о планах постройки к августу 2011 г. самого крупного в России дата-центра на 1200 стоек, с подводимой мощностью 21 МВт, площадью 13 тыс. м2 и заявленным уровнем надежности, соответствующим Tier 3. Проект позиционируется как один из первых в России, который будет строиться с нуля.


Российские компании пока не имеют опыта строительства больших дата-центров, которые требуют специфических технических решений и оборудования. Учиться этому им придется в условиях конкуренции с западными компаниями, которые уже выходят на наш рынок, привлеченные крупными серьезными заказчиками.

Заметили неточность или опечатку в тексте? Выделите её мышкой и нажмите: Ctrl + Enter. Спасибо!