Русские документы
Ежедневные компьютерные новости RSS rusdoc.ru  Найти :
http://www.rusdoc.ru. Версия для печати.

Охлаждение серверов — «больше» не всегда значит «лучше»

Раздел: Система @ 17.12.2009 | Ключевые слова: серверная охлаждение отказ оборудования

Автор: track
Источник: habrahabr

Опрос, проведенный одним из ведущих производителей систем охлаждения и кондиционирования для датацентров, компанией Liebert показал, что 66% опрошеных поддерживают в датацентрах температуру не выше 21 градуса C, и ни один выше 24C.

Температура по горизонтали — в американских «фаренгейтах».
CRAH это Computer room air-handler, по нашему — кондиционер.

При этом, рекомендации ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers), пересмотренные в прошлом году, рекомендуют верхний лимит рабчего диапазона равным 27C на входе в сервер.

Такое положение вещей хорошо подтверждается и моей «наблюдаемой практикой».
Традиционно владельцы и эксплуатанты датацентров руководствуются правилом «чем холоднее — тем для электроники лучше», разумеется пока в зале не начнет выпадать роса или снег ;)
Принято считать, что каждый лишний градус свыше, хотя бы, 21С семимимильными шагами приближает смерть компонентов серверного оборудования от перегрева.
Зачастую это считается настолько само собой разумеющимся, что даже не обсуждается.

Однако, современный тренд на «Green IT», или на энергосберегающие технологии в датацентрах, не мог пройти мимо вопроса действительных потребностей серверного оборудования в оптимальной рабочей температуре.

Результаты исследования вопроса могут показаться довольно-таки неожиданными. Все говорит о том, что нынешняя ситуация с температурой в датацентрах стабильно ниже 22 градусов не является оптимальной ни с точки зрения эксплуатации оборудования, ни с точки зрения ресурса работы компонентов, а опасность влияния высоких температур резко переоценена.

Так, статья в The Register выходит под традиционным для Регистера броским заголовком: "Intel says data centers much too cold — Frozen assets a waste of cash" — «Intel утверждает, что датацентры слишком холодные — замороженные активы бесцельно тратят средства».
Тем не менее тема поднята совсем не «желтая».

Традиционную для отрасли переоценку опасности высоких температур для оборудования датацентров подтверждает, например, недавнее исследование Intel, в котором 896 идентичных blade-серверов, были разделены поровну на «контрольную» и «испытуемую» группы (8 шкафов, по 4 blade-шасси в каждом, по 14 blade-серверов в каждом шасси, всего 448 в каждом сайте). «Контрольная» была охлаждаема традиционным образом с помощь кондиционера замкнутого цикла, а охлаждение испытуемой производилось обычным «забортным»воздухом, по «открытой» схеме, с минимальной его очисткой от пыли и без контроля влажности.
Целью исследования была задача доказать возможность построения экономичных датацентров и снизить затраты на охлаждение (не секрет, что в затратах современного датацентра затраты на электричество весьма значительны. Затраты же на питание кондиционеров могут составлять от четверти до половины в общем расходе электроэнергии)


Источник: http://www.rusdoc.ru/go.php?http://dashboard.imamuseum.org/node/830
По вертикали — киловатты, по горизонтали — дни декабря. На дворе зима, и затраты на охлаждение по-видимому минимальны. График не относится к испытанию Intel и приведен лишь в качестве иллюстрации типового соотношения в энергопотреблении датацентра.
Также:

Источник: http://www.rusdoc.ru/go.php?http://www1.eere.energy.gov/femp/program/dc_energy_consumption.html

В случае эксперимента Intel, несмотря на колебания температуры в таком «некондиционированном» датацентре, временами поднимавшейся до 32 градусов, уровень отказов по сравнению с контрольной группой отличался чуть более чем в полпроцента (4,46% против 3,83% для «традиционных» датацентров Intel в среднем, и 2,45% у контрольной группы что, в общем, в пределах «статистического разброса»).

Еще более интересная ситуация складывается с зависимостью отказов от температуры для жестких дисков. Так, например, в 2007 году опубликован отчет инженеров Google, которые занимались исследованием частоты и причин отказов жестких дисков в серверных центрах своей компании (были обработаны данные около 100 тысяч дисков, и исследование продолжалось около девяти месяцев).

Один из любопытных результатов того исследования косвенно подтверждает рекомендацию ASHRAE, относительно температурного режима в датацентрах. Так, по наблюдениям исследователей Google, вероятность отказов жестких дисков резко росла при понижении их температуры ниже 30 градусов, причем самая низкая вероятность отказов для наблюдаемой группы дисков соответствовала температуре в целых 40C!
При 40 градусах рабочей температуры (все измерения проводились с помощью датчиков SMART) вероятность отказа не превышала 1% AFR (Annual Failure Rate, ежегодного количества отказов), повышение до 50C увеличивало AFR вдвое, до 2% (более высокие температуры в датацентре не наблюдались).
А вот понижение температуры до 20C парадоксальным образом увеличивало вероятность отказов почти вдесятеро, до 10% AFR!

На графике столбики гистограммы показывают относительное количество дисков, имеющих ту или иную температуру, точки с т-образными штрихами — величины AFR для данной температуры и его статистический разброс, увеличивающийся с уменьшением количества дисков-«участников» с данной темературой.

Заметное повышение количества отказов при повышенной (значительно!) температуре было замечено только за дисками с возрастом свыше трех лет.


Выводы:
Вполне возможно, что подход «чем холоднее — тем лучше» себя изжил. Этот парадоксальный, на первый взгляд, вывод подтверждают и некоторые статистические результаты, говорящие о том, что, возможно, мы недооцениваем «эластичность» температурного режима современного оборудования, и способность его переносить «повышенные» (на наш взгляд) рабочие температуры.

Кроме того, каждый градус, на который удастся поднять температуру в датацентре есть прямая экономия в счетах на электричество.

Впервые опубликовано в блоге http://www.rusdoc.ru/go.php?http://proitclub.ru/.


Вернуться в раздел: Система
© Copyright 1998-2012 Александр Томов. All rights reserved.