система охлаждения серверной

(Русский) Охлаждение серверной: от фальшпола до погружения в масло

Sorry, this entry is only available in Russian. For the sake of viewer convenience, the content is shown below in the alternative language. You may click the link to switch the active language.


Система охлаждения в серверной забирает на себя до 40% энергоресурсов. Это серьезные издержки для любой компании. В этой статье мы постараемся рассказать, какие варианты кондиционирования существуют, какие новые технологии появляются на рынке, помогающие снизить затраты на эксплуатацию подобных систем.

По данным агентства Spiceworks, опросившего более тысячи европейских и американских компаний, крупные бренды львиную долю своего hardware-бюджета в 2018 году собираются потратить на оптимизацию систем энергоснабжения и охлаждения серверных.

Для многих предприятий вопрос сокращения потребления электроэнергии является критическим. Дата-центр потребляет огромное количество энергии, и этот показатель в течение 10 лет грозит увеличиться втрое. Учитывая ежегодный рост тарифов минимум на 10%, проблема серьезная. Причем от 30 до 40% энергии в стандартной серверной комнате уходит именно на охлаждение.

Новые технологии, появившиеся на рынке в последние несколько лет, позволяют сократить энергопотребление серверных в разы. Для примера, большие ЦОД в среднем забирают до 100 млрд. кВт в год, при этом 30% серверов трудятся вхолостую. Если даже повысить эффективность на 20%, получается экономия в 20 млрд. кВт, по ценам американского рынка электроэнергии это примерно 2 млрд. долларов.

 

Тренды в обустройстве дата-центров 2018 года

Прежде чем перейти к обзору новых технологий в области охлаждения серверных комнат, пара замечаний по поводу трендов в организации ЦОД на предприятии. По большому счету, классический дата-центр компании, когда все вычисления происходят в одном месте, сегодня это устаревшее явление.

В моде децентрализация. Мы уже писали про популярность гибридной модели ИТ-инфраструктуры предприятия, позволяющей совмещать удобство облачных сред, контроль и безопасность, предоставляемые традиционными сетями.

Большинство западных компаний, вне зависимости от размера и сферы деятельности, предпочитают часть важных данных и корпоративных приложений оставлять у себя, а часть вычислений передавать в облако. В чистом виде локальные сети (on premises) больше практически нигде не встречаются. Этот фактор необходимо учитывать при построении собственного мини дата-центра.

По утверждению издания Data Centre Knowledge, 2018 пройдет под знаком «периферийных» дата-центров. Периферийные вычисления ни завтра, ни послезавтра не смогут полностью заменить облако. Но подобные решения уже органично дополняют традиционные дата-центры и облачные сервисы в инфраструктуре многих компаний. Они используются для того чтобы разнести географически вычислительные мощности ближе к источникам данных с помощью так называемых микро дата-центров или хабов.

Считается, что все больше вычислительных ресурсов переходят к оконченным устройствам, составляющим мир «интернета вещей»: беспилотные автомобили, дроны и т.д. На данный момент 10% всей генерируемый компаниями цифровой информации обрабатывается за пределами традиционных централизованных дата-центров или облака. К 2020 году, по мнению Gartner, этот показатель достигнет 50%.

 

Варианты систем охлаждения для серверных

Десятилетиями в серверных комнатах использовалась система воздушного кондиционирования, где были оборудованы стойки, холодные и горячие коридоры и фальшпол. Воздух здесь прокачивается с помощью бытового или высокоточного (прецизионного) кондиционера, сделанного под параметры конкретного помещения.

Бытует мнение, что для системы серверов мощностью до 5 кВт отдельная серверная – лишние траты. Все оборудование можно утрамбовать в одну стойку и оставить ее в углу рабочего помещения. Для системы до 10 кВт достаточно бытового кондиционера. Это выглядит разумным, пока не берутся в расчет убытки от простоев, потери данных при сбоях в отсутствии регулярных бэкапов.

система охлаждения с фальшполом

Система традиционного кондиционирования с фальшполом

В современном дата-центре практически невозможно встретить систему охлаждения в виде фальшпола (для него, кстати, критически важна высота полотков) и компрессорных кондиционеров, где горячий воздух переносится от внутреннего блока во внешнюю среду. Это экономически чрезвычайно затратно при большой плотности оборудования.

Сам процесс охлаждения в серверной комнате или мини дата-центре можно разделить на несколько частей:

  • Охлаждение серверов.
  • Охлаждение помещение.
  • Выведение горячего воздуха за пределы помещения.

Современные решения являются комбинацией различных систем (воздушное, жидкостное охлаждение). Кондиционеры могут быть установлены на каждый серверный шкаф, сервер или даже процессор могут охлаждаться отдельно.

Есть варианты прямого (direct) и непрямого (indirect) кондиционирования. Второй обычно применяется в условиях, когда крайне нежелательно смешение воздуха в помещении с воздухом с улицы (загрязнение, насекомые и т.д.). В этом случае воздух перемещается по закрытой петле, отработанные потоки охлаждаются жидкостью (вода, этиленгликоль).

Считается, что системы жидкостного охлаждения более экологичны и экономичны. Экономия здесь идет за счет низкой стоимости хладагента, плюс такую систему легко масштабировать. По прогнозам, рынок жидкостных систем кондиционирования в мировом масштабе вырастет к 2020 году на 16%.

 

Погружение в масло

Новая продвинутая технология иммерсионного охлаждения серверов с помощью минерального масла была представлена на саммите OpenStack в ноябре прошлого года. Данный метод охлаждения не нов, он уже применяется в электрических трансформаторах и промышленных конденсаторах.

Во-первых, масло не проводит электричества, поэтому проблема возможных протечек решается сама собой. Во-вторых, это один из самых энергоэффективных вариантов. Масло обладает более высокой теплопроводностью, помогая лучше поглощать тепло и выводить его избытки.

В-третьих, как утверждают разработчики, такие системы готовы работать в экстремальных условиях даже на улице без постоянного контроля влажности и кондиционирования воздуха. Да и потом вода для охлаждения тоже в большинстве стран мира становится дефицитным ресурсом.

Подобное решение представила компания Horizon Computing. Их системы является, по сути, частью модульного дата-центра и представляют собой алюминиевый корпус размером 70x70x70 см, внутри которого могут располагаться четыре материнских платы microATX или восемь mini-ITX. Он заполнен специальным маслом, в который погружено оборудование. Правильная температура обеспечивается конвекцией радиатора.

Предположим, что процессор работает на полной мощности при температуре воздуха 32°С, его средняя температура составит 85°С. При наличие масла с температурой 34°С, средняя температура ЦП упадет ниже 65°С. При этом поддержание температурного режима в масляной ванне на уровне 34°C требует значительно меньше энергии, чем поддержание температуры воздуха в пределах 32°C.  Система также позволяет довести плотность размещения компонентов в одной стойке до 65 кВт.

 

Компактные модули на литиевых батареях

Еще один революционный вариант, способный обеспечить энергоэффективность охлаждения серверных, представила недавно компания Teslamiser. Традиционный подход базируется на непрерывных источниках энергоснабжения (UPS) от стационарных генераторов или свинцово-кислотных аккумуляторных батарей. Это дорого с точки зрения как капитальных, так и операционных издержек.

Новый подход основывается на применении компактных модулей, источников питания для охладителей. Компания предлагает использовать литиевые батареи, наподобие тех, что установлены на автомобилях Tesla. В комплекте идет система мониторинга, способная обеспечить резервное питание при отключении электричества и оптимизировать расходование энергии.

По утверждению разработчиков, подобный резервный модуль может быть установлен на любой бытовой или промышленный кондиционер или систему с переменным током высокого напряжения.

Проектирование и установка системы охлаждения серверной комнате в каждом отдельном случае это индивидуальное решение. Серьезный фактор – климатические условия региона, а также плотность оборудования.

По классификации  AFCOM, показатель плотности размещения 8 кВт на стойку уже считается достаточно высоким. В этом случае простым фрикулингом не обойтись, по крайней мере, в теплые периоды. Необходимо будет устанавливать компрессионные или жидкостные кондиционеры и оборудовать систему воздухоотвода.

Система мониторинга (в идеале охлаждение и энергопотребление должно контролироваться одной программой) для сложных комбинированных систем также является непременным условием их нормального функционирования.

Материал оказался полезным? Поделитесь с друзьями: