|ГЛАВНАЯ|   |О ЖУРНАЛЕ|    |ПОДПИСКА|   |ФОРМЫ СОТРУДНИЧЕСТВА|  |КОНТАКТЫ|   |СОДЕРЖАНИЕ НОМЕРА|  |НОВОСТИ|    |ВАКАНСИИ|     |АРХИВ|  |IT-СТРАНСТВИЯ|

№ 4 (41) 2008

 

 

 
 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 


 

Охлаждая горячие

точки дата-центров

 

О размещении вычислительных систем

высокой плотности в ЦОД, не рассчитанных

на интенсивное тепловыделение.

 

 

Современный бизнес уже давно неотделим от ИТ: растущие деловые задачи постоянно требуют применения современного вычислительного оборудования. Вместе с тем зачастую помещения серверных комнат, а иногда даже и центры обработки данных, не предназначены для размещения оборудования высокой плотности. Максимум, на что они способны, это отвести от каждой серверной стойки 1–3 кВт тепла. И получается, что даже один-единственный блэйд-сервер, куда его ни размести, сразу создает локальную точку значительного перегрева. То же самое можно сказать и о кластерах на базе серверов форм-фактора 1U. А если задачи бизнеса требуют множества подобных решений? Существует два выхода из такой ситуации: перестраивать (создать заново) ЦОД или внедрять решения для локального охлаждения проблемных участков.

 

Локальное охлаждение в ЦОД от АРС

Но перестроить ЦОД не так-то и легко, гораздо проще охладить отдельные точки. Для этой цели специалисты APC предложили ряд рекомендаций, основанных на опыте и разработках компании.

Локализовать горячие зоны можно тремя основными методами (рис. 1):

• размещением кондиционеров в рядах стоек, в наиболее критичных зонах;

• изоляцией горячего коридора между двумя рядами шкафов с помощью набора cпецпанелей (HACS);

• закрывая горячий, а в случае необходимости, и холодный коридор в отдельных стойках (RACS).

Стоит отметить, что два последних метода, по расчетам экспертов из АРС, также будут наиболее эффективны в случае применения внутрирядных кондиционеров, в частности, серии InRow SC, RC, RP.

Каждый подход имеет свои преимущества. Первый из них — наиболее экономичный, поскольку кроме кондиционеров не требует другого дополнительного оборудования. Во втором случае необходимо приобрести дополнительные изолирующие панели, но эффективность такого решения значительно выше, чем в первом случае. Однако, наиболее продуктивным решением, позволяющим отводить от каждой стойки десятки киловатт тепла, является локальная изоляция шкафа с оборудованием. Фактически в этом случае для охлаждаемой стойки выделяется отдельный мощный кондиционер. При этом горячий (и/или холодный) воздух не попадают в помещение ЦОД, а циркулируют внутри замкнутой системы.

 

В помощь инженеру

Для выбора оптимального метода охлаждения был разработан программный инструмент — Data Center InRow Containment Selector. Это специальная программа-подсказка, доступ к которой можно свободно получить по адресу www.apc.com/tool/?tt=10 (открывается только в браузере Internet Explorer). В ее главном окне (см. заставку) надо задать основные параметры: наличие свободного места в помещении ЦОД, количество рядов стоек, тепловыделение оборудования, а также основные приоритеты выбора системы локального охлаждения (цена, гибкость, эффективность). Кроме того, следует указать положение стоек с оборудованием относительно стен в помещении, а также относительно друг друга («спина к спине», «лицо к лицу» и др.). После ввода параметров в правом окне появляется схема рекомендуемого решения.

Таким образом, даже если ЦОД изначально и не был рассчитан на размещение в нем оборудования высокой плотности, это не является неразрешимой проблемой. Правда, вышеупомянутые решения не являются панацеей, и если бизнес требует мощных вычислительных систем, стоит все же позаботиться не о точечной, а о кардинальной модернизации дата-центра.

 

По материалам компании APC by Schneider Electric подготовил

Игорь КИРИЛЛОВ,

igor@sib.com.ua,

СиБ

 

№ 4 (сентябрь) 2008