Русские документы
Ежедневные компьютерные новости RSS rusdoc.ru  Найти :
Новости
Последние поступления
Книжный магазин
  Hardware:
Видеоустройства
Системные платы
Процессоры
Мобильные устройства
Аудиосистема
Охлаждение системы
Накопители информации
КПК и ноутбуки
Телефоны и связь
Периферия
Система
Сети
Разные устройства
 
  Programming:
Web-разработка
Языки программирования
Технологии и теория
Разработка игр
Программная инженерия
 
  Software:
Операционные системы
Windows 7
Базы данных
Обзоры программ
Графика и дизайн
   
  Life:
Компьютерная жизнь
Разные материалы
   
Партнеры
Публикация
Правовая информация
Реклама на сайте
Обратная связь
Экспорт в RSS Экспорт в RSS2.0
    Читать в Яндекс.Ленте



Экскурсия в дата-центр "Оверсан Меркурий"

Раздел: Hardware / Система @ 30.06.2010 | Ключевые слова: дата-центр оверсан версия для печати

Автор: Андрей Письменный
Источник: Компьютерра

Компания "Оверсан" предоставила "Компьютерре" возможность заглянуть в один из своих дата-центров - "Оверсан Меркурий". Он располагается в одном из корпусов Института Космического Приборостроения. Провёл экскурсию Александр Дембовский, руководитель отдела маркетинга.

"Меркурий" - первый дата-центр компании "Оверсан" и один из самых больших дата-центров России. Его площадь - около 500 квадратных метров.

Вход в дата-центр устроен так, чтобы тележкам было удобнее проезжать.

За входом – пропускной пункт, на котором выдают бахилы. Дальше - коридор, с одной стороны которого стоят бюсты Эйнштейна, Теслы и Королёва.

За дверью с другой стороны коридора начинается самое интересное. Но сперва полагается надеть халат.

Они рассортированы по размерам. Самый популярный - 52. Здесь работают довольно крупные специалисты!

В этой же комнате стоят шкафы с коммуникационным оборудованием. За этими стеклянными дверями прячется сетевое ядро дата-центра.

Это маршрутизаторы Cisco Catalyst серии 6500. Каждый стоит, как спортивный автомобиль.

А вот стойка для аппаратной фильтрации трафика - каждый из модулей фильтрует до 20 Мбит/с.

В закутке напротив, за металлическими дверями, находится оптоволоконный шкаф. Сюда подведены магистральные каналы с точек обмена трафиком М9 и М10 (второй нужен на случай сбоя).

Каждый из них может обеспечить пропускную способность до 400 Гбит/с. Пока что используется лишь 70.

Изучив коммуникационное оборудование, мы переходим в гермозону. Это помещение в помещении - со своими стенами, полом и потолком. Здесь искусственно поддерживается чуть большее давление - это помогает снизить количество пыли. Также на всякий случай над комнатой установлена дренажная система. Хоть канализация и организована так, чтобы не находиться над дата-центром, от Всемирного потопа никто не застрахован.

Пока что, как видно, не используется и половина площади. Чёрные шкафы с правой стороны - это промышленные кондиционеры. Чёрные полосы с дырками в полу тоже используются для охлаждения. На них поместят стойки с оборудованием и через них будет подаваться охлаждённый воздух.

Как и прочего оборудования, кондиционеров установлено с запасом - всего их тринадцать, а для охлаждения заполненного дата-центра достаточно шести.

В дальнем конце зала уже выстроено несколько рядов со стойками.

Коридоры чередуются - один холодный (с передними панелями оборудования), во второй выдувается теплый воздух с обратной стороны стоек. Поскольку в зале прохладно, стоять в тёплом коридоре приятно.

Часть стоек занята клиентскими серверами.

Часть - отдана под масштабируемый хостинг и сервера "облачного" хостинга "Оверсан Скалакси". Всего - несколько сотен серверов.

Главная главная коммутирующая система для облачного хостинга - Infiniband.

F5 Viprion - адаптивный балансировщик нагрузки, его как раз сейчас настраивают. За внешний трафик отвечает магистральный коммутатор Juniper.

Сетевые фильтры управляются удалённо - по сети можно отключить или включить питание, чтобы удалённо обесточить или перезагрузить сервер.

Под потолком в этой комнате тоже много интересного. Каждый коридор между стойками просматривается камерами видеонаблюдения.

Датчики задымления.

И, собственно, система газового пожаротушения. О её устройстве нам расскажут чуть позже.

Мы покидаем гермозону и выходим в резервную батарейную комнату. Она находится в режиме ожидания и готова обеспечить дата-центр электроэнергией в момент, когда основная отключится по каким-нибудь причинам. Здесь стоит источник бесперебойного питания. Он состоит из шкафов с контроллерами...

... и, собственно, батарей. Их общий вес - около 20 тонн.

Дембовский не без гордости сообщает, что дата-центр "Меркурий" относится к особой группе первой категории надёжности – то есть его электроснабжение происходит наравне, скажем, с госпиталями. Если электричество всё равно отключится, оборудование при полной нагрузке сможет работать от батарей ещё около десяти минут. При этом для запуска дизелей достаточно пяти минут, а запаса топлива хватит на шесть часов работы заполненного дата-центра. Если и этого не хватит, может выручить контракт с топливной компанией на подвоз топлива в течение 2 часов. Если, конечно, конец света не застанет её врасплох.

Полная подведенная мощность трансформаторов - 5630 кВа. Их мощности трансформаторов хватит для обеспечения 5 мегаватт электроснабжения - хватит на обеспечения района Жулебино.

Выйдя в коридор, обнаруживаем баллоны с газом.

В том случае, если в гермозоне обнаружится возгорание, комната будет заполнена хладоном 125, в котором горение невозможно. Чтобы никто из специалистов в это время не застрял в гермозоне, за минуту до блокировки дверей сработает сигнализация. За то же время можно вручную отключить автоматическое пожаротушение.

Если система всё же будет активирована, это не помешает оборудованию продолжать работать в штатном режиме. Специалистам достаточно обесточить вышедший из строя модуль, после чего кондиционеры снова наполнят гермозону воздухом.

По ходу осмотра системы пожаротушения была упомянута интересная деталь - эти же баллоны будут использоваться для тушения пожаров в ещё одной гермозоне, пока что пустующей. Она предназначена для установки оборудования с водным охлаждением и повышенным энергопотреблением (20-30 киловатт вместо семи). Это могут быть кластеры или суперкомпьютеры, и один из партнёров компании уже собирается разместить здесь нечто подобное.

В другом конце коридора - основная батарейная комната. Здесь куда более шумно - оборудование работает, а не пребывает в режиме ожидания. Шкафы и батареи - те же самые.

Наконец, мы выходим на улицу. После прохлады помещений дата-центра жара ощущается ещё сильнее. Но нам предстоит осмотр ещё одного объекта - так называемых чилеров. Они находятся на огороженной металлическими листами территории за пределами здания и представляют собой часть охладительной системы.

Чилеры гоняют туда-сюда хладагент - раствор этилен-гликоля и воды. Хоть чистая вода и более эффективна, но без добавления спирта зимой она замёрзнет.

По словам Дембовского, зимой сюда приезжал итальянский специалист - посмотреть, в каких тяжёлых условиях работают созданные под его руководством чилеры.

На этом экскурсия заканчивается - мы благодарим Александра за рассказанное и показанное.

Это интересно:








версия для печатиРаспечатать статью


Вернуться в раздел: Hardware / Система


Реклама:
Читать наc на:

Add to Google
Читать в Яндекс.Ленте






Rambler's Top100
© Copyright 1998-2012 Александр Томов. All rights reserved.