Как стать автором
Обновить

Комментарии 24

Если можно, некоторый оффтоп.
«В каждый серверный шкаф установлено по одной 24-портовой патч-панели с органайзерами, от каждого нового шкафа до каждого кроссового шкафа проведено по 24 кабеля F/FTP.»
И хватает этих 24 подключений на шкаф? Например, у каждого сервера минимум 3 сетевых интерфейса (два рабочих+один на управление). Стандартный шкаф — 42 юнита, сервера бывают разные, конечно, но все же маловато на сегодня.

Думаю с учетом того сколько там оптических линий можно вполне поставить ToR коммутатор и ни о чем не беспокоиться.
Наверное, там предусмотрено место для второй-третьей патч-панели.
И подрядчик обязуется без даунтайма, смонтировать их.
В основном используется оптика, поэтому не было необходимости использовать большое количество портов RJ-45
А можете конкретизировать, как используются эти 24 медных линка на шкаф?
Не троллю, просто действительно интересно.
У нас оптики в серверах практически нет, один сервер — 3 eth, новые сервера (HP G8) уже по 5 портов eth. 24 медных линка это 4 сервера, грубо говоря, если подключать все порты. А обычно все и подключаем.
Опять же, интересно, практика ставить свитчи непосредственно в серверные шкафы имеет смысл или это ересь?
kvo, извините, пропустили начало вопроса «А можете конкретизировать, как используются эти 24 медных линка на шкаф?»
Отвечаем: Медь положили для того, чтобы была возможность подключать KVM (к примеру), и для устройств, у которых нет оптики – их очень мало, поэтому так мало портов.
Сколько киловатт на шкаф доступно?
8 кВт на шкаф.
Обычно в таких статьях куча картинок, с которыми читается намного интереснее…
Добавили фото :)
Да, фотографии были бы не лишними. Когда читаешь о построении или модернизации ЦОД, глаза жаждут красивых шкафов/чилеров/СПТ и прочего. Добавьте, пожалуйста, фото, если есть возможность
Фото по Вашей просьбе :)
Супер. Совсем другое дело. Спасибо!
А фото теплопункта? С насосами и теплообменниками!
НЛО прилетело и опубликовало эту надпись здесь
Если не секрет — почему было принято решение делать 2N именно на Symmetra? Не дешевле ли было поставить 2 монолитные Galaxy? Ведь Symmetra — он сам по себе имеет внутри резервирование N+1
Symmetra позволяет постепенно наращивать мощность, тем самым позволяя при постепенном вводе мощностей ЦОДа в эксплуатацию обеспечить максимальный КПД, что не может позволить моноблочное решение.
Мне почему-то кажется, что если использовать принцип резервирования 4/3 (5/4, и т.д.), то при использовании монолитных ибп можно сэкономить процентов 40 общей стоимости относительно 2N на симметрах. И будет так же наращиваться, шагом по 40 kVA например.
А почему MGE системы обеспечения без резервирования?
Вообще немного удивляют параметры решения. 24 гигабитных соединения на шкаф, 8 кВт энергии. Современный
1U с двумя процессорами это где-то 330 Вт. Т.е. тут согласование есть — 24 1U в шкаф. Но с 1 сетевым подключением на блок. Для современного виртуализированного ЦОД этой сетевой инфраструктуры будет недостаточно в разы. Обычно стараются использовать все сетевые подключения корпуса (2, 3 иногда даже 4). Может основную сеть в датацентре МФТИ планируют сделать 10Гбит оптикой, а медь это просто управляющая сеть?

Когда там стоял просто счетный кластер (8ая фото сверху — Miricom switch сети малой латентности МФТИ-60),
низкая плотность блоков в шкафах была из-за того, что хотели инфраструктуру купить один раз, а потом, при апгрейде кластера просто купить больше вычислительных узлов. Теперь же решение с низкой плотностью просто размножили.
А каким образом обеспечивается поддержание влажности?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий