Comments 19

В двух ЦОД ваших коллег в комнаты поддержки так же стеснительно отодвигая плитку потолка входят кабеля :)

Клиентам дата-центра будет доступна интернет-полоса суммарной пропускной способностью 75 Гбит/с

«Будет» или «доступна»?

Полагаю, при вашей суммарной утилизации (по всем ЦОД) до 18-20 Гбит/с вы не покупаете полосу 75, так как в этом нет смысла. Странное число 75: на 10 ровно не делится.
Да, наша суммарная полоса действительно 75 Гбит/с. Этот запас необходим, так как у клиентов могут периодически возникать всплески нагрузки (например, при резервном копировании). Кроме того, когда на одного из клиентов осуществляется DDoS-атака, этот запас помогает обеспечить должное качество доступа в Интернет для остальных клиентов. А почему это число должно неприменимо делится на 10?)

Что касается фото — это издержки ремонта)). Сегодня эта часть ЦУПа выглядит несколько иначе (см. пост).

Полоса не должна делиться на 10 ровно. Хочу яснее представить вашу сеть и связность. Если 75 — это не покупаемая полоса (что емеет смысл, так как редкие атаки и резервное копирование могут проходить бесплатно для вас при тарификации burstable), то это очень похоже на физическую полосу включений. Набирать 75 гигабитными портами дорого, неэффективно и просто скучно. Правильнее 75 сделать из 7 «десяток» и 5 гигабит. Но и 5 гигабит надежнее и правильнее с точки зрения трафика заменить на одну «десятку». Число 8 изящно делятся на 2 и можно сделать резервирование по платам, или коробкам, или трассам и так далее. В этом я и вижу странность 75 гигабит.
Это легко может быть 8 десяток зарезервированных по разным трассам (или 8 «налево» и 8 «направо» в одном кольце). 75 гигабит может быть полосой, предоставляемой клиентам. Все остальное — служебный трафик мониторинга, самого ЦОДа и т.д.
Соглашусь. Еще можно вспомнить, что скорость IP трафика меньше скорости интерфейсов (плата за заголовки фреймов). Мне это напоминает общение с представителями Huawei: своими догадками и фантазиями я рассказываю, как их оборудование работает (возможно).
Хочется услышать ответ от первоисточника.
Еще (забыл отметить в предыдущем ответе) такая большая полоса нужна для того, чтобы иметь возможность перекрыть одновременное падение 2-3 операторов.
Физическая скорость подключения к оператору – 10 гигабит. Закупаем у 7 операторов трафика по 10 Гбит/с, а у 8-го — 5 Гбит/с (так как больше нам пока не нужно от этого оператора).
Да, гигабитные порты – это не только неудобно, но и не подходит для определенных типов заказчиков. В наших ЦОДах, например, представлены контент-генераторы, которые предъявляют жесткие требования к полосе пропускания (некоторые сервисы требуют синхронизации чаще, чем 10-15 раз в сек.). Подобные частые всплески трафика не выдерживает гигабитный порт, а точнее, его буфер памяти, как следствие происходит потеря пакетов.

Пока читал, всё морщил лоб, пытаясь понять, где же на моей соседней Боровой улице может находится ЦОД. Лишь когда дошел до тэгов вспомнил о синдроме Default City :)
Дата-центр вполне соответствует описанию, падал что бы прям совсем ппц 1 раз на моей памяти, во время сильного урагана, но это скорее исключение, а в основном работает, как часы. Цены конечно поднимают, но постепенно, естественно когда мы въезжали в самом начале (2009-й) они были существенно ниже, а когда заполнение подросло, то поднялись и цены. Из недостатков: в начале было пыльно, это очень хорошо заметно по сервакам стоящим с самого начала. Еще запомился случай, когда проводили работы на 1-й из двух поданных в стойку линий электропитания на много часов (или дней), что фактически «вынудило» купить/арендовать PDU (распределители питания) для оборудования с одним БП, в то время, как у конкурентов это делается еще до стойки, а сам клиент всегда получает гарантированное питание не важно с какой линии, но это уже частные мелочи, главное что сейчас все работает хорошо.

P.S. а IP-KVM до второго зала уже дотянули?
Датацентр ведь не из соломы построен, чтобы падать во время «сильного урагана».
По идее там все должно быть задублировано и запередублировано. А тогда какой-то сорванной с крыши железякой расхреначило систему охлаждения и они все вырубили. Не надежный какой-то ДЦ.
Моя практика показывает, что косяки в структуре есть у всех ДЦ, просто у кого-то этот косяк вскрывается достаточно быстро, а у кого-то все еще впереди, не бывает супер-пупер безаварийных ДЦ, даже самые громкие и то нет нет, да сваливаются.
Круто, мне понравилась комната дежурных инженеров, ЦУП. Оформление интерфейса под цвет стен — не думал, что на просторах exUSSR кто-то способен на такое. А можно скрины/хотябыфотки их экранов поближе?
Почти вся информация, которая транслируется на мониторы ЦУПа, доступна в мобильном приложении — DataLine4All. Там все в реальном режиме)
А какие системы используются для мониторинга и отображения наглядной информации для дежурных?
В системе мониторинга используется Nagios (в том числе множество самописных модулей на его основе). Статистику по сети и инженерной инфраструктуре собираем в Cacti. Визуальная часть мониторинга реализована на продукте Thruk. «Видеостена» (та, что на фото) также сделана собственными силами.
Являемся резидентами данного ЦОД достаточно давно (используем как резервный ЦОД, оборудования стоит много). Конечно внутри не всё так пафосно как на отобранных картинках, но общее впечатление хорошее. Со своей админской колокольни могу выделить такие плюсы:
— Прозрачность и доступность состояния ЦОД по мониторингу на портале.
— Адекватный допуск к оборудованию, не замороченная процедура вноса\выноса оборудования и быстрое реагирования абонентского отдела на запросы
— Всё необходимое в зале для работы (тележки, столы, мониторы с клавиатурами)
— Стабильность сервиса

Из минусов могу отметить:
— В том же мониторинге меряется средняя температура по больнице (тобишь по холодным коридорам зала). По факту ваш холодный коридор уже не столь холоден как на мониторинге.
— Кто придумал затевать работы на вводах питания перед НГ посреди рабочего дня? Хоть и предупредили за неделю, но нервы в праздничные дни попортили :)

Есть опыт общения с колокейшен других ЦОД. Когда те стараются минимизировать твой допуск к оборудованию. Доходило до того что для замены комплектующих его выносили из гермозоны в операторскую, где иженер мог с ним работать…
Only those users with full accounts are able to leave comments. Log in, please.

Information

Founded
Location
Россия
Website
dtln.ru
Employees
201–500 employees
Registered