Как стать автором
Обновить

Комментарии 72

Улыбнуло вот это:
>Так выглядит новая партия серверов, ожидающая установки в шкаф, 40 серверов HP DL120 G5:
откуда же они их берут… если они сняты с производства давненько… заставлят задуматься
Фотография старая, на фотографии серверы новые :) Такое уточнение устроит?
Все кабели анонимны и контролируются EvoSwitch, сведения о кабельной инфраструктуре постоянно обновляются в соответствующей базе данных.

Это чтобы враг не знал, какой кабель резать?
Сделать крос без маркировки и документации — любимое развлечение!
В коммутационной комнате Дата Центра можно увидеть «спагетти» из сотен оптических кабелей желтого цвета (пропускной способностью 10 Гбит / с), и значительно меньше оранжевых (пропускной способностью 1 Гбит / с).

Чо?
Обычно рыжие патч-корды — многомода, желтые — одномода. Шанс увидеть 10G по многомоде выше. Стоит копейки.
Вы ТОЧНО уверены в своих словах?
либо проблемы со свитчем и один раз из-за проблем с маршрутизатором. К слову, ЦОД заменил маршрутизатор за менее чем 4 часа!

Так и запишем — «резервирования нет».
HostingManager
Так выглядит ядро Дата Центра, стоимость которого превышает 1 миллион евро

А что за железка?
На счет железки — там Juniper'ы.

По предидущему вопросу. Я уверен в том, что видел. Дальтонизма вроде нет :) Резервирование есть, проблема наблюдалась только в некоторых подсетях, в виде небольших потерь. Когда маршрутизатор заменили проблема полностью исчезла. Почему так было при наличии резервирования — это уже с техническими специалистами лучше обсудить. Он у селектела при наличии резервирований облако упало, но это же не означает, что селектел плохой и т.д. Запишите лучше какой другой ЦОД заменит маршрутизатор за 4 часа (проблема началась в 3 ночи) до утра.
Я уверен в том, что видел.

А я-то думал, что многомоду обычно используют на малых расстояниях, одномоду (тем более — с двумя длинами волн на одно волокно) — на больших, первое дешевле, второе дороже, и к скоростям все указанное в начале этого предложения не имеет вообще никакого отношения :)
Почему так было при наличии резервирования — это уже с техническими специалистами лучше обсудить.

Ну так напишите статью. Было бы интересно почитать.
Запишите лучше какой другой ЦОД заменит маршрутизатор за 4 часа

4 часа — безумный срок вне зависимости от времени дня и ночи. От аварии до замены в случае деградации сервиса должны пройти максимум десятки минут. Вы что, дожидались RMA? Нет боевой ночной смены?
Потери, говорите? То есть даже в ночное время линки на оставшейся железке были перегружены? Ай-ай-ай.

Помните, как Cloudflare при полном отказе всего интернет-периметра (все железки разом ушли в циклический ребут) на десятках площадок умудрился за полчаса поднять часть сервиса, а за час — весь сервис?

И все-таки: что за железка с 8х10G на слот ценой в лям?
Ценой в лям все ядро, а не одна железка. Там их несколько. На фото все не влезло. Общий объем маршрутизируемого трафика около 3 Тбит / с.

На счет аварии — постараюсь найти, что нам отписывали в тикете инженеры ЦОД и Вам сообщу. Тогда затронута была незначительная часть серверов и потери были не большими (периодами, не 4 часа подряд, а иногда проблема появлялась на 10-20 минут несколько раз за 4 часа), многие даже не заметили их. Кроме того, затронута была часть сети Volume, если нужно больше резервирования — можно заказывать сеть Premium, но и стоит других денег это.
Ценой в лям все ядро, а не одна железка.

Я прочитал «ядро Дата Центра, стоимость которого превышает 1 миллион евро, причем это ядро дублировано» как «лям помножить на два».
На счет железки — там Juniper'ы.

Информативно. А поподробнее? Раз уж вы так пиарите сетевую часть площадки, можно было бы в отдельном посте на ней сконцентрироваться…
и потери были не большими (периодами, не 4 часа подряд, а иногда проблема появлялась на 10-20 минут несколько раз за 4 часа)

Странно как-то… Ночью, когда трафик в разы меньше дневного…
затронута была часть сети Volume

Что это? SAN что ли? FCoE? И это задели? :)
можно заказывать сеть Premium, но и стоит других денег это.

Лишний порт на отдельной железке. Всё. Учитывая, что реальная стоимость даже 10G порта начинается от смешных $500…

У меня просто как-то в голове не укладывают понятия «ЦОД» и «нет полного резервирования сети» в одном предложении. Вроде бы очевидно, что иначе просто не бывает.
Ваши сведения устарели, уже везде одномод, что гигабит, что 10.
Я покупал цветные кабеля для разных линков удобно потом разбираться что и куда сразу видно без схемы(схема тоже есть).
Про 4 часа расскажите хоть одному датацентру в России, они будут долго смеяться.
Логичный вывод что был не перегружен свич, а в нем какие то были проблемы, так как если бы свич был перегружен, замена бы не помогла.
Помню что за час не поднял сказать честно, висит у меня там пару интернет магазинов, хотя может вы не про то падение.

уже везде одномод, что гигабит, что 10.

Ну-ка с этого момента поподробнее… Кто использует одномод, тем более с двухцветными SFP, в пределах одной площадки? D&G — Dорого и Gлупо :)
Серьезно — никто и никогда так не делает. Разве что кто-то сильно промахнулся при первоначальном расчете портовой емкости.
Про 4 часа расскажите хоть одному датацентру в России

Вам кажется очень быстрым поход в комнату-склад, поднятие свитча из ЗИП, перетаскивание его в машинный зал и накатывание идентичного конфига за 4 часа? Тогда я в недоумении. Эта процедура займет минут 10, включая перекуры.
Впрочем, в моем случае ЦОДы сторонних компаний используются лишь как место, обеспечивающее размещение железа, его энергоснабжение, охлаждение и физбезопасность. Все каналы связи и всё сетевое оборудование всегда свои. Что не отменяет простого факта: за 4 часа я мог бы получить звонок наших дежурных, вызвать такси, приехать на склад, схватить новый свитч, с ним подъехать в ЦОД и махнуть железку. Без особой спешки.
Логичный вывод что был не перегружен свич, а в нем какие то были проблемы

Один свитч помер. На резервном проблемы (судя по симптомам — давно). Зашибись у вас ЦОДы…
Тогда уж дешевле медь, про неё у меня есть статьи в бложике, а так ни разу у магистралов не встречал многомода. И стоимость оборудования многомод одномод мне кажется уже близка к одной цене.
Мне кажется вы пропустили момент диагностика как минимум.
Расскажите мне хоть про один датацентр в раше, который быстро решает такие проблемы? Вот прям в течении 15 минут судя по вашему описанию. Обычные хостеры не особо на виду, а вот облачные мы видим как борются быстро с такой проблемой, у обычных зачастую бывают ситуации и похуже, разве что падает не все сразу как в мелких русских облаках.
Один свич не помер, на нем появились проблемы.
Тогда уж дешевле медь

Можно медь. Правда, она только совсем недавно стала lossless на 10G, и не на всяком железе. Т.е. не везде по ней FCoE пустят.
ни разу у магистралов не встречал многомода.

Причем тут магистралы, когда мы говорим про внутреннюю коммутацию ЦОДа?
Мне кажется вы пропустили момент диагностика как минимум.

Добавляем 5 минут на локализацию проблемы. По опыту говорю. Если свитч начало колбасить, то это видно сразу, а дальше дело техники.
Расскажите мне хоть про один датацентр в раше, который быстро решает такие проблемы?

Мои датацентры. Впрочем, повторюсь — от владельцев площадки требуется только питание, не более того. Свои руки всяко надежнее.
Один свич не помер, на нем появились проблемы.

Как человек, много лет работающий в том числе и со свитчами и навидавшийся всякого, скажу: примерно любую проблему можно локализовать за 5 минут. У меня всякое бывало. SFPшка на VSL линке начинала массово бить фреймы; активный суп сходил с ума, но фейловера не происходило; модули сыпали ошибками на ровном месте. Все эти сценарии куда хуже, чем «обесточили свитч», они вызывали реальный даунтайм. И устранялись эти аварии в считаные минуты. Подход простой: проблемный узел изолируется от сети, а дальше неспеша изучается на предмет благонадежности. Если надо — меняется.
Потому я бы сказал, что 4 часа на замену свитча (считая, что до его замены влияние на сервис остается) — признак разгильдяйства. И мне плевать, если у всех так.
Потому что это сетевая инфраструктура и там никто Fc не гоняет, потому что это аплинки.
Пруф на ваш датацентр, потестирую его, вот оно чудо в раше оказывается где и зря я перевел все сервера в датацентры во франции и германии.
Потому что это сетевая инфраструктура и там никто Fc не гоняет, потому что это аплинки.

lmgtfy.com/?q=fcoe
Название немного намекает…
Пруф на ваш датацентр

Какое именно слово из «Все каналы связи и всё сетевое оборудование всегда свои» вам непонятно? Вроде бы достаточно очевидно, что подобная информация не разглашается никогда. Или вам подписанное CIO письмо с распечаткой переписки по последним инцидентам? :)
потестирую его

Ну-ну :) Я бы на месте своего руководства долго хохотал после получения предложения похостить чужие ресурсы :)
То есть у вас просто частный датацентр? Без тысяч клиентов?
Ну так в локальном дц и у меня без особых проблем, тока свет когда тушат на долго капец, но такое раз в три года мне кажется.
То есть у вас просто частный датацентр? Без тысяч клиентов?

Опять же, разве я недостаточно ясно это сказал? И какая разница, один ли там клиент, или клиент один из тысячи, если вся активка своя? Само собой надо стыковаться не с местным сетевым оборудованием, которое непонятно как настроено и непонятно как резервировано, а напрямую с несколькими операторами связи. Правда, тут речь идет о масштабах покрупнее «пара сайтов». Хотя бы «пара рядов стоек с сетевым железом, корзинами серверов, массивами».
тока свет когда тушат на долго капец

С какой стати там отключаться свету чаще, чем на любой другой площадке? У нас даже в офисе, где только сотрудники работают, под окнами стоят на подхвате дизели, а в самом офисе длинные ряды аккумуляторов в ИБПшной.
Маршрутизатор — это не свитч и настраивать его не 10 минут. А за 10 минут на склад Вы попробуйте дойти, учитывая размеры ЦОД :) У Вас зато ЦОДы зашибись и ничего никогда не падает, я в этом не сомневаюсь. В виртуальной реальности (мысли) системного администратора, который прошел курс сетевого инженера у Вас ЦОД?
Маршрутизатор — это не свитч и настраивать его не 10 минут.

Правда? Ну-ка расскажите поподробнее про отличия L3 свитча от хардварного роутера, а то и я уже давно их путаю, и все, кого я спрашивал, тоже ничего внятного сказать не могут :)
Еще опишите, где там различия в подходах к конфигурированию. Ибо мне казалось, что примерно у всех вендоров конфиг одной командой экспортируется с активного супа в файл (заранее, а не после аварии), и одной же командой заливается на новую железку, с сохранением всех до единой настроек, как глобальных, так и портовых. Ну разве что, может, пары ключей по части крипто пересоздать, но в общем случае это не проблема. Итого, время полной настройки новой железки, идентичной старой, составит менее минуты, не считая время на включение и загрузку.
У Вас зато ЦОДы зашибись и ничего никогда не падает

Ну и для кого я тут расписывал примеры наиболее мерзких падений?
Вопрос не к факту падения, такое у всех бывает. Вопрос к тому, почему восстановление длилось 4 часа. Опять же, можно вспомнить Cloudflare, которые за один час вывели из циклического ребута множество десятков тех самых маршрутизаторов того самого жунипера, по нескольким десятком ЦОДов после абсолютно аномальной аварии, вызвавшей отказ всего интернет-периметра.
который прошел курс сетевого инженера

Курс? Какой еще курс? Я отродясь не бывал на курсах по теме транспорта. На VOIP один раз ходил. Много лет назад посещал пару курсов MS. Но курсы сетевого инженера… Нет, не был. И говорю как есть: время замены отвалившейся железки никак не может составлять четыре часа в условиях, когда это влияет на продакшн. За одним исключением: если кто-то не позаботился о ЗИПе и дожидался RMA. Колитесь — так и было? И никто не проводил проверку отказоустойчивости как в тестовой, так и в боевой среде?
(раз железка вроде бы менялась целиком, значит, это был миддл- или лоу-енд, вовсе не модульный, без сдвоенных супов, и ее наверняка можно было унести подмышкой — тем более возникает вопрос «а чем вы там столько времени занимались?»)
Дело в том, что оборудование не настолько дешевое, чтоб могло лежать на складе в ЦОД и быть уже заранее настроенным. Конечно по той схеме, по которой Вы идеализируете — все решилось бы не более, чем за 30 минут (реальные цифры). НО тут надо было еще понять, что с оборудованием все же проблема требующая его замены. Временами бывают проблемы и не связанные с оборудованием (например, когда падает 70 Гбит / с DDOS или просто проводят работы). В том случае была непонятная проблема, причем она совпала с плановым утренним обслуживанием. И была вероятность, что проблема не из-за оборудования, а из-за проведения обслуживания. В итоге заменили шасси в сборе на одном из маршрутизаторов (high volume router). Обратите внимание, на английском правильно писать именно роутер, а не свитч. Разницу между роутером и свитчем думаю знаете и то, что роутер гораздо «умнее» спорить не будете. По факту оказались незначительно затронуты лишь серверы в 4-х подсетях. Это крайне малый % всего ЦОД.

Касательно ядер, то стоимость одного ядра оцениватеся порядка в миллион евро (это еще старые цифры, не учитывают роста трафика и оборудования). И их 2. Причем второе ядро находится в ДРУГОМ ЦОД. то есть за пределами EvoSwitch. Не на той же площадке. Возможно я все же сделаю в будущем небольшую статью по архитектуре сети, раз Вам так интересно, но могу сказать — она резервирована даже для сети Volume, причем весьма не плохо.
В том случае была непонятная проблема, причем она совпала с плановым утренним обслуживанием.

Вот это уже смахивает на правду. Не повезло :)
В итоге заменили шасси в сборе на одном из маршрутизаторов (high volume router).

А вот эта проблема реально достойна отдельного поста на хабре. Стиль — детективный. Описание проблемы, пути диагностики и в итоге отчаяние, вылившееся в замену шасси со всеми супами и модулями, что обычно не делается…
Разницу между роутером и свитчем думаю знаете и то, что роутер гораздо «умнее» спорить не будете.

Конечно буду. Я не знаю разницу между роутером и свитчем, серьезно. Возьмем например мой любимый свитч Cat6500, 80гб/с на слот и маркетинговые 2тб/с на шасси в полной набивке. Назовите радикальные архитектурные или функциональные отличия этой железки от тех же жуниперов серии MX, позволяющие сказать «каталист — однозначно свитч, а MX — однозначно роутер».
С младшими, софтверными роутерами попроще будет, у них основная логика реализована средствами CPU, и различие очевидно: «у свитча транзитный пакет не касается CPU».
А если бы роутер и был умнее, это ни на что не влияло бы, ибо JunOS «один на всех» (по их собственным заявлениям), и принцип работы с жуниперовским свитчем примерно тот же, что и с роутером. Абсолютно неважно какой степени «топовости».
И их 2.

Вполне логично, что на каждой площадке свой комплект ядер. Странно, если бы это было не так.
она резервирована даже для сети Volume

Я так и не понял — «Volume» является «SAN»? Хвастаться резервированием тут ну очень странно, учитывая, что отказ FC сети куда страшнее и куда дольше чинится, чем отказ IP сети. Под SAN обычно ставятся парами железки «директорского класса», на которых в теории ни один пакет никогда не потеряется, будь то падение активного супа, или обновление ОС, или еще что.
>>Ну-ка расскажите поподробнее про отличия L3 свитча от хардварного роутера

А на L3-свичах продвинутых как сейчас с сервисами? Это практикуется? Ну там vpn, voip и подобное. И еще сразу приходит мысль о неEthernet интерфейсах, разной экзотике канального уровня (как правило WAN), тоже вроде не епархия L3 свичей при всей их продвинутости.
А на L3-свичах продвинутых как сейчас с сервисами?

На топовых роутерах, как и на свитчах, VPN в смысле IPSec тоже крайне редкий гость. Обычно надо что-то докупать. В случае каталиста — хотя бы тот же ASA-SM. Что до VOIP — есть мнение, что даже если старшие жуниперы MX его и поддерживают, никто никогда его на них не поднимает. Но, опять же, всегда есть варианты. Но нецелесообразно это. Обычно ставят куда более дешевые ISRы, или еще более дешевые узкоспециализированные железки (продукцию Audiocodes например).

А VPN в смысле MPLS, как и любые другие операторские и не очень техники инкапсуляции — на здоровье.
о неEthernet интерфейсах

Было бы желание.
Но и это, как и IPSec и тем более VOIP, я не назвал бы важным критерием роутера. По крайней мере, достаточно дорогого, хардварного роутера, от которого требуется быстро пропускать через себя сотни гигабит трафика с разными сервисами. В этом случае речь как правило идет об ethernet. Вообще, операторы сейчас что угодно заворачивают в ethernet.
Да, действительно, спасибо. Циски там тоже есть, но их меньше, нежели джуниперов, ибо они дороже. На фото получается именно циска запечатлилась, видимо надо делать фотки с большего расстояния, чтоб видеть точно, что в кадре, хотя профи узнают и по фотографии, как показал Ваш опыт :)
> Так и запишем — «резервирования нет».

с какой стати?
у меня проблемы были только из-за ддос-ов (мой хостер не защищает), а даунтайм вообще нулевой — о проблемах узнаешь только из рассылок.

А в каком из *nix есть tracert?
во всех, но называется traceroute
Угу, а во всех win* есть пользователь root, но называется Администратор.
tracepath есть везде, а вот traceroute надо ставить еще))
не везде, в freebsd нет к примеру
В пятом центосе даже был алиас tracert -> traceroute, а в шестом выпилили и теперь нельзя как в винде трасерт написать.
А кто мешает нужные алиасы в .~/.$yuorshellrc прописать? ну или в системном профиле?
Ну как то не кошерно везде ручками прописывать.
Одно дело свой один сервер, другое дело тысячи серверов у разных клиентов.
У меня товарищ держит свой ~ и /etc в git. Легким движением руки нужные конфиги укладываются на место.
PS есть еще такая штука как SystemImager и Puppet. Без первой (SystemImager с обвязками) я бы наверное задолбался обновлять все ноды кластера портала finance.ua до актуальной версии через несколько часов. А это было несколько лет назад
Ну как то не думаю что каждый мой клиент обрадуется появления какого нить гита или паппета или тем более систем имагера на своем сервере.
Я ещё раз скажу что хорошо на своем сервере, то не всегда хорошо на серверах клиентов.
Как сделать алиас массово по моему и так всем линуксоидам ясно.
Тут я с Вами согласен — если клиентский сервер администрирую я — ему плевать что там делается, пока всё работает и сеервис онлайн.
Если администрирует клиент, то я только мониторю сервер и практически в его работу не вмешиваюсь
НЛО прилетело и опубликовало эту надпись здесь
Вы вообще читали о чем суть? Далее написано о том, что и без карты могут зайти на сайт, где заглушки нет и расположен он в другом регионе. У Интернета нет границ. Так что спрятали или нет — без разницы. Но в большинстве случаев карту спрятать нереально, «дети» задавшись целью найдут :)
НЛО прилетело и опубликовало эту надпись здесь
Ну и живите с таким мнением в своем совке. В Нидерландах никакой проблемы с детьми нет, хотя порнография разрешена официально и доступна. Ограничить могут родители, а не установка запретов на размещение таких сайтов. Более того, пока ребенку не начинает быть это интересно — он САМ не стремится посещать подобные сайты, а когда интересуется — он уже не совсем ребенок. Все естественно. И вводить какие-то «запреты» со стороны законодательства — бред. Ибо этими запретами фактически ущемляются интересы адекватного населения.
НЛО прилетело и опубликовало эту надпись здесь
Я почему-то не вижу в Нидерландах проблем с влиянием на будущие взрослые личности, хотя все открыто и доступно. Если подростку нужно посмотреть что-то «взрослое» — значит оно ему нужно и он до этого дорос, лучше пусть посмотрит, чем пойдет пробовать. Вы сейчас приводите стереотипы «совка». Именно потому раньше в «совке» думали, что «секса нет». То, что эта информация есть в открытом доступе, даже не плохо, а очень хорошо, так как подобного рода информация обучает. Есть много тематических сайтов, в том числе информационной направленности. В результате меньший % рожает в 16 лет, так как уже осведомлены о всех нюансах.

Кроме того, у каждого человека организм совершенно разный. Биологически половая зрелость наступать может и гораздо ранее 16. Да, помимо этого нужно, чтоб еще «зрелость» в мозгах возникла, не спорю. Но не нужно себя считать самым умным. Некоторые дети ведут себя куда взрослее «взрослых». Все от внешнего влияния зависит, а не от порносайтов в открытом доступе. Если родители идиоты — ничего не поможет, никакие законодательные запреты, которые вообще безсмысленны, когда в большинстве стран таких запретов нет и Интернет доступен. При этом никакой катастрофы в таких странах со становлением будущих взрослых личностей не наблюдается по причине открытости информации, а наоборот наблюдается положительная динамика. Хотя, как уже сказал — Интернет открыт, потому положительная динамика стала наблюдаться и в странах с запретами. Эти запреты только заставляют дорого платить за внешний зарубежный трафик и не более того.

Хотя в России это уже поняли и создали Вконтакте, где масса порно и контрафакта, при том, что это официально якобы запрещено — никто сайт не закрывает. В данном случае сыграла роль не только жажда наживы, а желание монополизировать эту нишу, держать народ под полицейским контролем. Вы бы про это переживали больше, что законы избирательно работают, а не о том, что где-то в Нидерландах не запретили сайты для взрослых в открытом доступе.

Если «ребенок», еще не дозрел — он сам никогда не будет искать информацию подобного рода, потому что оно ему НЕ НАДО. А ели дозрел, то это уже не ребенок.
Я соглашусь с вами во всем, кроме одного — в интернете порнографию искать не надо, она сама прыгает на тебя из-за каждого угла.
Вы, видимо, не по тем сайтам ходите? Я за последние лет 5 не видел ни одной рекламы услуг эротического содержания, хотя эти самые последние 5 лет все никак adblock к броузеру прикрутить не могу, уже даже привык — на почти всех посещаемых мною сайтах реклама ненавязчива, даже если это сайты с контентом для взрослых
Я-то как раз хожу по тем сайтам, и, так же как вы, в последнее время такой рекламы не видел. Но это просто потому, что мы с вами знаем куда ходить а куда не ходить.
С год назад я первый раз подпустил своего папу к интернету. Объяснил на пальцах что такое гугл, как искать то что надо и ушёл на тренировку. Когда вернулся через 2 часа увидел около 50 окон всевозможной порнушки. Тут, конечно, можно поспорить о степени «испорченности» моего папы, но с другой стороны — я знаю, что это не то, что он искал. Но, тем не менее, нашёл и заинтересовался.

Не поймите меня не правильно, я совсем не за запрет порнографии, как раз наоборот. Я так-же не считаю, что её надо прятать. Надо просто не закрывать глаза на то, что она есть и воспитывать своих детей соответственно.
Есть замечательная штука — родительский контроль от Microsoft'а.
Есть более простая штука — как сделали мои знакомые ИТшники — с ребенками была проведена достаточно длинная беседа, о том, какие сайты хорошо, а какие плохо, и почему в список «плохо» попадают рассадники порнухи вроде желтой и синей социалок и почему там находиться не стоит, с наглядными примерами роликов насилия в школе, кажется.

В результате проведённое воздействие передалось на весь класс, некоторые дети во синюю социалочку заходить перестали.
> Уже установленные серверы
Я залип на этой картинке минут на пять.

П.С. Включите плавную прокрутку в браузере и покрутите страницу вниз-вверх (действует только на небольших экранах).
Круто! Написали бы тогда уж и про реселлеров. У кого купить можно?
LeaseWeb же
LeaseWeb и EvoSwitch входят в OCOM Group, по этой причине это фактически одно и тоже. Перепродать услуги можем и мы, так как разещаемся там.
И у нас можно.
Ввела в замешательство фотка «уже установленные серверы».
Для чего их все туда набили без рельс? На следующем фото они уже на рельсах. Получается их засунули, сфоткали, вынули, поставили рельсы и засунули снова. А нет ли фото с подключенными серверами по питанию? Очень интересно глянуть как укладка проводов выглядит, особо короткие кабели закупают, или в толстую колбасу стяжками замотали, или кабель канал все таки потом монтируют чтобы выдуву не мешал? Просто очень маленьким шкаф показался. Хм, да и одной пдушки мало будет для стойки забитой 1u серверами.
Столь замечательная связность позволяет мне работать с моими серверами в Нидерландах на скорости выше, чем с серверами расположенными в Киеве в Дата Центре «Utel» Укртелекома.

Ваш провайдер входит в UA-IX и видит ДЦ Utel с отличной связанностью.
Так что «не надо ля-ля».
Причем тут мой провайдер? С отличной связностью мой провайдер видит даже Нидерланды. Речь о Утеле. У Utel'а периодами прашивый даже UA-IX, а еще из разных шкафов по-разному работает. У нас был 10-юнитовый шкаф, где размещался Кинопоиск, так пока мы не забрали его в свой другой 42-юнитовый — они жаловались на скорость в УКРАИНУ. У Утела глючил маршрутизатор, если Вы не в курсе. Даже Андрей с серча может это подтвердить. Вомзожно правда уже заменили, но даже сейчас я из дому загружаю на наши серверы в Utel файлы с постоянно меняющейся скоростью, порой падающей ниже 25 Мбит / с на поток, в то время, как в Нидерланды у меня из дому полноценная сотка без колебаний скорсти. У моих знакомых есть крупные стримминг-проекты и порой мне из дому приходилось передавать до 5 ТБ данных. Я знаю, о чем говорю. Наелся каналов Утела и Воли. И больше пробовать не хочу.
У Воли действительно печальные каналы в мир.
У Утела с этим проблем нет.
Последний раз были лет 6 назад, когда они у всех были, в общем-то.

Я прекрасно понимаю что вы пришли на ресурс в очередной раз пиарить свой реселинг далеко не самого лучшего ДЦ.
Так было и в случае с Волей, когда вы рассказывали сказки о том как там все прекрасно, хотя люди то знали. )))
Мтр-ы в студию, подтверждающие, что проблем нет. А так же измерения скорости на поток пожалуйста. Вот когда я увижу, что скорость на поток составляет хотя бы 30% от той, которая обеспечивается в EvoSwitch, и эта скорость будет стабильна и практически одинакова по показателям, как в Москву, так и Питер, без потерь пакетов и рывков на графике (при генерации сервером суммарного трафика не ниже 600 Мбит / с, а то с ненагруженного подключения результаты совсем иные выходят) — я с Вами соглашусь, что там проблем нет. Завязывайте с Вашими домыслами. У Вас же даже нет сримминг проектов, а начинаете тут «учить», ибо если бы были и Вы действительно хороший админ — Вы бы видели совсем не прекрасную картину. Что Вы мне пытаетесь доказать? Что Утел не кал? Кал. А еще жутко бюрократический ЦОД с пофигистическим отношением. У нас там остался шкаф тех, кого «прекрасное качество» устраивает ТОЛЬКО ценой и не мало не много 8 Гбит / с каналов в этом шкафу. И то люди уже начинают понимать суть и переходят на нормальную площадку в Нидерланды.

Когда мы работали на Воле — там было все прекрасно. Когда там стало не прекрасно — мы долго с этим боролись, жаловались, ничего не решилось (ибо у Воли денег не было на нормальные аплинки, одна файлопомойка, как оказалось позднее — забила ей 50 Гбит / с за 50 000 грн и в этом была причина) и ушли в Утел. В Утеле до Евро-2012 скорость в мир была «потрясающая» — 10 Мбит / с на поток (против 2 Мбит / с в Воле, которые порой падали до 500 Кбит / с). К июлю начались проблемы и там. У Вас то серверы в Утеле есть хоть генерирующие серъезный трафик, аггрегация линков? Вы посмотрите мтр-ы и увидите как там сейчас «прекрасно». И как там маршрутизаторы интересно у них работают, что с одного шкафа жалуются абоненты, что нет скорости даже в Украину, а с другого жалоб нет и все прекрасно. По этой причине мы им и вернули 10 юнитов с 1 Гбит / с, который там был подключен.
Вы всегда любили много писать чтобы как-то повысить собственную важность.
Также всегда размещались в low-cost датацентрах в которых всегда были проблемы.
EvoSwitch не исключение.

У нас по историческим причинам остались два сервера в Воле, но не более того.
Для остального мы построили свой ДЦ с качественными апликами и резервированием, где я могу прокачать хоть 40Гбит на сервер.
Также есть свое железо в BeMobile, ДЦ с честным Tier 3+, я был там и видел что это.
Не один из выбранных вами «отличных» ДЦ и рядом не валялся.

Так что интересом жду когда до вас дойдет, как и до многих других, что в EvoSwitch далеко не хорошо, и вы начнете поливать грязью и их.
А ведь за что платите, то и получаете.
Вы всегда любили не отвечать на поставленный вопрос, где мтр-ы и доказательства того, что в Укртелекоме хорошие каналы в Россию? Вы там даже не размещаетесь, скорее всего даже не имели опыта работы с тем ЦОД, а при этом создаете много флуда.

На счет BeMobile я кстати ничего плохого не говорил, BeMobile — хороший ЦОД, но и цены там несколько иные и ориентировано оно на клиентов в основном из банковского сектора, которые покупают там услуги даже не шкафаи, а модулями. Не смотря на то, что BeMobile хороший ЦОД, ему до EvoSwitch далеко в технологическом плане и в плане охраны даже. Если Вы утверждаете обратное — скажите чем лучше. Давайте оперировать фактами, а не выдумками.

Какой бы BeMobile ни был — там не будет такой связности, при всем желании и это уже огромный минус. Опуститесь с неба на землю. В Украине просто не найдется такого количества аплинков, да и построить свои включения в такое количество точек обмена им не по карману немного.

EvoSwitch — далеко не low-cost, хотя цены на некоторы услуги гораздо ниже украинских, особенно сейчас, при качестве гораздо выше. Побывайте там и тогда сравните с BeMobile. Поймете, что разница существенна. Я кстати был и там и там, это к сведению :) VISA и другие платежные системы, а также банки — держат в EvoSwitch инфраструктуру. Для этого сущесвует Secured Gage, который там запросто можно арендовать.

На счет Дата Центра Даниила, я очень рад, что он построил свою площадку, но с тем бюджетом, который был израсходован на ее построение — это просто смешно, всего лишь еще один маленький «домашний» Дата Центр, не более того. Там хотя бы серверы в шкафах, а не стойках? Качество ЦОД меряется не количеством гигабит в один шкаф или сервер. К слову в EvoSwitch тоже без проблем можно получить, хоть 100 Гбит / с в один шкаф, оптические порты за Ваши деньги Вам предоставят в нужном количестве. Более того, эти 100 Гбит / с Вы без проблем можете распределять на нужное Вам количество шкафов (что сложнее, чем в 1), что успешно и делает одна компания.

«Также всегда размещались в low-cost датацентрах в которых всегда были проблемы.
EvoSwitch не исключение.»

Я не спорю, что мы начали в Украине не с самых лучших ЦОД, это и невозможно было. Всем же все дай дешевле. Но говорить, что в EvoSwitch всегда проблемы — как минимум странно. Значительных аварий не было ни разу. Когда были проблемы в последний раз? Если и бывают проблемы, то они затрагивают максимум шкаф, или небольшую часть ЦОД. И они настолько краткосрочны, что абоненты попросту их не замечают зачастую.

Тем не менее я не боготворю этот ЦОД, а написал довольно критичную статью и про проблемы, которые там были и есть. В данный момент ничего лучшего я не нашел, хотя есть довольно неплохие конкуренты этого ЦОД в Амстердаме, но им пока далеко. А такие, как Вы, будут и далее продолжать пытаться неоправданно облить грязью и защищать свои «домашние» Дата Центры, чтоб просто не потерять клиентов. Потому как есть площадка, где сейчас гораздо более низкие цены и гораздо более высокое качество.
«Даниил построил».
Смеялся от души, спасибо.
Дальше не читал.
Если я не обладаю какой-то информацией по упомянутой площадке Tier2 в Харькове (с «отличными аплинками», кстати привели бы список, mtr-ы и заодно стоимость гарантированного гигабита для конечного пользователя) — уточнили бы ее. Потому что уже мне смешно, что ответов по существу от Вас не дождешься. Ни на прошлые вопросы, ни на то, чем BeMobile лучше, ни на тот вопрос, когда это в EvoSwtich были постоянные проблемы. Не помню такого вовсе. Некоторые серверы уже более года онлайн без перезагрузки и деградации каналов к ним не было ни разу, даже на 5 минут. До того, как начать сотрудничество напрямую, мы сами покупали там серверы не напрямую продолжительное время и проработали примерно 1,5 года. И так же все было прекрасно. Может я чего-то не знаю, а Вы там размещались и у Вас были проблемы? Расскажите подробно, интересно узнать.
Я не доктор, но на вид написанно все про leaseweb.com — и SLA их, и сервера, и даже трейсы.
LeaseWeb / EvoSwitch входит в OCOM Group. Это одна группа компаний. Дата Центр называется EvoSwitch, а услуги предоставляет в нем LeaseWeb.
ага, а вы, как реселлер LeaseWeb — делитесь с клиентом частью своего SLA и скидкой, добавляя допстоимость приемом местной валюты и локальной техподдержкой.
Верно, при этом схема идеальна для всех сторон. Самое основное — конечно поддержка, ни у клиента, ни у LeaseWeb не возникает головной боли друг от друга и дело не только в SLA, а в том, что большая часть вопросов решается без участия LeaseWeb, если все же необходимо вмешательство инженера — мы четко и ясно ему говорим, что требуется сделать, так как зачастую процедура нам известна.
В коммутационной комнате Дата Центра можно увидеть «спагетти» из сотен оптических кабелей желтого цвета (пропускной способностью 10 Гбит / с), и значительно меньше оранжевых (пропускной способностью 1 Гбит / с)

плакал… «желтые» патчкорды могут использоватся и в 100G, і 400G и 1T, и для DWDM, где из 10/100G собираются до 96 каналов. А можно и 100Mbps Ethernet передавать.

Желтые — single-mode, оранжевые — multi-mode fiber, и прямо не связано с скоростю на порту
Речь шла не о физических возможностях оптического патчкорда, а о том, включения какой скорости ими реально обеспечиваются в EvoSwitch. Спасибо за уточнение физических характеристик. Но акцент делался на то, что одномодовых (желтых патчкордов) больше, так как у них лучшие транспортные характеристики, за счет меньшей модовой дисперсии. И как уже было замечено в обсуждении выше — это более дорогое решение, но оно необходимо для обеспечения связности свыше 3 Тбит / с с внешним миром.
оно необходимо для обеспечения связности свыше 3 Тбит / с с внешним миром.

А операторы напрямую заводят дальнобойную оптику в ваше железо, или все-таки терминируют ее в своих стойках, откуда кидают дополнительные волокна до вас?
Дело в том, что ЦОД расположен в Хаарлеме и многие стойки операторов расположены в EvoSwitch, в Хаарлеме попросту не существует более надежного места для этого. По этой причине — да, туда заводится дальнобойная оптика. Кроме того, EvoSwitch не покупает каналы погигабитно, а может себе позволить купить сразу всю магистраль, либо нужное количество волокон. В EvoSwitch есть своя сеть за пределами ЦОД, в том числе проходящая через «метро» от аэропорта Схипхол до Амстердама.
Делают же люди…
> Россия и Украина не развивают связность друг с другом, видимо, нет заинтересованности в обмене трафиком), так и в законодательном плане

ВК вот дружил, а потом лишился серверов. Больше никто не хочет видимо.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.