Pull to refresh

Comments 224

@clodo_ru Вы сами запустите сервера?
Компенсация будет?
Сервера сами запустим. Вопросы компенсации будем решать после решения аналогичного вопроса с ДЦ Оверсан-Меркурий.
неправильный ответ
А почему наша компенсация зависит от ваших разборок с оверсан? Мы же вам деньги платим, а не оверсану
да он шёл просто и провод ногой зацепил и 9 часов немог понять как его вставить обратно
UFO just landed and posted this here
вернули 2.5 рубля. Спасибо! Это того стоило!
Компенсация за 2-3 часа простоя это, конечно, хорошо: получится 2-3 рубля.
Даже если компенсация будет за день простоя, у меня на проекте с посещаемостью около 10к в сутки на Scale Server clodo тратится 30 рублей в день, что же мне эти 30 рублей компенсируют.

А кто компенсирует простой размещенной на сайте рекламы, простой собственных рекламных кампаний, которые ведут на «невозможно отобразить страницу», и как компенсировать лояльность пользователей, которая бесценна и снижается от таких падений
У нас такая же история, но обычно в этих случаях говорят — сами виноваты. На других надейся, а сам не плошай.
Так списания за диск идут! Вот их в первую очередь нужно компенсировать независимо от «компенсаций Оверсана».
Списания будут возвращены обязательно.
А в оферте о предоставлении услуг от компании Clodo прописано, что они несут ответственность за убытки, понесенные клиентом по причине возникновения подобных ситуаций?
Ну как бы п.7 «Регламент пользования услугами Оператора (далее — Регламент)» гласит:

Оператор не несет ответственности по претензиям Абонента к качеству соединения с сетью Интернет, связанным с качеством функционирования сетей других провайдеров, политикой обмена трафиком между провайдерами, с функционированием оборудования и программного обеспечения Абонента и другими обстоятельствами, находящимися вне зоны компетенции, влияния и контроля Оператора.

И как бы, лично я, не знаю компаний, предоставляющих подобные услуги, у которых бы не было этого пункта.
обстоятельствами, находящимися вне зоны компетенции, влияния и контроля Оператора
Почему-то мне кажется, что проблема-то была в зоне компетенции, влияния и контроля Оператора. Другое дело, что конечно же в оферте никакие компенсации за убытки не предусмотрены — услуги по договорам с таким пунктом стОят совсем других денег.
Насколько я понимаю Clodo арендует стойки в ДЦ, и если их правда и письмо в «шапке» действительно от Оверсана, то поясните каким образом Clodo может быть в компетенции над криворукими инженерами ДЦ?
Насколько я понимаю, Оверсан отключил питание на 15 минут, остальное время — подъем машинок уже в Clodo. Это ни разу не камень в огород Clodo — это просто аргумент, почему данный пункт регламента неприменим к сегодняшней ситуации.
за что заплатили то и получили
UFO just landed and posted this here
UFO just landed and posted this here
Да сегодня уже почти четыре часа простой! Маловат запас на год остался. Я тоже все равно люблю Clodo, но отбиваться от нетерпеливых юзверей слегка притомило уже.
Почему-то вспомнилось это —
habrahabr.ru/company/oversun-mercury/blog/87503/ и вот это — nnm.ru/print/Boomburum/istoriya_odnogo_data-centra/

Стабильность питания обеспечивается множеством источников бесперебойного питания и дизель-генераторными установками.

Если верить докладчикам, то в случае пропадания питания «из вне», генераторы смогут обеспечить полноценную работу всего ДЦ на протяжении десятка часов (без подвоза дополнительного горючего). И да, доступность электропитания – 99.982%.


никакие генераторы не спасут, если кто-то рубанет автомат уже «чистого» питания…
Цитата по первой ссылке:

«И в таких, прямо сказать, неблагоприятных условиях мы должны выполнять обязательства уже перед собственными клиентами. А им и дела нет до того, что где-то нетрезвый энергетик перепутал рубильники»

Да уж :)
"… Стабильность питания обеспечивается множеством источников бесперебойного питания и дизель-генераторными установками..., а также высокопрофессионально криворуким техническим персоналом, который даже в кромешной тьме найдет нужный рубильник!"

Лично я с тенерпением жду официального объяснения «ошибки» инженера, которая привела к многочасовому простою (если конечно это «ошибка инженера»).

И еще, может кто-то подскажет, инженеры действительно такие тугодумы, если ссылаются на временные параметры в отключении питания? Они типа че там не знают какие клиенты у них в ДЦ и что для них даже самое кратковременное отключение питания — это часы простоя? И эти люди предлагают услуги Оверсан-Скалакси?
Может быть кто-нибудь из «Оверсана» что-то наконец скажет?

Сказали же — пятница, они уже стоят в пробке по пути на дачу начальства нет на месте.
Неа.Я думаю карму берегут.
sarcasm Ну овесану теперь осталось еще сгореть с несработавшей системой пожаротушения и тогда можно считать попил 100% успешным. /sarcasm
Оно всегда невовремя…
Стабильно раз в месяц :) Больше 40 минут лежим. Что будет предпринято в этот раз?
В данной ситуации с нашей стороны вина лишь в выборе дата-центра. Вообще то, что проблема задела в основном clodo, заставляет нас сильно задуматься о возможности дальнейшего нахождения в ДЦ рядом с конкурентами. Особенно учитывая, что инженер Оверсана заявил, что причина аварии — человеческий фактор.
То есть существуют варианты по выбору датацентра и возможна даже смена ДЦ?
Технически это возможно, но требует от нас капитальных затрат, причем немалых.
Ясно. Надеюсь, что ситуация разрешится меньшими потерями, так как реализованная вами платформа очень приятна в использовании. Желаю успехов.
P.S: но всё же приходится держать резерв под приложения на сторонних площадках, м.б. имеет смысл сделать как у заграничных хостингов дополнительный дц для создания сервера?
Проект в Европе и в Санкт-Петербурге сейчас в разработке.
По моему это какая-то проказа Оверсана.
У меня это вызывает какие-то странные чувства. Надеюсь у Вас скоро все будет отлично.
У меня тоже первая мысль была — «Оверсан сливает конкурентов». У Оверсана тоже ведь есть scaled-решения.
У Оверсан-а есть Скалакси scalaxy.ru, якобы живущие своей жизнью.
Если учесть что технологии Скалакси на начальном этапе вместе с частью сотрудников перетекли в Клодо, то можно заподозрить тут попытку слива клиентов, но мне кажется что тут скорее всего хромает дисциплина инженеров в ДЦ.
Оверсан явно не готов распрощаться с Клодо, надо же деньги государству возвращать за мега стройку-роспил.
У нас не работает ни одного сотрудника ранее работавшего в Скалакси.
более того, могу утверждать, что до определенного момента никто из ключевых сотрудников оверсана не уходил. а после ухода тех, кто теоретически мог бы что-то «слить» — у клодо просто не хватило бы времени воспользоваться
Приятно что вы сообщаете об этом оперативно на хабре, еще бы в панели управления уведомляли.
А то после нажатия кнопки «Перезагрузить» и отсутствии признаков жизни от VPS начинаешь думать что то произошло именно с твоим сервером.
Зато поддержка среагировала моментально(ну как моментально, в течение 5 минут).

@everybody рекомендую закрыть активные тикеты и написать попозже, врядли шквал одинаковых заявок сильно поможет в решении.
>электричество лишь “моргнуло”
facepalm.jpg
А вообще какой-то проблемный оверсан получается, не находите? И всё это несмотря на десятки красивых фотографий…
И особенно радует описание с сайта:
Энергообеспечение

Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Мдя… 0,018% это и есть тот пресловутый человеческий факор. Все эти ПУЭ, N+1 и прочее, ничто, против дебилов, уборщиц и совковой конкуренции!
Купить оборудования за миллионы могут, а обучить несколько человек аккуратно убираться/администрировать/набирать не дебилов что-то не позволяет.
Это и есть дебилы и совковая конкуренция. Купить оборудования на миллионы и отправить на уборку бабку за гроши.
Ошибка инженера — бабка уборщица шваркнула шваброй по шнурам питания?
Ошибка начальства: наняли бабку-уборщицу, вместо хоть теоретически разбирающегося в предмете человека.
На апрель 2010г. диз. генератор еще не был готов к запуску так как не хватало какие-то деталей и было еще много мелочи и недоделок.
Мне рассказывали сотрудники, когда в Оверсан приходили журналисты смотреть на красивые черные стойки специально для них старший инженер доставал мониторы и включал якобы рабочую систему мониторинга ))
В стойку надо два питала от разных фаз вести для победы надо подобными случаями.
А вообще, оверсан — караван и кто еще там раздут рекламой, простые дц уровня надежности 2+.
До 28 часов простоя в год, если кто не в курсе, сколько на рекламу денег не трать и какие золотые унитазы там не ставь.
Насколько я знаю, там так и сделано. И даже сервера подключены как положено — каждый БП в разные фазы. Но что то особо не помогло. Видимо рубильник общий для двух фаз.
Молотком оверсану по голове надо за такое настучать. Почуяли что Clodo намного лучше и удобнее их сервиса. И сделали чтобы «электричество моргнуло». В надежде что все от них убегут. Шыш! Не на тех напали!
Я еще больше вцеплюсь в Clodo и их защиту. Буду их верным пользователем!
Клининговая компания «Бабка Ефросинья» — профессиональное устранение хостинг конкурентов. :)
Clodo заметили падение продаж. Для этого они заплатили инженеру оверсана, чтобы «электричество моргнуло». Так находят верных пользователей :)
— А что у вас с электричеством?
— Оно моргнуло
Соринка в глаз попала, угу.
«Моргнуло», «человеческий фактор»… — да просто приятно, наверное, сервер конкурента пнуть.
Сразу оговорюсь, что это лично мое мнение, но эта же мысль не выходит у меня из головы.
Конечно, сейчас все побегут к скалакси, валить Вам надо оттуда…
Не побежим, там дороже:) А у нас денег нет, только если продать что-нибудь ненужное.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Так скалакси это и есть Оверсан, в котором сейчас сбой.
сбой в оверсане, но затронул в основном только клодо. скалакси в норме видимо
Точно такой же сбой по питанию мог произойти и для Скалакси раз ДЦ один и тот же. А цены из-за мнимой надежности.
Неужели вы думаете, что в скалакси не знают какие рубильники ихние, а какие клодовские?
Восстанавливайтесь быстрее!

А теперь вопрос к супер-пупер-мега надежному Оверсан: получается неоправданно цены у вас завышены за надежность — надёжность мнимая.
Как-то очень долго идёт запуск ваших систем…
Увы, сложные системы не умеют запускаться мгновенно.
да хотя бы проверка файловой системы, — уже до 20 минут запросто.
40ТБ — 2,5 часа проверка.
можете озвучить примерное время, через сколько сервера поднимутся?
С достаточно большой вероятностью уложимся в час.
Итого простой будет 2 часа, обидно.
С момента комментария прошло 23 минуты.
а… я подумал, что вы имели в виду относительно момента отключения, а не комментария
и все же не уложились)
Стартовать виртуальные сервера уже начали. Я уже писал, что процесс постепенный, если сразу все стартовать будут проблемы.
Лежат и не пингуются по-прежнему. Общий простой — 4 часа.
Час прошёл. Как у вас обстоят дела? Нужны более точные сроки, пусть с запасом.
UFO just landed and posted this here
Файловая система уже прочекана. Сейчас админы приступают к запуску виртуальных серверов. Но запускаются не все сразу, поэтому этот процесс займет некоторое время.
На динамо-велотренажере?
В гугле откройте закладку с картинками и наберите «орудуют дебилы» :)
это не «моргнуло»
это называется «просадка напряжения»
либо кто то счелкнул выключателем. иначе я не могу представить причем тут человеческий фактор
То что щелкнули выключателем подтвердил инженер дата-центра
Не ДЦ, а сказка. Ходят себе, щёлкают рубильники, похоже все кому не лень :)
from: bash.org

xxx: сижу, похмелье, пью зеленый чай
xxx: подлетает начальник, шевелит усами, кричит: «у эксплуатации проблемы, не могут скип отправить, срочно разберись, помоги»
xxx: напрягаю мозг, звоню, отвечает дежурный, спрашиваю: «сменный? Сзади шкаф ШК1, там реле K2Q, зажми, 5 секунд подожди, программа циклов и программа подач сбросятся на начальные позиции»
xxx: жду. На том конце трубка лежит на столе, оператор ищет реле. Жду. Тут у него трели звонков телефонных, а на наладочном объекте вроде некому звонить, мастер печи еще не парится, остальные и подавно
xxx: опускаю глаза… Не ту страничку открыл в блокноте, не на тот завод позвонил… Тихонько кладу трубку.
xxx: сижу, похмелье, пью зеленый чай
UFO just landed and posted this here
UFO just landed and posted this here
Не до всего оборудования дотянулась костлявая рука человеческого фактора.
UFO just landed and posted this here
Электричество «мигнуло» не на всех наших стойках.
Простите, не силен в облаках, но если «мигнуло» не на всех, то почему вообще что-то упало? Я думал при падении отдельных серверов виртуальные машины должны мигрировать на оставшиеся.
И чем это отличается от дедика тогда кроме того что он бы ребутнулся и снова работал через минуту, а не через час.
Контроллер кластера и сторадж задело
Когда падал дата центр на Амазоне, я писал что мой экс работодатель переехал туда, но их не задело…
Но недавно они переехали на Клодо, в виду ряда объективных причин. И на этот раз их накрыло…

От судьбы не уйдешь…
Ещё один кандидат на должность чувака с долларами?
Так вот кто виноват в происшедшем, тогда простим работников оверсана, их руку само провидение направляло.
Кажется, что проблемы с кратковременным отключением питания типа «мигнуло» должен решать поставщик услуг размещения оборудования.
Решение поставщика — «сейчас питание на стойки подается в штатном режиме»
не поленился найти объявленные хар-ки, они не плохо звучат на бумаге:

Электроснабжение дата-центра обеспечивается двумя независимыми вводами от трансформаторных подстанций (первая категория надежности по ПУЭ). Стабильность подачи питания поддерживается ИБП производства компании AEG (Германия) и дизель-генераторными установками (ДГУ) FG Wilson (Великобритания). Надежность питания оборудования в стойке гарантируется двойным независимым электроснабжением. Схема резервирования питания — N+1. Доступность электропитания — 99,982%.
Это они описывают характеристики доступности электропитания в целом по ЦОДу. «Человеческий фактор», дергающий рубильники у отдельных стоек, тут не учтен.
Так у стойки же два независимых питания
Ага… и один независимый рубильник.
Как вы себе это представляете?
Такие решения широко применяются. Двойными блоками питания, например, оборудуются некоторые сервера.
Картинка с доклада на spbcode (не все так хорошо с облаками, как это рекламируют):

image
Гуглевское облако, что характерно, самое надежное — отказала часть облака, а не всё сразу. А остальные — лузеры, это да, до гугля им как до китая.
Я так и не понял, почему не сработали хваленые системы резервного питания?
Питание отключили уже на стойке, как я понимаю…
Официальный ответ нам обещали прислать в понедельник, так как сейчас руководства нет в офисе. Пока мы довольствуемся только ответом по e-mail:
============
Максим, еще раз здравствуйте.
Главный инженер службы эксплуатации дата-центра, к сожалению, не полномочен выступать от лица компании с письменным обращением о произошедшем сбое. Сейчас мы готовы дать ответ только в электронном виде:
Сегодня 20.05.2011г. в 12.50 в связи с ошибкой инженера произошло кратковременное (менее 1 минуты) падение электоэнергии в дата-центре, которое затронуло часть оборудования.
Мы приносим свои извинения за возникший инцидент и можем гарантировать, что исключили возможность повторения подобной ситуации в будущем.
============

Ждем в понедельник официальное письмо
За выходные что нибудь придумают, не переживайте…
Интересно как они исключили возможность повторения такой ситуации в будущем? Уволили это инженера?
Нет, просто пообещали. Так сказать, ни к чему не обязывающее обещание )
Перевесили ярлычек с «Клодо» на пустую стойку :)
В прошлый раз Клодо в почте тоже написали что исключили этот фактор, 1 в 1 было письмо :) Тоже было лишь такое предположение.
Мы его у себя исключили. Но за действия третьих лиц мы никак не можем поручиться.
Наймите охранников пусть посменно сидят рядом с вашим рубильником в ДЦ :))
UFO just landed and posted this here
UFO just landed and posted this here
Это грустно.
П.с.: не смотря на сбои, мне (в прошлый раз) понравилась постреакция на сбой, и то письмо я уже ставил несколько раз в пример, как нужно работать с клиентами в случае ЧП.
— «Ну и что нам с тобой делать Бородач?»
— «Понять и простить»
Рубильник был главным с ярлычком Clodo :)
Потому что они стоят до рубильника…
«worldoftanks_ru 14:08:42, 20 мая 2011 г.
В московском дата-центре проблемы с электропитанием. Ждем, пока всё устранят. Приносим свои извинения. =(»

Дак вот где хостятся теперь сервера WOT
Идет обновление программного обеспечения. Повторите запрос позже. :)
Мой так и не поднялся. При попытке ребутнуть в панели «Неизвестаня ошибка»
Не надо пытаться самостоятельно что то сделать. Мы сами все запустим.
Ок. Просто «оборудование начало включаться примерно через 25-26 минут после отключения… » расценил как то, что уже должно работать, учитывая что сейчас 15:10.
Делайте…
Включились железки. Облако это не только железки но и ПО. Старт всего комплекса занимает какое то время.
Во-во, именно эта проблема меня и беспокоит больше всего. Помимо того, что синхронный старт клиентов — это дикий всплеск нагрузки, то и количество машин ставит вопрос о том, как долго будет идти выход на штатные показатели.
сегментируй меньшими кусками, типа: два стора, 6 серверов. каждый такой сегмент поднимается не быстро, но за то ты сможешь запустить все сегменты одновременно.
Эта проблема понятна, понятна так же идея сегментирования, но очень много вопросов завязано на централизованное управление — пустить каждый компонент в свободное плавание никто не рискует (мы, по-крайней мере, нет), а централизованная (хоть вся из себя кластерная) система всегда точка затыка.

Пока до этого не дошли руки, но всю архитектуру нужно серьёзно менять, чтобы делать облако не только на уровне клиента, но и в рамках management-структур…
Подумать над распределенной системой управления? в принципе запасной управляющий хост может висеть вообще где-то у конкурентов и рулить по vpn работой сегментов облака. Биллинг понятное дело туда не вынесешь, но тут уж лучше пол дня биллинга потерять, чем аптайма.
Не-не-не, это проблема другого уровня.

Например, когда машина запускается, ей нужно иметь специфичные настройки. Фильтрация IP на интерфейсе, настройки регуляции памяти и т.д.

Где их брать? Когда «всё живое» — эти настройки хранятся в централизованной БД, а кешированная копия — в памяти обслуживающего хоста. Штатно предполагается, что централизованная система может лечь ненадолго, а хосты продолжат работать на кешированной копии. Альтернативно, если ложится хост, он ждёт ответа централизованной системы перед первыми запусками.

А теперь представим, что у нас «старт всего». Все ждут централизованной системы, остальные в это время имеют race за ресурсы и т.д… Тут простых решений нет, нужно садиться и делить администрирование на зоны — а это тяжело и опасно, потому что можно запросто получить конфликтную/противоречивую информацию в разных зонах…
Я не понимаю, что мещает иметь этот хост централизованной системы запущенным где-то на впс у конкурентов, в качестве последнего эшелона? локальный еще не поднялся, забрали данные с удаленного. Подтом поднимется — синхронизируется с живым.
Рисков не особо много и они нормально купируются. Другое дело, что провайдеру нужно решить для себя, стоит ли тратить время и менять систему для такой редкой ситуации как эта. Наверное, если разница будет между 1 часом и 6 часами, то стоит.

Децентрализация, конечно, ускоряет значительно — когда у TrueVDS была похожая ситуация с аварийным обесточиванием, на выход в рабочий режим 90% машин потребовалось около 30 минут. Хотя в основом это из-за организации дисковой системы получилось, и это был скорее побочный эффект, так как цель обеспечивать в первую очередь быстрый старт после аварий не ставилась.

Но у вас ведь XCP? У меня было впечатление, что там настройки всех гостей хранятся в децентрализованном сторедже средствами самого XCP. Что должно автоматически решать вопрос и избыточного хранения настроек, и быстрого старта, Или это не так?
У нас XCP только как «middleware», сверху там много своего.

Кроме того, у XCP хранение-то информации о пуле децентрализовано, а вот операции — централизованы и проходят через мастера. Так что в наш прошлый ляп с рейдом (около часа даун) 10 минут был даун и 50 минут — старт клиентских машин. Хоть там и был какой-никакой параллелизм, но очень ограниченный.
Если мастер выбывает, что происходит? Новый автоматом выбирается?
В xcp мастером может быть назначен любой хост пула, но эта операция всегда делается руками, чтобы не огрести массовый сплитбрейн.
UFO just landed and posted this here
Буквально за 20 минут до сбоя оплатили услуги.
И тут такая задница.
У меня ни один сервер не поднялся.
Есть тут счастливчики?
Счастливчиков пока немного. Около 100 клиентов. Стартуем постепенно.
У меня два сервера поднялись ))
UFO just landed and posted this here
Пять часов ровно… В панели по-прежнему статус «Ошибка»
Разговор двух админов:
— А у меня вчера друг за пять минут сервер сломал…
— Он что, хакер?!
— Нет, он просто дурак!!!
Некоторые оплатили на год… есть такие
Серваки были за упсами, а какой-нить рутер без. Это нормально для серьезного рутера подниматься 20мин))
Это все еще та же страна… могли и такую схему запустить в работу
У серваков есть логи.
3 часа лежать это уже не серьезно.
Клиентов уже запускаем. Перед запуском клиентов, система требует провести ряд проверок которых не избежать. Не серьезно было бы не сделать этих процедур.
Не серьезно падать во время компиляции в /tmp когда при загрузке он очищаеться… и УЖЕ списать деньги за недокомпилированный сервис
Попробую сейчас объяснить это моему начальству:)
Мое уже сказало: Надоели падения! Нес-ко раз в неделю! Съезжаем :) примерно так.
Присерно такой же ответ и я получил, но так не хочется покидать любимый clodo, восстанавливайтесь скорее ребята и больше не падайте.Желаю только удачи и бурного развития в дальнейшем.
Уже почти 4 часа даунтайм. Печально же.
Простите, можно узнать, когда, ориентировочно, всех включат?
Сейчас всех стартуем. Пятую часть уже запустили.
Ну то есть, некоторые заработают только часа через 3-4?
Все заработают гораздо раньше
Один заработал.
На втором красная табличка «ошибка».
Вы его включите?
Там же. Но веб-морды на отдельных железках и не в составе кластера.
Проясните ситуацию. Оверсан и Clodo.ru — партнеры?

Если так, то Оверсан не слишком то честный партнер. В одной из прошлых статей они (Оверсан Скалакси) довольно нелестно отзывались о Clodo.ru и несколько раз подчеркивали что последние используют устаревшую версию их оборудования.

И вот теперь устроили им отключение стоек, как бы случайно (лично я в такие случайности не верю).

В общем, если я все правильно понял — то рекомендую Clodo.ru отказаться от такого «партнерства». Иначе это тупик.
МЫ являемся клиентами ДЦ Оверсан-Меркурий — арендуем у них стойки.

Скалакси предположили, что мы используем устаревшую версию их программной архитектуры. Не оборудования.
>Скалакси предположили, что мы используем устаревшую версию их программной архитектуры. Не оборудования

Точно, прошу прощения.

ДЦ Оверсан-Меркурий и Оверсан-Скалакси — это одна и так же компания (т.е. те самые, которые писали порочащую статью на Хабре)?
ДЦ Оверсан-Меркурий официально сообщил нам, что статья опубликованная в блоге Оверсан является личным мнением их технического директора Дмитрия Лоханского и непосредственно Оверсан не имеет к этому отношения.
>является личным мнением их технического директора Дмитрия Лоханского

Хм. Но там была разглашена конфиденциальная информация (к которой имел доступ только инсайдер). Причем статья была написана в корпоративный блог (я так понимаю от имени Scalaxy).
У нас были вопросы к Оверсан по этому поводу. Суть официального ответа я уже передал выше.
Нас тоже это напрягает. Размещаясь в ДЦ Оверсан-Меркурий, мы полагали, что информация о нас не будет доступна нашим прямым конкурентам.
image
а что за статья? можно ссылочку?
Очень подозрительно что первоначальная архитектура СХД в Клодо в точности совпадает с той, которая была у Скалакси изначально, причем включаю конфигурацию железа. Позже Скалакси от нее отказалась, перейдя на другую а вы просто нарезали GPFS на несколько частей чтобы быстрее восстанавливаться.
Кроме того известно что некоторые из сотрудников Скалакси перешли в Клодо свое время, принеся нужные технологии и теперь Скалакси в лице Оверсана вполне возможно точит зуб на Клово.
Почему Вы так уверенно говорите о нашей архитектуре и о том что у нас работают бывшие сотрудники Скалакси? У Вас есть какая то информация которой нет у генерального директора Clodo?
бред не несите — в свое время никто из ключевых сотрудников оверсана не уходил
Приведу свои доводы:

1. Д. Лоханский в своем блоге habrahabr.ru/company/oversun/blog/117260/ явно пишет
«Clodo — коллеги, работающие с первой версией нашей архитектуры 2008 года, IBM GPFS хранилище, решение на базе Xen.» — если у Клодо архитектура другая получается что он ВРЕТ?
Если смотреть старые скриншоты архитектуры скалакси и нынешней Клодо (до того как они попилили GPFS на несколько частей) начинаешь верить Лоханскому.

2. Подозрительное сходство в использовании оборудования. Самое странное что и Скалакси и Клодо используют очень дорогой Infiniband. Заметьте что больше ни один рус хостинг подобные штуки не ставит — они очень дорогие и сильно снижают окупаемость хостинга. Скалакси можно понять здесь — они себя изначально позиционировали под размещение гос проектов и рос космоса и денег из гос бюджета не жалели а вот с Клодо — тут непонятны причины.

Исходя из этого можно заключить что технологии Скалакси каким-то образом попали в Клодо.

Вопрос как?
По логике вещей ответ тут только один — люди пришли и помогли/научили/поставили. Это должны быть люди которые умеют работать с очень ДОРОГИМ Infiniband, f5 и тд. Должны разбираться в cхемах построения инфраструктуры с использованием Infiniband для организации хостинга.

Кто мог за короткий срок помочь создать нужную инфраструктуру?
Ответ тоже навязывается сам — кто-то из организации, которая уже это сделала или этим занималась. На тот момент это был один хостинг — Скалакси.

Какие образом и кто помог Клодо освоить все эти технологии?
Кто-то из сотрудников перешел в Клодо, а может и не проходил а находился всегда в стороне, показывал, настраивал, учил — мне лично все равно. Для меня важнее последствия.

А последствия я лично вижу следующие:

1. У Оверсана есть проблемы с организацией работы — сегодня они всем это доказали
2 Клодо использует технологии Скалакси которых добился явно меньшими затратами за что Скалакси держит зуб на Клодо и и своих тестах их выставляет в конец списка облачных хостеров
Логика у вас просто «железная». И все так складно в «анализе» архитектуры. Особенно порадовал «попиленный на зоны GPFS», монополия Скалакси на infiniband и предположение, что специалисты, которые умеют работать с технологиями есть только в Мрскве и все они трудятся в Скалакси.
а де факто?) любопытно.

P.S.: тоже бывший сотрудник Scalaxy, хорошая команда там была, когда я там ваял, с Clodo не сотрудничал, если что :)
Что именно любопытно?
1. До запуска Скалакси было офигенное кол-во конференций, на которых, в том числе и Дима, довольно подробно рассказывали об архитектуре. то что прошло очень много времени от раскрытия архитектуры до реального запуска Скалакси и что за это время можно было построить работающую систему — явно не проблема Клодо.
2. То что пишет Дима, надо заметить не в своем, а корпоративном блоге — это его личное мнение и только. Если было бы иначе — есть суды, есть закон о коммерческой тайне, как умеет судится Оверсан все знают. Но, на сколько я знаю, никаких реальных доказательств слива нет — только логические выводы. Собственно поэтому наверное и исков нет.
3. Похожесть панелей очень относительная. Они похожи только в общих, очевидных подходах. Кстати доступ к интерфейсам панели был далеко не у всех. А так чтоб и к описании архитектуры и к интерфейсам — так вообще у единиц. Большая часть из которых были руководители.
4. Мне кажется естественным возникновение вопроса о том, откуда такие знания о конкуренте? Мне кажется, что в отличии от, Клодо так активно не участвовало в конференциях и не раскрывало столь подробно свою архитектуру.
Еще раз повторюсь — никто из ключевых сотрудников не уходил из Скалакси в обсуждаемый период (когда передача данных могла бы дать преимущество).
так, это уже не смешно, когда запустят все машины?
Присоединяюсь. Время 19.16 по МСК, у нас 2 сервера лежат. Мне нравиться Clodo.ru, но невольно уже начинаешь задумываться об альтернативах. Я понимаю 1-2 часа. Но 6 — это уже серьезно.
сижу жду пока начнут матом ругаться, а вообще тоскливо
Уже почти 7 часов дауна, негодую :(
Думаю над альтернативами.
Один сервер поднялся, второй все еще лежит.

Ответ саппорта:

Здравствуйте.
Быстрее не получится. Сервера запускаются в порядке очереди.
Странно что на форуме самого clodo тишина. Хорошо хоть здесь какая-то информация есть. Машина запущена, но, судя по всему, не имеет доступа к диску. Перезапустить не получается:«Действия временно недоступны».
А я у вас зарегистрировался! Давно хотел посмотреть на vps — и вот собрался.
Нравится.
Всё понравилось, буду пользоваться.
Только iptables не работает на Ubuntu 10.04-amd64, на форуме об этом пишут, завтра почитаю.

Свой сайт уже перенес, протестировал loadimpact: 1 — 2 мс, я доволен.
Что-то мне кажется, что у Скалакси, такого «моргания» не будет никогда… Моя VPSка как пару часов бегает.
ps: и правда бы лучше сделали глобальное уведомление/рассылку о проблеме, а так бедный саппорт на однотипные тикеты отвечать.
вообще-то падения есть и у Scalaxy, просто не такие масштабные. Никто не безгрешен.
можем гарантировать, что исключили возможность повторения подобной ситуации в будущем.
Примотали скотчем все вилки к розеткам
UFO just landed and posted this here
ув. представители Colodo, вы же знаете что критическая единица потребления электропитания — стойка. ну кто же вам мешает распихать все свои сервера по разным стойкам, таким образом чтобы обесточивание _1_ стойки не приводило к фаталам? вам лениво поговорить с оверсаном о том чтобы хитро осуществить эл. коммуникации?
Это такая проблема поставить по 1му дополнительному UPS на каждый ключевой сервер прямо в стойку и запитаться напрямую от него?

у нас все ржут теперь: над новый вид безоблачного хостинга или как компенсировать ущерб репутации клиентов чтобы слово «клоуны» не примешивалось к бренду.
ну все как всегда, и заминусовали, и конструктивно не ответили, и деньги не вернули. и заметьте, кроме пустых обещаний — никакого конструктива… впрочем пофиг, всеравно вы не признаете что молодые и несовершенные, и что у вас еще есть куча рисков и проблем. не признаете и на главной не напишете.
Sign up to leave a comment.

Articles