Pull to refresh

Comments 69

UFO just landed and posted this here
Если Вы не обратили внимание — в нашем предложении присутствует возможность расширения трафика до канала без учета трафика, можно расширить канал до 1, 2 и 10 гигабит. И 1 гигабит это не анлим — это порядка 300 ТБ трафика в месяц, а то и менее, в зависимости от характера суточного потребления. Ничего безграничного не бывает. Трафик ограничен пропускной способностью канала.

В Вашем случае не ругаются, так как далеко не все их клиенты используют полосу полностью. А можете показать ради интереса график за месяц? А то не верю. Может Вам повезло и в Вашем шкафу просто много свободной емкости. Так как даже на веб-сайте они гарантируют далеко не гигабит, а 500 мегабит с «политикой честного потребления», хотя может я что-то путаю и ошибаюсь.

И не забывайте о саппорте, там поддержка очень медленная. Это дата-центр, направленный на автоматизацию. Другая бизнес-модель. Другие серверы.
UFO just landed and posted this here
«Саппорт? А что это и зачем в случае аренды сервера?» — в большинстве случаев требуется в случае проблем с железом. Есть еще и аутсорс-саппорт, который запрашивают некоторые пользователи, которые просто просят мониторить и сопровождать серверы и мы это делаем, круглосуточный мониторинг и решение проблем с сервером, еще до того, как о ней узнает абонент, у нас стоит от 10 долларов / месяц.

«Просто меняем на другой и всё» — не все проекты можно мигрировать за секунду, хотя бы потому, что для передачи данных на новый сервер требуется время и в случае солидного объема — миграция может занять от суток и более. Даже те проекты, которые автоматизированы, не мигрируют «просто». Долго думал, но так и не смог придумать случай, когда это просто. Поделитесь опытом. Если нет резервирования — будет даунтайм и время простоя будет очень зависеть от:

— квалификации поддержки;
— то на сколько быстро заменят комплектующую или даже сервер в целом;
— оперативности ответов и загруженности тех. поддержки.

«Напротив, если я размещаю свой сервер, то мне техподдержка очень важна.» — а в чем разница? в случае размещения своего сервера Вам нужны еще и удаленные руки, и комплектующие (запас именно для Вашего сервера) и точно такой же сервер, если платформа полностью выйдет из строя.

P.S. Вы так и не предоставили график с гигабитом за 79 евро в OVH. Хотелось бы посмотреть.
Я несколько раз пытался обращаться в поддержку OVH и получал полный игнор. Правда, я не их клиент и возможно они поэтому меня игнорировали.
У Hetzner поддержка лучше (и я не их клиент даже).
У Hetzner вообще отличная поддержка, даже по меркам утырков, утверждающих, что у них «хорошая техподдержка».
RT на практике сводится к 15-60 минут (совсем редко — 2 часа, но это уже самый долгий случай), если про железо речь. Я такого больше нигде не встречал, даже в пресловутом leaseweb, у которых легко встать в 4х часовой dt из-за БП.
UFO just landed and posted this here
> 1. траф никакой, за перерасход сдерут как липку
Ага, всего-то 30 ТБ.

> Реально было 10 мегабит в Европу и 1 мегабит до России.
В каком году-то?
UFO just landed and posted this here
Но те, кто привык экономить, зачастую сравнивают не все, совсем забывают о том, что там практически отсутствует поддержка, дата-центр более низкого уровня, связность хуже, каналы в Интернет не гарантированы, а объем включенного трафика может быть даже меньше.

Ну началось…

практически отсутствует поддержка

У OVH она шикарная, но долго отвечают, у hetzner — наверное мне везет, или потому, что я там с 2011 года.

дата-центр более низкого уровня

evoswitch (это вы) = 2N (tier3)
ovh = 2N (tier3) & 2N+1 (tier4)
hetzner = инет говорит о Т1.

связность хуже

смотрим выше на тиры

каналы в Интернет не гарантированы

orly, ovh 3Tbit по европе и 4 в мир

объем включенного трафика может быть даже меньше

у hetzner 20-30Тб, у OVH анлим, у вас в дц где вы перепродаете 100Тб.
«У OVH она шикарная, но долго отвечают» — :) в чем же тогда шикарность? Саппорт то квалифицированный может быть, я не спорю, просто его нет, так как серверов очень много на такое количество саппорта, а при большем количестве саппорта — совсем иная цена. Об этом я собственно и говорил, что поддержки практически нет, так как бизнес-модель там основана на автоматизации.

«evoswitch (это вы) = 2N (tier3)
ovh = 2N (tier3) & 2N+1 (tier4)
hetzner = инет говорит о Т1.»

Данное предложение мы сделали в дата-центре Switch (http://www.switchdatacenters.com/en/), а не EvoSwtich, уровень дата-центра Tier IV, применяются самые новые технологии и разработки, включая иммерсионное охлаждение. EvoSwitch просто очень большой и там, к слову, Tier III+, по сути также IV, IV не дают только потому, что в той местности только один поставщик электричества, монополия, нет возможности получить энергию у второй компании.

2N, кстати, совсем не означают, что это Tier III. Это только показатель резервирование, а не сертификации Tier.

Кстати, помимо сертификации Tier дата-центров, есть еще сертификация Tier аплинков, так вот такая коннективность никакому OVH даже не снилась и такое количество аплинков Tier I уровня (у магистральных провайдеров, первый уровень — самый высокий, наоборот). И вопрос даже не в терабитах, а в том, какими магистральными операторами и как передается трафик. Сколько оптимальных маршрутов, включая резервные, существует.

И только после анализа того, сколько стоит качественный IP-транзит точка-точка по Европе, становится понятным, что Tier I, который зачастую может стоить порядка 2000-6000 евро за 10 гигабит, предоставляться по 79 евро за гигабит, даже со всеми возможными оверселлами, просто не может.

«у hetzner 20-30Тб, у OVH анлим, у вас в дц где вы перепродаете 100Тб» — мы можем предоставить столько трафика, сколько нужно абоненту, 1 Gbps Unmetered будет стоить 230 долларов / месяц дополнительно. Можно расширить также до нескольких и даже 10 гигабит.
1 Gbps Unmetered будет стоить 230 долларов / месяц дополнительно

У OVH 1Гбит дополнительно стоит 52 бакса (далее 2 за 102 и 3 за 150).

Кстати, помимо сертификации Tier дата-центров

И вопрос даже не в терабитах, а в том, какими магистральными операторами и как передается трафик.

и
обходится в 59 долларов в месяц для наших клиентов

То бишь у вас я могу за эти деньги и сеть настроить как хочу. Там bgp всякие, бантики?.. или нет?
Скорее всего нет. Я не сталкивался с кривыми марштутами через 33й государство. Для веба (моя сфера приминения) хватает одного сервера + пачки CDN от cloudflare, чтобы донести до клиента контент. Можно два сервера для базы, но сейчас крутое железо отдают за копейки!
Поэтому у меня нет цели закупать пачку серверов в разных частях света всего лишь в штатах, нидерландах или сингапуре чтобы отдавать терабайты контента, когда все можно делать за меньшие деньги используя готовые решения (CF).

2N, кстати, совсем не означают, что это Tier III. Это только показатель резервирование, а не сертификации Tier.

Мне лень закапываться в дебри сертификации, я ее никогда не проходил. Гугл мне говорит, что для Тир4 надо 2Н+1, а когда на дворе был 2012 год, в твиттере OVH была инфа о том, что они уже почти полностью на tier4, и только некоторые работают на tier3.

Ну и вот их сеть в картинках.
Гигабит у OVH такого качества, как у нас, стоит 400 евро:

Ultimate The lowest latency all over the world (Streaming) — 400 евро

Касательно дешевых гигабитов и заманухи — так и не были предоставлены графики теми, кто якобы ими пользуются.
Ultimate The lowest latency all over the world (Streaming) — 400 евро

Сейчас стриминговые сервисы, которые держат тысячи пользователей, стоят копейки и не падают, стримят с небольшой задержкой (не между кадрами или лагами, а например реальное событие имеет тайм 12:00:05, а клиент видит 12:00:00, то есть то, что было 3-5 секунд назад, смотря как сделано). И процесс стримы можно разбить на:
  • получение видео потока
  • разбиение на фрагменты
  • отдача клиенту с сервера статики (через софт или веб элементы на странице у клиента)

И сервер статики лежит за кеширующим CDN. В этом случае не нужен супербыстрый и lowlatency канал. Достаточно обычного гигабита, и двух серверов, один из который с 2мя процессорами и большим объемом оперативки (для кодирования видеопотока), а второй с несколькими винтами и… на гигабите, с которого CDN сливают контент юзерам.

Много дешевле, чем сервер, который стримит тысяче юзеров со своего канала.
Применение CDN получается несколько дороже для крупных проектов, для некоторых абонентов, при больших объемах, мы способны были предоставлять канал с хорошей связностью вместе с сервером по цене порядка $2500-3000 за 10Г.

Для небольших стримминг-проектов — наверное Вы правы, копейки. И там логика может быть иная.

У нас стриммят клиенты с трафиком от 30-40 гигабит, которые очень популярны в России, видео которых смотрят в том числе на SmartTV. И им очень важно, чтоб обеспечивалась хорошая скорость на поток в РФ.
UFO just landed and posted this here
Значит Вы просто нагло врете, раз не смогли показать графики и говорите в таком тоне и дальнейший диалог с Вами не имеет смысла.
А оказывается $60, в которые мне обходится держать дома инфраструктуру из нескольких серверов и схд — не так уж и дорого :))) А само оборудование и подавно давно себя окупило :)
Несколько серверов и СХД потреблять электричества могут только на большую сумму, чем Вы указали, что-то дешево у Вас, наверное Вы это забыли посчитать и учесть. Не говоря уже о том, что подключение серверов к домашнему Интернету нарушает политику пользования Интернет-сетью и требует специального разрешения от Интернет-провайдера на такую сетевую активность, так как основная бизнес-модель домашних операторов — oversell. По-хорошему дома Вам нужно иметь 2 независимых Интернет-подключения, 2 источника бесперебойного питания для свитчей провайдера в подвале, ИБП для серверов, плюс следить за Вашими серверами 24*7. А еще, где эти серверы будут работать и как? Строить спец. гермозону, чтоб изолировать себя от шума и серверы от пыли?

Ну не может это стоить 60 долларов / месяц. Раз. Второе — серверы дома полнейший маразм. Так что не понял смысла этого «вброса». Не нужно учить людей плохому. Может только в случаях, когда необходимо обрабатывать данные время от времени, надежность работы не важна и шум этого всего не убивает мозг, это оправдано. В остальных случаях все же лучше арендовать решения в ЦОДах. Дешевле будет.
Политиков пользования сетью хочется… послать далеко на хутор, ловить бабочек.
То, что Вы используете сервер дома, провайдер легко отследит по характеру потребления трафика и мигом переведет Вас на бизнес-тариф, либо же пошлет на хутор ловить бабочек Вас, посмотрите договор со своим провайдером Интернет, там наверняка запрещено использование услуг в подобных целях без согласования. Нужно понимать, что никто не будет продавать ресурсы дешевле себестоимости вечно.
а какая провайдеру зарница будет ли канал забит 24/7 торрентами или трафиком «моих клиентов»?
Торренты также не все провайдеры любят, при большом потреблении трафика — могут быть вопросы. Продавая 100 мегабит без ограничений или гигабит, провайдер надеется на то, что Вы не используете полосу на 100%, иначе это будет дешевле себестоимости для него.

В тоже время, касательно торрентов, так как в основном пиры находятся в РФ, трафик к ним дешевле, чем в зарубеж. Потому на торренты, обычно, реагируют менее, чем на сервер, который начнет забивать регулярно 100 мегабит дома.
У меня сервер дома 8 лет стоит, все в порядке. Вы рассказываете какую-то дичь.
Возможно он просто не генерирует много трафика. В этом случае провайдер действительно не будет иметь ничего против.
10-20 терабайт в месяц, включая торренты.
Гигабит до моих краев еще не добрался.
Понятно, Вам повезло, это хороший показатель, что при 100 мегабитах столько удается потреблять.
Блейд-система BladeCenter S, с суммарными характеристиками в несколько раз лучше заявленных в заголовке, потребляет в сборе менее 600 ВА, то есть где-то на $15 в месяц по нашим ценам. А дома можно собрать конфигурацию и гораздо энергоэффективнее (и потише). Несколько независимых интернет-подключений для дома – это сегодня стандарт де-факто в крупных городах.

Конечно, домашний сервер не может конкурировать с датацентром по целому ряду позиций, но в вопросе сравнения его содержания с арендой чужого оборудования, особенно находящегося у неподконтрольного собственника, есть много веских аргументов за и против. Так что разумнее было бы сделать объективное сравнение этих параметров, нежели называть маразмом одну из точек зрения.
Размещать дома серверное оборудование — маразм по многим причинам, и тут не может быть компромиссов. Часть минусов я уже перечислил. На счет того, что дешевле, арендовать серверы или покупать свои — тут уже другой вопрос. Зависит от ряда факторов, согласен.

Но, те же блейды, не очень экономически эффективны. Взять 8 лезвий с Е3-1230, сколько обойдется такое железо? Раньше порядка $10 000 стоимость была. Да, чуть дешевле восьми физических серверов и по электричеству экономия (если ЦОД считает электричество по счетчику, что встречается крайне редко, так как в основном считают по мощности БП, а если их 2, то и платить надо в 2 раза больше). Допустим, мы будем использовать это оборудование 3 года, получается стоимость только эксплуатации, без учета амортизации 10000/8/36 = $34,72 за месяц за лезвие (умножаем на 8). Только железо. А еще есть плата за размещение и канал.

В итоге получается, что аренда восьми Е3-1230 за 70-80 долларов за каждый, будет куда дешевле, нежели покупка своего блейда и его размещение. Ибо в случае, если он навернется — вряд ли будет возможность быстро что-то заменить, а если будет, то стоить она будет также не мало. Помимо прочего не забываем о необходимости инвестиций в закупку железа и о том, что через 3 года, сервер может уже морально устареть.

Все эти проблемы отпадают, когда мы арендуем серверы в дата-центрах. ЦОДы закупают серверы тысячами, а порой и десятками тысяч. Имеют специальные цены. И потому могут предоставлять платформы, особенно, не первой свежести, фактически бесплатно. Потому покупка своего оборудования имеет смысл в очень специфических и индивидуальных случаях и зачастую нецелесообразна.

Как вас задело то :))
Электричество мне обходится в ~$40 за всю квартиру, интернет — ещё ~$15 (вместе с ip и dns). Провайдер прекрасно в курсе что у меня тут дома стоит и не имеет ничего против, выдавая при этом 400Мб/с в канал. И это мск
Да, конечно у свичей провайдера скорее всего нет ИБП в подвале, да и гермозоны у меня нет, но так это же домашнее размещение, а не цод, и я не сказал что это лучше, чем то, что предлагаете вы.
Про маразм и вбросы давайте тут не будем, вы всё-таки с украины…
Плохому людей никто не учит и не пытается. Да, у меня тут нет жёсткого продакшена, которому нужна надёжность 6 девяток, мне, допустим, требуется просто хорошая песочница.
Не задело абсолютно :) Я просто не понимаю, зачем пытаться людей учить плохому. Вы пытаетесь переносить свой опыт, который Ваш и уникален и приемлем только для Вас, на людей, которым нужен сервер вовсе для других целей. Для продакшн проектов и т.п. Случаи, когда нужна «песочница» не обсуждались, тут понятное дело, что можно поставить и сервер и даже пренебречь резервированием. У меня, к примеру, дома оптоволокно и медиаконвертер, канал 1 гигабит, причем Интернет работает, когда электричество пропадает, так как дом частный и есть генератор. Но такое бывает не часто. Канал в Интернет за год падал 1 раз не на долго. Так что в принципе можно и сервер ставить…

Но это не следует делать все же по ряду причин:

— не безопасно, за оборудованием, которое работает постоянно, нужен контроль 24*7;
— шумно (негативно влияет на здоровье);
— пыльно и нужный климат для оборудования невозможно поддерживать, вывод — оборудование быстрее выйдет из строя;
— c Интернет-каналом мне не повезло, бизнес-тариф на порядок дороже «домашнего»;
— стоимость электричества у меня гораздо выше, к сожалению;
— все же дом для проживания, а «песочницу» для моих целей можно и на виртуалках поднять в ЦОДе, будет дешевле и проще и самое важное — не затратно, не нужно инвестировать в железо, попользовался сколько нужно и все.

Я понимаю, когда серверные делают офисы, небольшие компании, или они хорошо оборудованы в частных домах (нужно хранить данные, управлять системами дома, охраной и т.п.), это оправдано.

Но дома это оправдано может быть в очень редких случаях. К примеру, человек занимается 3D-моделированием и ему нужны серверы для рендеринга. Такие варианты, конечно, лучше и экономически выгодно размещать дома. Потому я и говорил выше — не учите людей плохому, ибо кто-то пойдет на это во все не из-за того, что нужна «песочница», а с рабочим проектом, с целью экономить. И случится может все что угодно, к примеру, очень большой риск пожара, если оставить оборудование включенным на время своего отсутствия.
Где я людей учу, да ещё и плохому? Я никому не предлагал подобный вариант и уж тем более не говорил что он лучше для всех и вся и на ЦОД надо болт положить.

— не безопасно, за оборудованием, которое работает постоянно, нужен контроль 24*7;
для этого давно придуманы системы мониторинга и удалённое управление. или у вас возле каждой стойке по инженеру с огнетушителем стоит?
— шумно (негативно влияет на здоровье);
ну то же г6 поколение HP и аналоги не такие уж и шумные на самом деле
— пыльно и нужный климат для оборудования невозможно поддерживать, вывод — оборудование быстрее выйдет из строя;
если учесть что большинство небольших компаний в офисах только кондей ставят в отдельную комнату, где стоят серверы (сознательно не называю это серверным помещением) — разница с тем что у меня — практически отсутствует.
— c Интернет-каналом мне не повезло, бизнес-тариф на порядок дороже «домашнего»;
тут то же можно долго обсуждать, ибо вы резидент другой страны. в москве, к примеру, на сколько я знаю, с этим всё на много проще и дешевле, не только в частности с моим провайдером
— стоимость электричества у меня гораздо выше, к сожалению;
опять-таки — это как раз ваш частный случай, и страна другая
— все же дом для проживания, а «песочницу» для моих целей можно и на виртуалках поднять в ЦОДе, будет дешевле и проще и самое важное — не затратно, не нужно инвестировать в железо, попользовался сколько нужно и все.
где то тут с пол года назад человек то же рассказывал как он для частного дома собирал какую то маленькую коробочку в качестве сервера, ему я тогда то же задавал вопрос — неужели в частном доме сложно найти место для сервера? уж оборудование водоснабжения частного дома работает не тише сервера, да и помещение соответствующее скорее всего уже даже есть, уж с генератором по шуму и поеданию денег никак не сравнится.

дома это оправдано может быть в очень редких случаях
это опять-таки — исключительно ваше мнение, основанное на фактах что ЦОД — лучше. ЦОД — лучше, но это не значит что это единственное решение. Да, серверы дома — вариант для энтузиастов, но и это ресурс не для манагеров (по крайней мере таким был когда то)

не учите людей плохому
если вы позволяете себе упрекать меня в этом уже не первый раз, тогда ответочка вам — хватит грабить людей такими ценами, делая вид какие вы добрые, заботливые и хотите выглядеть добрыми и пушистыми для клиента! вариантов — дешевле — миллион, которые ни чем не хуже ваших предложений. вы даёте в аренду своё устаревшее оборудование, которое жалко выбросить, по ценам за которые эти б/у серверы можно купить за стоимость 3-5 месяцев аренды у вас

дальнейшее продолжение диалога вижу бессмысленным, ввиду отсутствия у вас аргументов по теме, а не в сравнении тёплого с мягким
«Где я людей учу, да ещё и плохому? Я никому не предлагал подобный вариант»
«А оказывается $60, в которые мне обходится держать дома инфраструктуру из нескольких серверов и схд — не так уж и дорого :)))» — в самом начале диалога предложили, такие фразы заставляют задумываться, а не все люди способны учесть все факторы до того, как получат опыт.

— не безопасно, за оборудованием, которое работает постоянно, нужен контроль 24*7;
«для этого давно придуманы системы мониторинга и удалённое управление. или у вас возле каждой стойке по инженеру с огнетушителем стоит?»

— Вас нет дома, оборудование начало гореть, как удаленно Вы его будете тушить? Вы хоть о таких вариантах думали? И не нужно думать о том, что вероятность небольшая, большая, у моего знакомого дом сгорел. И не помог никакой мониторинг само собой.

В нормальном ЦОДе есть газовая система пожаротушения, проблемный сектор изолируется, наполняется газом, который вытесняет кислород и оборудование физически не может гореть. На каждой стойке датчики температуры.

А оборудование горит очень быстро и затушить, даже когда Вы будете дома, может быть очень проблемно. Вспомните случай пожара в Hosting.UA (компания с ЦОДом в Одессе), там не было систем пожаротушения нормальных, оборудование было на стеллажах и люди, которые были на площадке, ничего не успели сделать, только эвакуироваться времени хватило.

На счет вариантов дешевле — не миллион, для некоторых клиентов дешевле, чем у нас — вообще нет. Хоть дома, хоть не дома:

[S]

Ядра (vCPU) 1 Core
Память (vRAM) 1 GB
Дисковая квота 40 GB (SSD Storage)
Порт 1000 Mbps
Премиум трафик 4 TB
ФаерволCisco ASA 5500 included!
$3,99 / месяц (US)

Покажите дешевле хотя бы один вариант с подобными параметрами. Такому клиенту вообще дома не будет интересно что-то для веб-сайта размещать.

Что же касается выделенных серверов — с подобным уровнем качества предложений дешевле нет. Наше последнее предложение реально является уникальным по цене при том уровне качества, которое обеспечивается. Шасси предоставляются фактически бесплатно.
Покажите дешевле хотя бы один вариант с подобными параметрами. Такому клиенту вообще дома не будет интересно что-то для веб-сайта размещать.

image
HTTPS HTTP link
2.99€ дает 3.33$ xe.com
И как раз таки для НЕЕВРОСОЮЗА сие стоит ту красную цену. Имеем 2 гига памяти против 1го (что обычно критично) и 10 гигов хард вместо 40 (что не критично).

Порт 1000 Mbps

круто, что порт на гигабит.

дома не будет интересно что-то для веб-сайта размещать

40 гигов для дома? Это шутки такие?)
Я вам скажу по секрету: я живу в маленьком городе на побережье. И у меня прокладывают оптику. Как работы по копанию/шатанию завершат, я на нее перейду, куплю себе небольшой системник типо тех, что в hetzner и будет сие работать у меня дома без проблем. На оптике от proxad/free.
И где же тут дешевле? SSD хранилище в 4 раза меньше. Да, возможно для кого-то критична RAM, не спорю, но для кого-то и хранилище. 10ГБ — крайне мало. По статистике большинство проектов, которые нуждаются реально в 2ГБ оперативной памяти, занимают более, чем 10 ГБ.

Плюс процессоры, они могут быть такие разные… Они также могу оказывать значительное влияние на производительность, уменьшая потребление оперативной памяти. Так что не известно, на самом деле, какой вариант лучше по параметрам CPU / RAM, наш 1 ядро и 1 ГБ или в OVH 1 ядро и 2 ГБ.
По статистике большинство проектов, которые нуждаются реально в 2ГБ оперативной памяти, занимают более, чем 10 ГБ

В такую «коробочку» можно положить nginx+tomcat/php-fpm и mysql. В идеале, конечно, хотя бы 2 ядра, но и на одном будет работать и ныть особо. Запрятать еще за CDN.
Теперь про «ваше занимают болеее чем»: у меня проект, который в лучшие годы (пик популярности, сервис скачивания видео с 40 разных сайтов) висел на выделенных ему nginx + (tomcat) 2 Гб, и изначально занимал на диске менее 1 Мб (код и графика). Сейчас папка с ним (3.5 года спустя) весит 194 Мб, из них 187 метров это статистика в gz файлах (которые nginx выдает в распакованном виде), база весит 793 метра (6.6 миллионов записей).

Есть проект, который весит 38 гигов, и кодовая база там около 1Мб тоже. 38гигов — это картинки (чуть более 80000). По затратности оперативки он будет жрать меньше упомянутого выше, спасибо CF. Есть работающий проект на 54 гига с 1.5 миллионами мелкой графики, который почти ничего не ест (опять же из-за использования кеширующего CDN) и 39000 средней графики (50кб — 700кб). Но их не завести на 1Гб оперативки так, как задумано потому, что нужен mysql. Да и вычисления (обработка картинок в реальном времени по API) на одном ядре будут работать не так, как придумано.

Поэтому 1 ядро, 1 гиг памяти и 40 гигов места — из публичных решений больше чем файлопомойки на память не приходит. На 2х будет работать форум с пачкой пользователей/качателей.

А для «самописников» есть другие варианты (у того же ovh или heztner).
Чтобы хранить большие объемы и иметь доступ к нормальному процессору и памяти, я плачу почти 58 евро в месяц и ни разу не приблизился к 1Тб траффика к месяц благодаря CDN, к диску тоже меньше обращений, благодаря тому же CDN (до 500 метров файлы).

Так что не известно, на самом деле, какой вариант лучше по параметрам CPU / RAM, наш 1 ядро и 1 ГБ или в OVH 1 ядро и 2 ГБ.

OVH дешевле!
Дешевле, но с параметрами хуже, я ж не спорю на счет этого. Вот когда там дадут аналогичные ресурсы за те же деньги — тогда да, я признаю, что их предложение способно конкурировать. SSD-хранилище, с хорошей производительностью, стоит нормальных денег. А там все же оно в 4 раза меньше. При этом стоимость далеко не в 4 раза ниже.
Дешевле, но с параметрами хуже, я ж не спорю на счет этого.

По этикеткам (что вы опубликовали и что я) только по размеру дисковой квоты. А вот техническая часть — у меня нету виртуалок от ovh в доступе, чтобы проверить что там именно крутится + надо найти какие именно сервера их хостят. По остальным параметрам «этикетки» OVH лучше.

SSD-хранилище, с хорошей производительностью, стоит нормальных денег

Согласен с вами.
Нидерланды (Switch) / 2 x Intel Hexa-Core Xeon E5-2620 V2 / 32GB RAM / 6x480GB SSD / 1 Gbps 100TB — $673,03 к оплате, что более, чем в 2 раза дороже стоимости спец. предложения. И такой сервер только 1.

У OVH почти 480 долларов (430 евро). И что-то мне подсказывает, что их предложение привлекательнее, чем ваше:
картинка с OVH
Мы предоставляем это предложение за 300 долларов сейчас, дешевле, чем у OVH.
Вот что огонь хабр животворящий делает!

дешевле, чем у OVH

Только вот железо то у вас разное.
вот (cpubenchmark) сравнение по попугаям. 8 против 6 физ ядер, частота 2.6 и турбоспид на 3.4 (а охлаждение в ДЦ хорошее!).

Далее память DDR4 против вашей DDR3 и 128 Гб против 32 Гб как бы намекают о серьезности сего двухпроцессорного монстра и цену его комплектующих.

4xSSD против 6xSSD ваших — больше похоже на маркетинг. В OVH сервер висит на 10 локальных гигабитах, и для стока больших данных можно использовать сетевой NAS. В плане iops — у четырех интелловских SSD дури хватает за глаза, а если надо больше (много больше чем 6 SSD), то можно на 128Гб оперативки поднять tmpfs на 32 и хранить там данные. Память ECC, проблем не будет. Чего далеко ходить — у меня tmpfs на 4Гб (из 32), и серер ни разу не упал из-за глюка.

Разное, но все же выходит дешевле, так как стоимость на нашу конфигурацию ниже более, чем в полтора раза. 10 локальных гигабит в OVH — наверное преимущество для кого-то, но не всем это нужно. А вот отсутствие саппорта (случай, когда это все счастье упадет) — является большим недостатком для всех.

Хотя не совсем понятно, как они умудряются продавать порт по такой стоимости. Сам порт стоит больших денег.
А вот отсутствие саппорта (случай, когда это все счастье упадет) — является большим недостатком для всех.

А вы снова «о бане»?

Саппорт там ЕСТЬ, классика: создали тикет, далее вам по нему через некоторое время ответили/решили проблему. Все. Вы сами админ. Они решают технические проблемы на сервере. 7 на 7.

Если вам надо дядьку, который будет копаться в вашем сервере или оперативная реакция (на тикеты), то у них есть VIP support за 49 евро, по тем же будням.
Если же вам надо прямо сразу (менее 15мин) чтобы начали ремонтировать, да еще и админ вам звонит по телефону, платите 232 евро за час его работы.

Кому-то обычного саппорта (тикет, 7/7, ожидание, решение проблемы) хватает. Да и что может быть? Железный фейл? Другой клиент вас ддосит? Все как бы.
Просить добавить 4 харда в следующие 30 минут — как бы бред, можно и подождать пару часов. В случае замены хардов — создать тикет, согласовать время (чтобы безболезненно), все. Ну или 232 из кармана и вперед и с песней.

Я согласен с тем, что многие компании (далеко ходить не надо — Amazon) продают специальную, премиум-золото-платиновую поддержку очень дорого. Вероятно вы (я с вами не работал и не знаю вашего саппорта) предоставляете пользователям что-то выше чем классический 7/7 саппорт с реакцией в 20 минут и действиями через час-два.

Но это не дает вам права говорить, что саппорта в OVH нету. Это все равно, что я сравнил ваши сервера и сервера в OVH и в каждом посте заявляю, что у вас в ua-hosting нету серверов, а стоит бу старье и домашние писюки.
UFO just landed and posted this here
Кто прибежит? 0_0
Классный холивар на тему домашних параноиков. Дома держать всё или в ДЦ арендовать. Вот прям подняли настроение перед сном!)))
Видимо с клиентами у них совсем плохо, раз на такое реагируют :)
Нет, мы реагируем на такое просто, чтоб другие не начали делать глупости, которые повышают риски пожара и негативно влияют на здоровье.
Какие вы заботливые то! :)))))
UFO just landed and posted this here
«ДЦ абсолютно ничем не отличается.» — это ОЧЕНЬ разные дата-центры, нацеленные на разные аудитории. В OVH намного более развита автоматизация, применяется оборудование, которое они сами и собирают, CPU с минимальным энергопотреблением, жидкостное охлаждение. Вот только эти серверы с целым рядом задач применять намного менее эффективно, нежели серверные шасси от HP, DELL, Supermicro. Всякие АRM-решения с большим количеством RAM — тот же marketing bullshit. Хотя в очень редких случаях может быть эффективно.

«специально для вас из СЕО делает по фану различные сертификации, которые никому не нужны, только лишь для понтов » — эти сертификации требуются бизнес-абонентам, к примеру для размещения оборудования банков, требуется, чтоб был сертификат, подтверждающий, что простой не составит более получаса в год, по факту же ЦОД полностью не падал ни разу за все время своего существования, даже, когда по всем Нидерландам пропало электричество.

Что же касается поддержки, то только у очень небольшого процента проектов есть свои скрипты, которые делают проект отказоустойчивым и работу поддержки дата-центра не важной (упала половина серверов из всей инфраструктуры и проект работает), остальным проектам все же нужен оперативный доступ к инженеру. Особенно, когда этот проект размещается на 1 сервере и нет возможности держать в резерве еще один сервер для резерва.

Упал сервер, без инженера что делать? Проект лежит?

«Ultimate The lowest latency all over the world (Streaming) — 400 евро» — вот я об этом и говорю, другой сегмент, и получается, что решения для стримминга очень дороги. У нас же подобного качества канал предоставляется для всех абонентов. По более низкой цене. За счет того, что канал продают такой всем. А самое главное — есть поддержка. В течении часа могут гарантировано заменить все, вплоть до платформы полностью, переставив диски в рабочий сервер.
Интересно было бы посмотреть на банк, размещающий финансовую информацию на чужих серверах. И второй вопрос — что он будет делать, если сертификат обещает полчаса, а в действительности дц закроется навсегда.
Банки размещаются в закрытых гейджах, доступа туда нет даже у сотрудников ЦОДа, либо есть лишь у ограниченного количества инженеров, ЦОД обеспечивает отказоустойчивость каналов связи, питания. Также порой предоставляют отдельные помещения для сотрудников банка на территории ЦОД. В случае, если дата-центр нарушит аптайм — будут финансовые последствия для дата-центра, так как подписывается договор SLA.
Тогда это просто, фактически, аренда производственного помещения с хорошей инфраструктурой. Что, безусловно, имеет смысл в ряде случаев.

А по второму вопросу – ну, окажется банк в очереди на взыскание долгов по банкротству дц, но как это поможет его операционной деятельности?
Я слабо представляю случай банкротства дата-центра в Европе столь большого масштаба. Но тем не менее, банки используют географически распределенные площадки, размещаются не в одном дата-центре, так что проблема взыскания их волнует меньше всего.
По моей практике — банки имеют свои собственные серверные (чистая комната с 3-4 daikin и бронедверкой), в которых и размещают свои сервера. Как правило это железки от HP. Некоторые фанатики (в хорошем смысле слова) ставят железки от Oracle для работы того же oracle.
Не спорю, есть банки, которые имеют собственные серверные, но это уже тема мини дата-центров. Тут есть, как плюсы, так и минусы. И все зависит от конкретного случая. Факт в том, что ЦОД надежен и там размещаются даже банки и платежные системы. Речь была об этом.
Вот только эти серверы с целым рядом задач применять намного менее эффективно, нежели серверные шасси от HP, DELL, Supermicro.


В войне цен все равно, в коробке сервер или в блейде.
У hetzber S1200RP на серверах с 1270v3 (начало 2014го), 4х M391B1G73BH0-CK0 оперативка и 2x WDC WD2000FYYZ-01UL1B1, так же у них есть решения на dell. Про дедики OVH ничего сказать не могу, так как у них я виртуалки покупал (в виду очень низкой цены).
Если кто-то опубликует данные мамки с dmidecode, будет замечательно.

Если есть нормальные условия (питания и охлаждение), то 2х кратное отличие в цене обеспечит 2х кратный буст при равной комплектации? Я сомневаюсь. У меня харды на сервере hetzner 31 градус против 29°C в i5-5200u ноуте на балконе, первый работает, а второй простаивает.
все бы ничего — но ваш топик просто оскорбляет OVH, поэтому и хочется вам ответить.

С текущей доступностью OVH (оплата по карте) и хорошим саппортом (по-русски говорят) и замечательными ценами и пингом OVH им как заноза. Ну… и еще цены для россян будут H.T. (hors tax) которые, так как россия не платит TVA (французский НДС).
Ну нет там поддержки, разобрались же, Вы же сами писали:

«У OVH она шикарная, но долго отвечают»

nochkin 5 июля 2016 в 07:49
Я несколько раз пытался обращаться в поддержку OVH и получал полный игнор.
Нормальный там сапорт — сначала починили, потом ответили что что извиняются и теперь все работает. А не 100500 вопросов «попингуйте яндекс».
Самое то под зарубежную виртуалку.
Ну нет там поддержки, разобрались же, Вы же сами писали

С чего вы так решили? Я говорю что есть.
Если кого-то игнорят, а кто-то получает ответ, это не значит что саппорта нет. Можно писать тикеты в стиле блондинки, или писать конкретику.
Из 2х саппортов я предпочитаю hetzner так как:
  • не надо лезть в дебри чтобы создать тикет

Общение по почте есть и в hetzner и в ovh.
У Вас свое понятие хорошого саппорта, Вас устраивает, когда Вам отвечают с задержками или проводят замену сутки, а для кого-то это критично и кто-то хочет, чтоб его проблемы решались на порядок быстрее. Мы предоставляем такую возможность, вместе с отличными каналами и надежной площадкой и оборудованием, где эти проблемы по статистике будут возникать гораздо меньше за счет этого.
а для кого-то это критично и кто-то хочет, чтоб его проблемы решались на порядок быстрее

У людей так много проблем с сервером?

Вот папка hosting в моем клиенте, order received не в строгом порядке потому, что я сейчас перетащил все инвойсы в одну кучу (правило под них так и не написано). скриншот не вставить, так как надо клеить много писем до позледнего инцидента (много скроллить)

Единственная трабла была в мае 2013, когда я неверно настроил NSD и стал причиной DNS AMP ддоса в 741 мегабит со своего старого сервера (который не использую с 2014го).
спойлер
АМД процессор, обычное железо и 2 гига оперативки!
Direction OUT
Internal 78.46.49.122
Threshold Flows 100 flows/s
Sum 31.330 flows/300s (104 flows/s), 34.721.000 packets/300s (115.736 packets/s), 27,153 GByte/300s (741 MBit/s)



Ну, и когда у меня полетел диск рейде, физически полетел (30 декабря 2013). Тогда я оставил 1 хард, и быстренько (заказ — получение) запустил новый сервер в январе 2014.

Сейчас 2016 и проблем, тьфу-тьфу нету.

upd
При использовании большого количества накопителей в RAID-массивах, вероятность проблем с каким-либо из накопителей — возрастает. Да, проблем не много, потому многие и экономят и не заказывают второй сервер для резервирования (построения отказоустойчивого кластера), и им важно, чтоб когда у них возникла проблема, она была решена максимально быстро, свести возможный даунтайм к минимуму.
За 6 лет так и не нашел «идеального» ДЦ под свои задачи. Пробовал много разных решений, от никому не известных чешских ребят (nqhost, отличная поддержка, но только виртуалки), до S4Y (любят по абузе рубануть сервера без предупреждения, уйти в даун на сутки, а потом сказать — ой, у нас были технические проблемы, простите… и потом опять лежать пол дня, пинги у них хуже ОВХ по штатам и т.п.), и ОВХ (был бы идеальным, если б не их чертов фаервол, который обожает положить высоконагруженный сервер с формулировкой server was hacked...). У меня больше 20 тикетов открыто одинаковых, они вроде меняют профиль фаервола под данную машину, но потом настройки сбиваются и опять все по новой, а поднять сервер, если не дай бог в пятницу случилась беда, получиться только в понедельник, из 20 серверов осталось только 3 в итоге). Ну и Амазон, который забиллит тебя в 100500 раз дороже чем то, к чему привык, из-за конских цен на траф… Колокейшн дорого. Вообщем, нет счастья в датацентрах на этой земле… (
Обращайтесь к нам http://www.ua-hosting.company/servers, возможно мы сможем подобрать Вам подходящий Вам вариант. У нас есть много клиентов с инфраструктурами разной сложности, да, цены не самые низкие (в сравнении с OVH), но люди понимают, за что платят.
Sign up to leave a comment.