Как стать автором
Обновить

Комментарии 9

Если мы говорим об энергоэффективности, то не оптимизированный код даст всем фору в пару кругов.
Смысл поста непонятен. Обсудили то, что и так всем ясно. Пост для галочки? Ну, может кому в реферате/курсовике пригодится ))

> У Google, например, такой проблемы просто нет, поскольку в дата-центрах этой компании эффективно используется каждый ватт энергии

«У него нет проблемы с выбором еды, потому что он кушает только то, что нужно». На вопрос «как» — ответа-то и нет :)

А самое важное — в маленьком «ДЦ» (особенно если это просто комната с 2-3 стойками) кто сможет сделать что-то толковое? 99 (нет, 100) процентов организаторов таких комнат максимум что могут сделать для улучшения охлаждения — установить/повесить не один, а два бытовых сплита, просто для надежности. О точном соблюдении параметров воздуха речь не идет в принципе — не умеет такое железо этого. Ну, может, 5, а то и 0.5%, админов потом еще соберут с одной из железок значение температуры, и будут на него смотреть при регулировке кондеев, но это такое «пальцем в небо» — обычно сплиты тупо будут дуть в морду/бок стоек, и дело с концом.

А решение одно: пока расходы на охлаждение никого не взволнуют (т.е. пока их в себестоимости работы ДЦ не будет сильно заметно), нет никакого резона, кроме разве что если у строителей пунктик про «зеленость», городить что-то серьезное. Большой ДЦ — да, его сложнее охлаждать, там и тема экономии масштабнее видна.
Речь идет о том, что в большинстве дата-центров оборудование используется далеко не на все 100%, большая часть серверов работает с неполной загрузкой, а некоторые и вовсе вхолостую.

Речь идет о том, что в большинстве дата-центров админы используется далеко не на все 100%, большая их часть работает с неполной загрузкой, а некоторые и вовсе вхолостую
И неважно, насколько продвинутыми будут в этом случае ДЦ телекоммуникационных гигантов — на «общей температуре по больнице» это не скажется.


«невидимая рука рынка» рассудит
Написали бы лучше пост о том как эту самую эффективность повысить, как уплотнить свои мощности, чтоб снизить процент работы «вхолостую», на что обращать внимание при выборе ДЦ, как понять что в машзале не эффективное охлаждение и т.д.
И как можно сравнивать ДЦ корпораций-гигантов, которые они строят сами для себя, заточенные под свои нужды, с оборудованием разработанным и изготовленным специально для этих нужд и ДЦ который может себе позволить средняя, а то и крупная компания со стандартным оборудованием, обычными потребностями, и которые в 75% случаев ориентируются на самый важный показатель цену вопроса.
Ну, цена вопроса состоит из двух частей минимум: первичных вложений и постоянных расходов. Очень часто не только в ДЦ и ИТ вообще, но и в бизнесе в целом, и в государствах, и в быту люди выбирают поменьше первого, не взирая на то что второе будет больше и через какое-то время постоянные расходы съедят всю экономию первичных вложений.
Так понятное дело как эффективность повысить — всё уже давно придумано Амазоном. Нужно продавать лишние в данный момент мощности на аукционах по небольшим ценам и без гарантий доступности. В результате на «холостых» мощностях будут бегать какие-нибудь веб-краулеры, пережималки видео и воркер-пулы каких-нибудь систем, не критично страдающих от пропадания части рабочих мощностей. Уж электричество-то всяко будет отбиваться.
В этом году компания Future Resource Engineering, занимающаяся проектированием и поддержкой ДЦ, нашла способ повышения эффективности использования энергии всего в 40 ДЦ.

Ну и какой способ то? Где раскрытие вопроса?
О чем вообще статья? Практические советы на обозначенные проблемы, иначе статья выглядит незавершенной.
Убрать избыточное охлаждение :)
Зарегистрируйтесь на Хабре , чтобы оставить комментарий