Pull to refresh
  • by relevance
  • by date
  • by rating

Фрикулинг по-сибирски

DIY
Жила-была в небольшом сибирском университете маленькая серверная на 10 стоек и ~20 кВт суммарной потребляемой мощности. Денно и нощно покой и температурный режим её охраняли два больших брата Leonardo по 20 кВт отводимого тепла каждый. Но так уж вышло, что гномы, следившие за состоянием братьев были очень ленивы — за три года «обслуживания» один из братьев стал совсем плох и большую часть времени проводил на больничном. Когда призвали врачевателя кондиционеров, подтвердилось страшное предположение — братьям требуется капитальный ремонт, вплоть до возможной замены агрегатов. Ремонт этот дорогостоящий, грозящий вылиться в сумму до 1 млн. руб. на каждый кондиционер, и кроме того требующий серьезного простоя всей серверной, конечно же не входил ни в чьи планы. Решено было братьев лечить.
Скоро сказка сказывается, да не скоро дело делается
Total votes 65: ↑61 and ↓4 +57
Views4.1K
Comments 48

Энергосберегающие технологии на практике

Билайн Бизнес

Часть распределённой базовой станции

Энергосберегающие технологии, или «зелёные технологии» — это один из приоритетов нашей сферы. Я расскажу о том, что именно мы уже сделали и как работают конкретные решения, которые позволяют экономить довольно много энергии.
Читать дальше →
Total votes 47: ↑41 and ↓6 +35
Views50.3K
Comments 41

В гостях у горячих финских парней, или в чем секрет успеха финского цодостроения?

TelecityGroup
В последние годы ведущие глобальные корпорации обратили свои взоры на маленькую страну тысячи озер. Microsoft объявил о строительстве нового дата-центра в Финляндии после приобретения мобильного подразделения концерна Nokia. Google инвестирует 450 млн евро в расширение своего действующего дата-центра в Хамине в дополнение к уже вложенным 350 миллионам. Волна «финомании» докатилась и до России: Интернет-гигант Yandex купил землю за 1.5 млн евро в местечке Мянтсяля для строительства нового ЦОДа.


Дата-центр TelecityGroup Hiomo

Почему Финляндия – лакомый кусочек для инвесторов в индустрию ЦОД?
Читать дальше →
Total votes 7: ↑6 and ↓1 +5
Views7.2K
Comments 4

FAQ про охлаждение дата-центров: как сделать дёшево, сердито, надёжно и вписаться в габариты площадки

КРОК


— Какой обычно есть выбор для охлаждения ЦОДа?
  • Фреоновое охлаждение. Проработано, просто, доступно, но главный минус — ограниченные возможности по манёвру в энергоэффективности. Также часто мешают физические ограничения по длине трассы между наружными и внутренними блоками.
  • Системы с водой и гликолевыми растворами. То есть хладагентом всё ещё остаётся фреон, а вот хладоносителем уже будет другое вещество. Трасса может быть длиннее, но главное, что открывается многообразие вариантов настройки режимов работы системы.
  • Системы комбинированного типа: кондиционер может быть и фреонового, и водяного охлаждения (здесь масса нюансов).
  • Охлаждение воздухом с улицы — это различные варианты фрикулинга: роторные теплообменные аппараты, прямые и косвенные охладители и так далее. Общий смысл — либо прямой теплоотвод фильтрованным воздухом, либо замкнутая система, где уличный воздух охлаждает внутренний через теплообменник. Нужно смотреть на возможности площадки, так как возможны внезапные решения.

— Так давайте бахнем классические фреоновые системы, в чём проблема?
Классические фреоновые системы отлично работают в малых серверных и, не часто, средних ЦОДах. Как только машзал переваливает за 500–700 кВт, возникают проблемы с размещением наружных блоков кондиционеров. Для них банально не хватает места. Приходится искать свободные площади подальше от ЦОДов, но тут вмешивается длина трассы (её не хватает). Конечно, можно спроектировать систему на пределе возможностей, но тогда растут потери в контуре, снижается эффективность, усложняется эксплуатация. В итоге для средних и больших ЦОДов сугубо фреоновые системы зачастую невыгодны.
Читать дальше →
Total votes 36: ↑34 and ↓2 +32
Views30.4K
Comments 14

Краткий экскурс в охлаждение серверных

IT Infrastructure
Sandbox
В определенный момент некоторые предприятия дорастают до того состояния, когда их внутренние информационные системы перестают умещаться в одном серверном шкафу. Тогда руководителю IT-департамента предстоит взвесить все «за» и «против» и решить, строить или не строить серверную. Вариантов может быть несколько: от полного избавления от собственных мощностей и увода их в облака или колокейшн в большом ЦОДе, до строительства собственного мини- (или не очень мини) ЦОДа с блэкджеком.

Процесс расчетов, планирования и постройки серверной весьма ответственный и дорогостоящий. Вложится придется еще на стадии проекта, тут, кстати, можно сэкономить если все процедуры в серверной, от проектирования до строительства, будет производить один подрядчик. Естественное желание руководителя предприятия в такой ситуации — уложиться в минимально возможную сумму. И в штыки воспринимается любое удорожание проекта. В таких перепалках часто забывается, что, помимо строительства объекта, последует его содержание, которое при неправильном проектировании может оскуднить бюджет предприятия на еще одну несуществующую серверную по прошествии двух-трех лет.

Второй по величине потребитель ресурсов (в данном случае это электричество и расходники) в серверной — это система охлаждения. Ни для кого не новость, что “мощность” системы охлаждения серверной должна минимум совпадать, а в лучшем случае превышать на пару десятков процентов пиковую мощность всего оборудования установленного в серверной. О том, какие системы охлаждения бывают и как сэкономить на эксплуатации таких систем мы и поговорим в этой статье.
Читать дальше →
Total votes 18: ↑18 and ↓0 +18
Views87.5K
Comments 9

Китайским операторам ЦОД все сложнее использовать фрикулинг

ua-hosting.company


И дело вовсе не в нехватке средств или особенностях китайских ЦОД — они такие же, как и везде. Вот только окружающая среда в Китае отличается повышенным уровнем загрязняющих веществ, некоторые из которых ускоряют коррозию отдельных элементов оборудования. В некоторых регионах КНР уровень загрязнения атмосферы по многим показателям значительно превышает норму (порой, в десятки раз).

Один из наиболее эффективных (и экономных) способов охлаждения дата-центра является фрикулинг, то есть использование внешнего воздуха для снижения температуры оборудования. Фрикулинг, кроме всего прочего, является еще и одним из наиболее «зеленых» методов охлаждения дата-центра, поскольку здесь и энергопотребление не слишком высокое, и оборудования требуется не так много (конечно, все это с известными оговорками). Но вот беда — в Китае фрикулинг использовать затруднительно.
Читать дальше →
Total votes 24: ↑18 and ↓6 +12
Views20.7K
Comments 30

Фрикулинг и очистка воздуха в дата-центре: как и зачем очищать воздух?

King ServersHostingIT Infrastructure


Наше оборудование установлено в ряде дата-центров, расположенных в США, Нидерландах и еще паре стран. В одном из дата-центров, где стоят наши сервера, используется фрикулинг. В общем-то, новости в этом нет никакой, ведь в регионах с прохладным климатом вполне можно использовать внешний воздух для охлаждения.

Но, как оказалось, фрикулинг может быть и проблемой. Как-то зашел разговор с коллегами, которым приходится держать оборудование в одном из дата-центров Южной Азии. Как оказалось, для охлаждения оборудования в этом ДЦ тоже используется фрикулинг. Все бы хорошо, но у них часто случаются сбои оборудования. После детального разбора проблемы оказалось, что «ларчик просто открывался». Основная проблема — в грязном воздухе, который очищается недостаточно хорошо.
Читать дальше →
Total votes 8: ↑7 and ↓1 +6
Views3.8K
Comments 1

Как создавалась система холодоснабжения дата-центра NORD-4

DataLineHostingIT Infrastructure
В конце сентября проект системы холодоснабжения дата-центра NORD-4 получил премию Russian Data Center Awards 2016 в номинации «Лучшее решение в области инженерных систем». Сегодня мы расскажем в деталях, как создавалась система охлаждения самого большого дата-центра в России.

Читать дальше →
Total votes 15: ↑14 and ↓1 +13
Views7.1K
Comments 20

Изоляция воздушных потоков в ЦОД. Типичные сценарии

Schneider ElectricIT InfrastructureData storageData storages
Специалистам по инженерным системам ЦОДа не надо долго объяснять пользу изоляции воздушных потоков в серверных залах. Она позволяет существенно повысить эффективность системы охлаждения в целом, оптимизировав температурные режимы и воздухообмен, улучшить надежность работы ИТ-оборудования, благодаря исключению зон локального перегрева, увеличить энергетическую плотность стоек, и т.д. Результат – более рациональное использование дорогостоящих ресурсов: полезной площади, электроэнергии, системы охлаждения, с вытекающей экономией средств. Последнее достигается за счет снижения энергопотребления, возможности уменьшения числа блоков охлаждения, продления времени использования режима естественного охлаждения (фрикулинга).

Однако даже опытные специалисты зачастую путаются в выборе методов и схем такой изоляции. Один из главных вопросов, что лучше изолировать: потоки охлажденного или отработанного (горячего) воздуха? И почему не имеет особого смысла изолировать и то и другое? Сразу скажем, что в большинстве случаев изоляция обоих потоков не дает существенных преимуществ – в качестве исключения можно привести пример размещения ИТ-шкафов в агрессивной среде (скажем, на производстве), когда востребована изоляция и холодных и горячих потоков. Но в большинстве ЦОДов достаточно изолировать только пространство распространения холодного или горячего воздуха.
Читать дальше →
Total votes 3: ↑3 and ↓0 +3
Views4.8K
Comments 0

Энергоэффективный ЦОД: знакомство с мировым опытом

1cloud.ruHostingIT InfrastructureData storageData storages
Энергоэффективность, минимизация потенциально опасных выбросов, предотвращение вредного воздействия на окружающую среду при неизменной, а лучше повышенной мощности объекта – вот, что занимает умы управляющих ЦОД. Информационный ресурс Greentech Media еще в 2009 году отметил тот факт, что потребление энергии только одним дата-центром Google можно сравнить с тем, что уходит на целый Манхэттен. Эффективная работа с таким объемом энергетических ресурсов и всевозможными ограничениями подразумевает не только регулярное обновление железа, но и перекраивание всей инфраструктуры ЦОД.

В некоторых случаях дело доходит до перехода на принципиально новые технологии и даже системное «озеленение» дата-центров. О том, как претворяют в жизнь и простые, и абсолютно фантастические идеи, поговорим в нашем материале.

Читать дальше →
Total votes 7: ↑7 and ↓0 +7
Views3.2K
Comments 2

«ФосАгро»: ЦОД за четыре месяца

Schneider ElectricSystem administrationIT InfrastructureNetwork technologiesServer Administration
Сегодня мы хотели бы рассказать про один из последних проектов по созданию корпоративного центра обработки данных. Это Череповецкий ЦОД компании «ФосАгро», основное направление деятельности которой – производство фосфорсодержащих удобрений, фосфатного сырья, а также кормовых фосфатов, азотных удобрений и аммиака. В Группу «ФосАгро» входят АО «Апатит» и его Балаковский филиал, АО «ФосАгро-Череповец», АО «Метахим», ООО «ФосАгро-Транс», ООО «ФосАгро-Регион» и АО «НИУИФ». Группа является крупнейшим европейским производителем фосфорных удобрений, а также крупнейшим мировым производителем высокосортного фосфорного сырья.

Основными целями создания нового ЦОДа стали централизация серверного комплекса «ФосАгро» в одном месте, а также реорганизация ядра сети. Проект был реализован всего за четыре месяца, причем, по классической технологии – с капитальным ремонтом помещений. Как этого удалось добиться спросите вы? В первую очередь, благодаря эффективно работающей команде, своевременной поставке оборудование, согласованному выполнению монтажа различных подсистем. Ну и, конечно, помог грамотный выбор технических решений. Подробности – ниже.
Читать дальше →
Total votes 17: ↑17 and ↓0 +17
Views4.8K
Comments 2

Небоскреб с дата центром Data Tower

ua-hosting.companyComputer hardwareEcology
Ключевой особенностью каждого дата центра является материал из которого он построен. Этим материалом может быть обычная конструкция из метала и бетона или металические модульные блоки, внутри которых размещается оборудование ЦОДа. Большинство из них напоминают обычные складские помещения, но некоторые — просто произведения искусства. Главный архитектор проекта выступает скорее всего, как художник, превращающий свою творческую задумку в восхищающую реальность.

Читать дальше →
Total votes 12: ↑9 and ↓3 +6
Views6.6K
Comments 5

ЦОД в море и на орбите: есть ли в них практический смысл?

Delta ElectronicsEnergy and batteriesThe future is hereIT-companiesSystems engineering

Скучные дата-центры из железобетона уже не в моде, ИТ-компании пытаются размещать их на воде и под водой. Ходят слухи о космических ЦОД – мимо столь прекрасного в технологическом плане явления мы не могли пройти.


Читать дальше →
Total votes 21: ↑20 and ↓1 +19
Views4.2K
Comments 12

Как мы заморочились по фрикулингу для дата-центра и что из этого вышло

КРОКIT InfrastructureSystems engineering

Как-то к нам пришел один прогрессивный заказчик из города N, что в средней полосе России, и сказал: «Хотим чтобы дата-центр на 100% фрикулинге работал круглый год. Можете посчитать, это реально вообще? И если да, какая технология вам видится наиболее логичной?». Мы с холодильщиком воодушевились, ибо не каждый день тебе предлагают поработать над таким нетривиальным для средней полосы России проектом, и начали считать. Под катом много цифр и теории по части охлаждения дата-центров.


Читать дальше →
Total votes 16: ↑16 and ↓0 +16
Views5K
Comments 5

Фрикулинг в дата-центрах Selectel: как все устроено

SelectelIT InfrastructureIT StandardsSystems engineering

Привет, Хабр! Пару недель назад выдался жаркий денек, который мы обсуждали в «курилке» рабочего чата. Буквально через несколько минут разговор о погоде перерос в беседу о системах охлаждения дата-центров. Для технарей, тем более сотрудников Selectel, в этом нет ничего удивительного, мы постоянно говорим на подобные темы.

В процессе обсуждения мы решили опубликовать статью о системах охлаждения в дата-центрах Selectel. Сегодняшняя статья — о фрикулинге, технологии, применяющейся в двух наших дата-центрах. Под катом — подробный рассказ о наших решениях и их особенностях. Техническими деталями поделились руководитель отдела сервисного обслуживания систем кондиционирования и вентиляции Леонид Лупандин и старший технический писатель Николай Рубанов.
Читать дальше →
Total votes 22: ↑22 and ↓0 +22
Views3.4K
Comments 10

Дата-центры, экология и ресурсы: как российские и зарубежные компании стараются стать «зеленее»

SelectelIT InfrastructurePopular scienceEnergy and batteriesEcology

Дата-центры потребляют 3-5% всего электричества планеты, а в некоторых странах, например в Китае, этот показатель достигает 7%. Электричество нужно центрам обработки данных в режиме 24/7, чтобы обеспечивать бесперебойную работу оборудования. В результате работа ЦОД провоцирует выбросы парникового газа в атмосферу, а по уровню негативного воздействия на природу их можно сравнить с авиаперелетами.

Мы в Selectel собрали результаты новейших исследований, чтобы выяснить, как дата-центры влияют на окружающую среду, можно ли это изменить и существуют ли подобные инициативы в России.
Читать дальше →
Total votes 19: ↑19 and ↓0 +19
Views2.2K
Comments 2