Как стать автором
Обновить

Комментарии 97

сори за занудство
Классический простой УЗО — устройство защитного отключения (в народе автомат)

но узо это не автомат… даже в народе, автомат — это автоматический выключатель по нагрузке или нагреву, а УЗО как вы и написали — это защитное отключение при разности в протекании тока по фазе и нулю и одно другое не заменяет… есть дифф автомат, это как раз УЗО+обычный автомат

А еще заталкивать моножилу в клемму автомата/УЗО, кмк, — не лучшая затея, там же площадь контакта получается чуть больше, чем никакая

Ну, Мосэнерго ж, там ещё и алюминиевый провод. За замену провода от счётчика до автомата они ещё тыщи 2 хотели, там о боже пломбы надо менять и поверку делать.

Эм, а зачем поверку, если счетчик остается на месте и всё меняет сотрудник МЭ?


Они на это дали договор-смету-квитанцию, чтоб можно было прищучить? :)

Да там такие ребята циркачи… Понятное дело хотят денег заработать, выдумывают всякие доп. работы.
Да и смета и тп есть. Меня так достал тогда вопрос электропитания что я ругаться не хотел, хотя вообще чаще это так не оставляю.

Автор, разрешите несколько вопросов? :) Если не затруднит)
1. Только что видимо накрылся диск в сервере (ESXi 6.5) Какими способами поднимали инфу с дисков? Есть DiskInternals VMFS Recovery, но на нее нет кряка… =(
2. Как вообще жесткие диски не серверной линейки (зеленые, фиолетовые WD) переживают обрыв по питанию? Пока никак не могу взять ИБП.
3. Гипервизор же можно настроить на корректное выключение (через какое-то время) если пропадет питание? Или такого функционала нет?
Заранее благодарю)
1. Чаще всего у меня умирала система, и я цеплял vmdk с sdb на живую машину.
Но в реальном проде у меня были разные варианты, там уже надо копаться, или пытаться из рекавери режима что то вытянуть или монтировать VMDK на живую машину, или искать утилиты для восстановления из мертвых VMDK, у Veeam был помню vmdk explorer (у нас правда платная редакция была), ну и помню как то я просто гуглил и пробовал все подряд что заработает, в итоге что то да вытянул, но тут фишка в том что именно важные данные я храню в нескольких копиях, так что мои домашние приключения чаще всего сводились к переустановки ОС и заливки копии данных из другого места.

2. У меня были и серверные и не серверные, я особой разницы не заметил, и те и те могут валиться.

3. Можно, но для этого нужен ИБП который в идеале умеет по сети слать в API запрос на выключение (соответственно платная редакция ESXi), под ругому можно наверное через KVMoIP если платформа такое поддерживает, но ESXi не факт что корректно выключится тогда. Без доп. средств простая железка и гипервизор боюсь никак не узнают что пора выключаться, либо что то думать на тему Arduino/raspberry который будет мониторить питание в сети и гасить ESXi имитируя интерактивный вход на web морду или посылая команды по ssh, но опять же ИБП тут нужен на тот период пока все это дело будет тушиться.
Можно, но для этого нужен ИБП который в идеале умеет по сети слать в API запрос на выключение

Ваш ИБП Ippon Smart Power Pro II должен поддерживаться NUT, который, разумеется, может дёргать скрипты при разных событиях. Предыдущее поколение смарт иппонов с NUT работает хорошо.

Надо время только найти, так то комп к которому подключен ИБП Ippon по USB работает тоже 24/7, судя по всему проблем быть не должно.

А на бесплатной версии не будет работать? У АРС есть для ESXI, приложение Power Shute, именно для ESXI, руки чешутся попробовать.
Сейчас у меня на ESXI работает вирт машина vMA, она прекрасно выключает виртуальные машины по порядку настроенном в ESXI и гасит сам хост. Есть ещё несколько скриптов для выключения виртуальных машин, но ни один у меня толком не заработал. На настоящий момент рабочее решение vMA.

На бесплатной версии ESXi закрыт доступ к VMware API соответственно APC Power Chute не сможет отправить команды выключения. А так APC Power Chute при наличии правильной лицензии на ESXi работает отлично.
А насчет vMA, он насколько знаю deprecated:
Note: vMA is deprecated and vMA 6.5 is the last release, please see the vMA Release Notes for further information and alternative functionality.

Значит в моем случае это были автоматы :)

В 1987 году не было таких автоматов в советской продаже.

Я сужу по дате выпуска на задней стороне корпуса, там числился 1987 год. Сам дом вроде как 1986 года постройки.

Не понимаю я стремления под каждую программу выделять целую виртуалку. Не понятно что изолированность, но тут мне кажется слишком оверхед. У меня дома примерно такой же функционал делает небольшой корпус на miniitx с ubuntu и всего одной виртуалкой для веб-разработки.

Ну у вас там наврятли 60+ ТБ RAW дискового пространства.
Да и работать удобнее когда сервисы распределены. Но это мое видение, у вас свое, я не утверждаю что мой вариант единственный верный.

26 Тб)

А что у вас за конфигурация по дискам?

Ничего сверхъестественного. 10Тб основной, 10 Тб под бэкап, два старых 3 Тб которые раньше трудились в raid. Собственно у меня на матери 4 Sata. Raid решил не делать, в пользу периодических бэкапов (rsync) на отдельный диск по usb (для домашнего применения мне хватает). На основном 10 тбайтнике у меня файлопомойка, на 3 Тбайтнике запись ip-камеры и торренты, на втором 3Тбайтнике виртуалка. Пока места хватает при таком сценарии.

Без рейдов страшненько ж.
НЛО прилетело и опубликовало эту надпись здесь
Виртуалки накладненько, да. Лично мне почти всегда docker'а хватает. На виртуалках крутится только что-то совсем жирное или то что в докере не особо хорошо работает.
image

Подскажите, что за веб морда?

portainer
По поводу Dell PowerVault MD1000, тоже была такая проблема.
Решил, оставив штатные вентиляторы, но написав эмулятор вентилятора на ардуино :)
Ардуино делает две вещи — рапортует блоку питания правильные RPM и дает вентилятору правильный PWM сигнал. Если его не дать — никакое разумное снижение напряжения не помогает, он пытается на максимуме крутиться. А так — заметное, но не ужасающе громкое шелестестение.
Температура хардов не превышает 40 градусов даже с этим.
На всякий случай добавил радиаторов на чипы SAS модулей, но они там почти не греются.

Была такая же идея, но супруга выгнала на балкон быстрее чем я добрался до arduino.

И такое бывает))
но написав эмулятор вентилятора на ардуино :)
О, вот этот подход как то ближе чем, когда — что то не так — купить другое)

Большое спасибо за ссылки!
Я нашел в интернете информацию что режим разработчика в нем закрыт и отложил идею разобраться с этим на потом, а там оказывается можно mqtt толкать, nodered жди меня.

Респект за монументальный труд по описанию ваших мытарств.
Но с сточки зрения эффективности, на мой взгляд, ваше решение не выдерживает никакой критики. Есть HP MicroServer. Я год назад покупал за $150 с двумя HDD + SSD. Стоит в зале под телевизором и не мешает никому. HP Server, даже и Micro серии, значительно надежнее вашего комбайна, потребляет 50W, тихий.
Я тоже проходил все этапы создания домашего хранилища: от бытовых компов, через серверные, затем NAS'ы и в итоге остановился на HP MicroServer. Надежно, тихо и при этом дает мне свободу в плане ПО.
Да, вероятно можно найти более изящное решение, но мой «сервер» строился на протяжении нескольких лет в основном из того что было под рукой, опять же в HP микросервер не установить 17 дисков которые сейчас есть у меня, да опять же можно взять 4х12ТБ и будет счастье, но собирать сейчас что то подобное когда уже есть рабочий вариант не вижу смысла.
Многие пишут про неэффективность данного решения, но ведь мы то с Вами знаем, что эффективность никогда и не была целью, а руководило всем желание поработать с реальными железками, которые используются на предприятиях и датацентрах, получить реальный опыт, познакомиться ближе с технологиями и самостоятельно всё поковырять и понастраивать, получив при этом кучу удовольствия. :)

Сам я страдаю таким же, поэтому дома у меня 2-х сокетный сервер с 2-мя процессорами e5-2670, 192 ГБ RAM, 2 x 2 TB SSD для виртуалок и 36 TB RAW ёмкости HDD. Кроме рабочей конфигурации в шкафу лежит ZIP из материнской платы, 4 модулей памяти, Raid контроллер LSI и блок питания. На сервер установлен Esxi + vCenter, а на виртуальных машинах развёрнута полноценная инфраструктура для предприятия с кучей разных сервисов. Само собой есть бэкап и мониторинг. В общем всё как у больших дядей. :).

Эффективно ли такое решение? — Нет. Позволяет ли оно получить реальный опыт — Да! Доставляет ли оно удовольствие — Дa! А значит оно того стоит и можно заниматься этим дальше.

Вот ещё есть один такой же любитель — habr.com/ru/users/KorP. В его блоге blog.korphome.ru даже где-то было фото его стойки с оборудованием на балконе.
HP MicroServer замечательный кубик, до сих пор в хозяйстве. Но все его прелести заканчиваются, когда требуется например нагрузить все ядра транскодированием видео, тем же plex…
Я про NAS говорил с сопутствующими задачами.
Plex для дома, кстати, он потянет. Я сам не ставил, но находил решения в сети.
А если вам нужно видео транскодить регулярно — лучше спотов на AWS решение не найти.

Там есть возможность установки простенького Xeon’а (если мы говорим о Gen8), а еще можно это переложить на низкопрофильную видеокарту. И, кстати, часто транскодируете?


У меня стоит Gen8 с Plex’ом на самом чахлом проце, транскодирование сейчас даже для мобильных девайсов, вроде, не требуется...

Ага, именно на видеокарту я и переложил это дело. В домашней сети да, не требуется, а вот во вне так в полный рост.
НЛО прилетело и опубликовало эту надпись здесь
Во-первых — пять. 4 отсека на фронте и 1 SATA внутри.
А зачем больше? У меня вообще два заняты и один еще под hot spare drive.
Сейчас же есть диски любого размера. А дома зачем десятки тер? Это уже не бытовые нужды, если вам нужны десятки тер.
НЛО прилетело и опубликовало эту надпись здесь
Я уже один раз заменил диски с 2 на 4Тб. Через пять лет повторю процедуру. Те же деньги.
А вообще архив решил хранить в холодном архиве Amazon — deep archive Glacier. $1 за 1 Тб/мес.
НЛО прилетело и опубликовало эту надпись здесь

Поставить один на другой — с 8-го поколения это очень удобно делать )) А вот с объединением сложнее. Но с учетом того, что у большинства такие ящики служат сразу для нескольких целей (медиахранилище, виртуалки, еще что-то), то есть кейс, когда и объединять не надо. Но я так понимаю, это не Ваш случай )))

А мне моя ещё говорила о моем miniitx, которого с 1.5 метров почти никогда не слышно, мол, ты маньяк, дома и то без этого не можешь…
эмм, а что будет, если например по папочке с фото у дражайшей супруги пробежит шифровальщик Петя?
Я весь контент для plex в контейнере прокинул по smb, включая фото. Он кстати очень удобен в плане просмотра фото, даже raw понимает, попробуйте.
А будет восстановление с внешнего USB жесткого диска который подключается раз в месяц для синхронизации =)
Да и супруга у меня вменяемая, всякие подозрительные файлы не качает, письма непонятные не открывает, вирусню дома не видел лет 10 уже, если не больше.
Эх вы…
Настоящий сварщик восстановится из периодического ZFS снапшота.
Есть такие планы, откровенно говоря не успеваю, там же не просто папочку перенести, надо будет еще синхронизацию перенастраивать, ну посмотрим.
А вот юзали бы freenas (ныне truenas) и настройка периодических снапшотов занимала бы пару кликов мышью.
Дак туда еще синхронизацию настраивать между ПК.
Так всегда, вроде 5 минут… а по факту Some time later…

Задумался о переезде на такую конструкцию. Plex оно умеет, равно как и Nextcloud, а вот Seafile, вроде как, не заявлен… Пока не определился с облачной помойкой, но в случае FreeNAS’а, похоже, выбирать не придётся.


Кстати, а за NAS4free (тоже переименовался — ныне XigmaNAS) кто-нибудь следит? Когда-то давно, вроде как, паритет был у этих платформ. Что сейчас?

НЛО прилетело и опубликовало эту надпись здесь
Так уж вышло =)
НЛО прилетело и опубликовало эту надпись здесь
у автора бэкап на внешний USB диск, кому будет очень надо — разберутся. А вот что будет, если всё это любовно настроить в Google/One Drive, а потом вдруг года на 3 или 5 потерять доступ?
Ну вот лично к моему домашнему серверу максимум что нужно приложить это флешку с Darik's Boot and Nuke и excel'евскую таблицу с описанием за сколько что можно продать на авито. Этим добром кроме меня никто не пользуется и 99% данных там никого кроме меня не заинтересуют. Интересовался у многих людей и большинства опрошенных похожая ситуация.
НЛО прилетело и опубликовало эту надпись здесь
вы не могли заранее догадаться, что полка будет зверски шуметь?
вы не знаете, что 3cott и ippon — это упсы одного и того же китайского разлива?
пассаж про автоматы — это отдельное…
вот не понимаю.
горделивое многостраничное описание продирания сквозь тернии, которые можно было просто обойти.
Может и мог подумать о том, да об этом, но как вышло так вышло.
Я ток не понимаю где вы «горделивое описание» тут заметили )))
Может, стиль изложения имеется в виду.
На мой взгляд, ваше решение может быть оправдано только если совсем, позарез нужен именно такой огромный для дома массив под данные.

Ну не знаю, я ж описываю факап на факапе, гордиться тут особо нечем, но получилось именно так.
Если бы я сразу начал с hp микросервера или подобного устройства, то вероятно всей этой эпопеи и не было бы, а так спортивный интерес да и опять же оно так вышло за 6 лет, из хлама и нездоровых экспериментов, я в целом ни о чем не жалею. Есть вообще монстры, погуглить историю одного паренька в США который майнфрейм ibm'овский купил.

Не понял ситуацию с автоматами. Их же подбирают под проводку. Нельзя просто взять и заменить автомат на больший ток. Проводка греться начнет.

Так автоматы остались на ту же мощность.
Вся суть в том что в старых автоматах "устали" компоненты, я так понимаю медная пластина стала изгибаться при меньшем токе (или как оно там работало), вообщем новые автоматы исключительно из списка одобренных Мосэнерго, а они больше мощности и не поставят.

а самостоятельно их заменить было можно?

Насколько я понимаю да, можно было хоть самостоятельно, хоть со сторонней организацией. Они с какого то момента стали собственностью жильцов, хотя раньше принадлежали жэку/Мосэнерго.

думаю, это было бы сложно

А можете дать ссылок на сайты, где про crown неприятное писали? Прикупил в домашнюю стойку, правда online-модель взял

Ссылки я не сохранял, но когда была проблема с моими ИБП, то банально гуглил форумы, отзывы и т.п. но я не смотрел на онлайн модели, опять же шумновато.

Как по мне то за затраченые деньги проще было воткнуть решение от Synology, но как пишет автор собиралось из того что было, в виду этого, можно было воспользоватся XPEnology, из сложностей синхронизации с мобилками в виду отсутствия quick connect установить Next Cloud, в виду обильного количества программ которые есть на синолоджи, они без проблем могут покрыть 70 % требований описаных в данной статье (Plex, Torrent, Cloud, Backup), с запуском виртуалок наверно будут сложности, и лабораторию не развернуть. Но как вариант можно пойти от обратного, воткнуть на сервер linux, вменяемый кусок отрезать на виртуалку под XPEnology, а все остальное оставить на шалости с виртуалками и лабораторией.

XPEnology кстати ставил на виртуалку, смотрел, хорошая штука, не помню что точно, но что то у меня не сложилось с ней.
XPEnology уж очень на любителя. За пределами вполне конкретного железа оно может весьма глючно работать или не работать вообще. Поиграться — сойдет, но держать какие-то важные данные в нем не рискнул бы.
В данный момент я искренне прошу подсказать мне аналогичное решение на Linux, т.к. все мои тесты и попытки собрать что-то аналогичное на zfs или btrfs не увенчались успехом,

а что именно не вышло с дедупликацией в zfs? 1:4 на бэкапах виртуалок стабильно, вместе со сжатием zstd получается грубо 1:10: 10 ежедневных бэкапов виртуалок занимает чуть меньше места, чем thin тома на vmware, с которых и делаются копии.


у вас, конечно, гораздо круче, но подозреваю, что дело тут не в алгоритме дедупликации, а в исходных данных (менее изменчивых).

Я плохо помню что было не так, но я закидывал тестовый объем гигов в 100 и результаты были не особенно впечатляющими.
Вы не знаете zfs с zstd работает на файловом уровне или на уровне блоков файловой системы?
У вас используется под freenas или под голой системой какой то?

И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.
И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.

Да, дедупликацию в ZFS рекомендуют включать только в строго определенных случаях. Чаще всего она только вредит производительности. Лучше включить компрессию и на этом успокоиться, у нее влияние на производительность и жор ресурсов примерно нулевое за счет early abort механизма.

И компрессия и дедупликация ведутся всегда на уровне блоков. Только M$ смогла додуматься сделать так, чтобы для дозаписи в файл его надо было бы сначала расжать.


Собственно, эффективность дедупликации сильно зависит от многих факторов. Если вы пытаетесь дедуплицировать zvol — то размер юнита записи в гостевой ФС должен быть равен размеру блока самого zvol. Кроме того, чем больше блоки — тем меньше накладные расходы на дедупликацию, что делает оптимальным блок в 64к, который никогда не используется автоматически.
Если вы дедуплицируете dataset или несколько, то для наилучшего результата файл стоит заливать целиком, а не дописывать по кусочкам. Кроме того, одинаковые с виду файлы (например, два архива с сетевой шары с интервалом в несколько дней) даже при неизменных файлах но изменившихся датах, могут на блочном уровне оказаться совершенно непохожи друг на друга.


Лучше всего получилось с играми в steam: при трех немного разных библиотеках получилось коэффициент больше 2.
Разумеется, и zvol, и гостевая ФС, и датасет для хоста были попилены на одинаковые блоки format R: /fs:ntfs /unit=64k для экспортируемого тома, zfs create -V 400G -b 64k для zvol, zfs create -o recordsize=64k для dataset.

Вы не знаете zfs с zstd работает на файловом уровне или на уровне блоков файловой системы?

на уровне блоков. у меня размер блока 1 МБ, подумываю об увеличении (при этом эффективность сжатия вырастет, эффективность дедупликации упадёт).


И если память не изменяет то ZFS dedup очень прожорливый в плане оперативной памяти.

она включается/включается на уровне файловой системы, а не на уровне пула.


вот пример с живого пула на 140 ТБ:


dedup: DDT entries 22853414, size 505B on disk, 163B in core
 dedup: DDT entries 22853414, size 505B on disk, 163B in core

bucket              allocated                       referenced          
______   ______________________________   ______________________________
refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
------   ------   -----   -----   -----   ------   -----   -----   -----
     1    14.9M   14.9T   4.75T   4.42T    14.9M   14.9T   4.75T   4.42T
     2    1.75M   1.75T    826G    764G    3.95M   3.95T   1.81T   1.67T
     4     557K    557G    229G    212G    2.87M   2.87T   1.19T   1.10T
     8    2.57M   2.57T    962G    894G    25.6M   25.6T   9.34T   8.68T
    16    1.93M   1.93T    446G    419G    38.7M   38.7T   8.71T   8.17T
    32    68.8K   68.8G   13.1G   12.4G    2.74M   2.74T    560G    528G
    64    2.73K   2.73G   1.50G   1.38G     252K    252G    142G    131G
   128      892    892M    572M    528M     144K    144G   90.5G   83.5G
   256      164    164M   61.7M   57.2M    54.7K   54.7G   20.1G   18.7G
   512       47   46.0M   15.7M   14.6M    36.0K   35.4G   12.5G   11.6G
    1K       90     90M   38.0M   35.1M     123K    123G   51.7G   47.9G
    2K       65     65M   23.1M   21.5M     158K    158G   54.2G   50.4G
    4K       13     13M   5.34M   4.95M    54.6K   54.6G   22.4G   20.8G
    8K        1      1M      4K   9.14K    15.1K   15.1G   60.2M    138M
   16K        2      2M      8K   18.3K    54.7K   54.7G    219M    500M
 Total    21.8M   21.8T   7.17T   6.67T    89.7M   89.7T   26.7T   24.9T

то есть дедупликации «подвергнуто» 25 ТБ сжатых данных, из них получилось меньше 7 ТБ на диске, ≈1:3.7 (было 1:4 и лучше, но тут недавно пертурбации были, коэффициент упал, ожидаю, что скоро вернётся к прошлым значениям).
формально несжатых данных почти на 90 ТБ, но это из-за того, что thin образы бэкапятся как разреженные thick, если сохранить в thin, то реально там чуть более 50 ТБ.


так вот, как показывает приведённая статистика, на таблицу дедупликации уходит (22853414 ⋅ 163) / (1024^3) < 3.5 ГБ памяти.
вы действительно считаете, что это слишком много?


P. S. если дедупликацию использовать на zvol с размером блока 4 КБ, например, то таблица дедупликации, разумеется, вырастет на пару порядков и станет слишком большой для размещения в памяти. примерно то же самое будет, если применить дедупликацию к разделу с миллиардом мелких файлов.

А по системе не подскажите на чем у вас поднят ZFS?

У меня резервные копии прилетают уже пожатые, zip кажется, так что zfs наврятли сильно их пожмет, тут как мне кажется нужен именно дедуп.

обычный debian (впрочем, это особой роли не играет).


по поводу zip вам же написали рядом, что дедупликация со сжатыми файлами практически не работает

Ну собственно от MS работает хорошо и с zip и с tgz, я так же знаю схд от pure storage они умудряются дедупить прям на лету, в том числе и архивы, но у них там какая то своя проприетарная технология.

честно скажу: не знаю, как оно там у ms сделано, возможно, придумали что-то принципиально новое, конечно, что позволяет находить одинаковые куски по невыровненным смещениям (а это минимальная проблема, которая возникнет у нас при изменении чего-то в начале zip).

Не знаю, но точно знаю что серьезные СХД тоже дедупят не слабо, а они на линуксах, единственное там технологии дедупа и все остальное проприетарное и пересекреченое как только можно.
А что за дикая влажность? Там сервер неплохо так сушить воздух должен, влажности быть не должно.

На графике по месяцам отображаются максимальные и минимальные значения, я полагаю максимальная влажность бывает либо когда открывается балкон для проветривания и там конденсируется влага из комнаты, либо во время дождя.

По поводу дедупликации бекапов сайта жены — я так понимаю, что там место занимают миллионы фоточек вкусной еды? Так зачем же их дедуплицировать блочно, если можно пофайлово — при помощи rsnapshop, rdiff-backup и подобными инструментами тянуть с сервера прямо по ssh, не пакуя.

Я не хотел бы хранить дифы, все же полная РК надежнее.
А так в целом, то ситуация следующая:
Сайт на WP,
для резервных копий используется плагин который бьет на части и архивирует не только фотки, но и sql, и конфиги, и плагины и т.п. Льет он через мой dropbox.
Открывать ssh или ftp на хостинге как то не хочется исходя из соображений безопасности.
Да и подобную РК легче восстанавливать чем результат rdiff, rsync.
Я не хотел бы хранить дифы, все же полная РК надежнее.

rsnapshot хранит полные копии, просто неизменившиеся файлы хардлинками между копиями. rdiff-backup хранит самую свежую копию как есть, а снимки — диффами. При этом лежит всё на нормальной ФС, без хайтека. rsnapshot может забирать данные не через ssh, а через rsyncd, аналогично у rdiff-backup есть режим демона.


Ну если плагин хорошо работает, то не надо трогать, конечно.


Хотя, дропбокс без своего шифрования… Не боитесь, что ЦРУ узнает все кулинарные секреты?

Да вродь пока и так устраивает, тут даже скорее спортивный интерес найти именно дедуп на блочном уровне на Линуксах.
А так да, насчет дропбокса опасаюсь, вдруг секретный ингредиент пюрешки украдут, эх… :DDDD
Я понимаю там хобби и всё такое. Но почему бы хотя бы на самоокупаемость сервера такие хоббитам не выводить? Вот Вы говорите -«сайт супруга ведет» — почему бы его не крутить на своем сервере. Может еще кому то предоставить из знакомых или через хабр, пару мест хостинга, раз уж крутится сервер. Можно на самоокупаемость выйти. Ну и еще например хранить архивы еще и друзей (может не всё, но самое самое важное) за копеечку на электричество и детали.
Я вообще за децентрализацию… вот тут в комментах много таких любителей домашнего сервера… может вам объединиться в сообщество и как то продвигать распределенное хранение, какой то альтернативный хостинг (распределенный) для не критичных проектов. (я бы вот с удовольствием ради того же хобби сайт визитку бы у вас держал.
Вы бы могли создать движение в стране таких же любителей.
1. сделать свою сеть распределенного хранения… и к примеру между собой еще как то резервное копирование распределять самого важного (типа взаимовыручка). (можно какими то архивами нумерованными в каком то общем сетевом диске — т е отдавать какие то объемы динамически на общее хранилище с резервированием. Там какие то фильмы распределить.
2. запустить свой портал с опытом и обсуждениями. (вы вот тут уже под двумя частями этой статьи кучу ценного все написали), может форум какой или децентрализованную соц сеть домосервов.
3. Сделать и отработать систему максимально надежного хранения данных на сетке распределенных домашних серверов. (хотя бы для своих). Сохранять какие то важные знания из интернета на случай локдауна монополистов и апокалипсиса
4. Поднимите свой ВПН для тех у кого нет белых IP адресов.
Ну и может еще что то, что будет в целом выгодно сообществу при децентрализации. Я думаю, что еще бы появились любители держать небольшой сервак и как то его мощности добавлять в сетку вашу домосерва. Вот мне уже интересно стало. У меня есть с пассивным охлаждением ноут, он включен постоянно. Часть мощностей мне бы было тоже интересно подключить к общей вычислительной мощности, ну что то такое. Еще можно како то тоже придумать холодное хранение просто нумерованные части каких то архивов (у одного там 5 частей, у другого еще с резервированием) — наперекор монополистам.
к примеру есть архив у человека
0111 имя
он разбивает его на 10 частей с именами произвольными
1. asdfg879dfsgkjnk34kjnndfkjnksdf987dfkj (такого типа паролит шифрует еще при необходимости) и закидывает в общую систему с резервным копирование (себе на бумажку пишет имена файлов частей). Все уто участвует хранят такие части просто по взаимовыручке. Сделать какую то проверку, что каждой части есть не менее 2 копий. Если осталась одна, то еще куда то вторая сбрасывается кому то. Вот к примеру у меня есть свободные 3 Тб места почти всегда. Я вхожу в сообщество, и обязуюсь по возможности хранить 3 Тб чьих то архивов тоже, взамен на мои резервные где то. Тут принцип, что надежно я только у себя свое хранить не смогу даже 1 Тб. Потому что если у меня выйдет из строя диск, то я все потеряю… А если я знаю что еще есть где то избыточно как минимум копия моего 1 ТБ, за это я даю в общее пользование 2 Тб для чужих резервов.
Ну еще что то может свой джабер, каталог чего то важного. Выйти на самоокупаемость хобби.
То что вы описываете уже существует, например Storj или Ocean Protocol или любой другой coin основанный на шаринге места для хранения.
Заниматься этим как вы описали, по моему мнению, это еще одна работа на full time, мне пока что и так не скучно =)

А окупать железо и эксплуатационные расходы цели нет, это моя игрушка, как хочу так и ворочу, интеграция этого сервера в «прод» даже распределенный уже будет накладывать некоторые ограничения, оно мне не нужно, как пример: я же (надеюсь и вы) не таксую на своем автомобиле что бы окупать его эксплуатацию для личных нужд.
Ну Вы высоко сразу взяли для аргументации… Я же начал с «Сайта супруги». Что мешает его крутить на своем сервере? Хобби крутить на хобби. Вот сколько вы платите еще за хостинг кулинарного сайта? Причем резервируя его копии у себя же.
2. Если Вас уж так не интересуют деньги или хотя бы просто самоокупаемость, почему бы не предложить близким друзьям и знакомым хотя бы хранить самое важное еще одну резервку у вас. Реально то «самого важного» /невосполнимого у людей 1-10 Гб частенько (не более). Ну и расшарить фильмотеку для них же к примеру. Ну и может хостинг кому тоже нужен будет небольшой на 100 Мб (визитка сайт).
Я просто считаю, что любое крутящееся оборудование могло б приносить и еще пользу (свободные мощности), а у Вас я так понял куча свободного места, но тоже зря крутится.

Как то я пропустил вторую часть статьи. Я тоже home server maniac :) Немножко описания и фото я кидал в комментариях к первой части. Прошел путь от простого WD Elements Desktop подключенного по USB к рабочему компу, до 8U стойки уже без свободного места.


Скажу всем начинающим и продолжающим домашнесерверостроителям, что какое бы не было решение, всегда надо идти на компромиссы. У меня дом, но изначально, я немного неправильно спроектировал центр свода коммуникаций в небольшой гардероб. Думал сколько там надо? Полочку одну выделить. Ага :) Сначала была обычная десктопная mini-itx платка на Intel Atom + 5-слотовая 3.5" корзинка с алиэкспресс. Совсем не server grade hardware. Эксперименты по SSH иногда заканчивались обрубанием ветки на которой сидишь, приходилось тащить монитор клавиатуру туда куда их очень сложно притулить (дешево, но не предназначено для работы в качестве сервера 24/7 — компромисс). В общем скоро я понял, что это не дело. Неудобно. Плюс незакрепленная корзина с HDD, с тянущимся к ней питанием и шейфом SATA кабелей, которые было легко зацепить, напрягала (дешево, но ненадежно — компромисс).


Начался поиск недорогой серверной Mini-ITX платы, так как корпус только маленький помещался в гардероб (компромисс). Нашел ASUS P10S-I. Также была сделан DIY дисковая полка на основе Chenbro Backplane на 16 HDD. Соединялось это вместе посредством LSI SAS HBA, который занимал единственный слот в матплате. Уже дороже, но несравненно удобнее (компромисс). IPMI на плате освободил от забот тягать монитор и клавиатуру к серверу. 16 слотов под HDD сильно развязали руки в плане манипуляций с данными. Это все стало уже занимать 2 полки шкафа гардероба. Но в гардеробе стало очень тепло, а температура HDD стала достигать 60-и градусов. Плюс отсутствие ИБП сильно печалило. В жаркий гардероб пихать еще и ИБП я совсем не хотел. А также хотел сделать несколько часов автономной работы. Тогда созрел хитрый план. Купить б.у. хороший ИБП с возможностью подключения внешних батарей. Сделать батарейный блок большой емкости. Разместить все это в пристроенном гараже в серверной стойке. От ИБП протянуть провод в гардероб, благо такая возможность имелась. Взял APC SURT2000XLI, 4 12в батареи на 45Aч. Вместе с питающим проводом 220в протянул 2 пары оптики и 5 UTP Cat 5e (всегда планируйте с запасом). В квартирах места под стойку обычно нет, к сожалению. ИБП 2U, весит много, батареи весят еще больше, гудит как самолет. Если изолированного места в жилище нету под это все, то такое, наверное, не навернешь.


Заработало, отлично. Теперь я с ИБП и 3-мя часами автономной работы (и котел газовый туда же подключил). Камерки будут исправно долго писать даже без электричества (POE switch подключен к ИБП). Протянул оптику, надо заюзать! Слотов PCI-E больше нету, значит меняем плату. Supermicro X11SSM-F отличный вариант, но она уже MicroATX. Смена корпуса, перетаскивание сервера на отдельную полку (теперь уже 3) (места больше — компромисс).


Начали вылетать винты. Они были б.у. с ebay и 60 градусов по S.M.A.R.T. это не шутки. Замена тот еще геморрой. Останови сервак, отключи все кабеля к дисковой полке. Открути болтики прижимающих планок. Пальцы об горячие HDD обожги. Вытаскивать неудобно, запихивать неудобно. Понять где какой стоит неудобно. Горячо и неудобно, но дешево и занимает мало места (компромисс). Но мне повезло, у меня есть прохладный гараж с 8U стойкой и оптикой подведенной к ней. Был куплен 3U корпус с 16 hot swap корзинами. Весь сервак и дисковая полка переехала туда. Оно воет что боинг и адски тяжелое, так что это точно не для квартиры, но в доме не слышно. Зато теперь прохладно и доступ удобный (компромисс).


Собрал еще один похожий, но 2U для бекапов и экспериментов, теперь в стойке уже нет места (надо расширятся). Следующим этапом мож 48 HDD полка от supermicro? Я не знаю, но процесс походу бесконечный :)

Спасибо за комментарий, у вас прям отличный опыт, тоже с постепенным ростом получился, как и у большинства, нас, безумцев ;)). Добавляйтесь в наш маленький телеграмм канал, там нас немного, но люди обмениваются опытом, уже помогают друг другу.

Рад что вы начали объединяться. Хочется надеяться, что это по моему совету в одном из комментариев.
Мысль такая давно ходила, но да на самом деле в комментариях мелькали такие предложения, я подумал что и правда можно будет помочь друг другу в обмене опытом!
Спасибо!
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории