Pull to refresh

Comments 68

Если у wd2go корявы апплеты, то owncloud коряв сам по себе.
С этим не спорю, но:
1. при использовании wd2go браузер постоянно ругается на Java, с которой из под Mac OS X давно капитальные проблемы, а корявость owncloud конечному пользователю не так сильно бросается в глаза.
2. owncloud достаточно динамично развивается, как серверная часть, так и клиенты для всех осей. Слежу за проектом довольно давно, и последние полгода им уже вполне можно пользоваться. Во всяком случае, для моих нужд это достаточно хорошее решение.
Еще интересно, как в owncloud сделать вменяемые ЧПУ ссылки
Можно пойти дальше, совсем отказавшись от штатной прошивки. Вы потеряете web-интерфейс и все предустановленные сервисы от WD (подумайте, Вы, хотя бы, половиной пользовались?), но приобретёте чистый debian wheezy и возможность установить и настроить всё так, как нужно именно Вам.

У меня два MBL: 1) оригинальный на 2ТБ, у которого в chroot крутятся minidlna и transmission-daemon; 2) «pure debian» на «старом» диске, освободившемся после апгрейда десктопа, с nginx, php5-fpm и прочим ПО. Оригинал я пока не перевожу под чистый дебиан по причине банальной лени перекачивать все торренты и перебивать в них пути.
Спасибо за наводку, если выпадет свободное время — обязательно попробую.
Я только что из этого WDLive вырывал свои данные — хард был нужен в большом брате, настольном компе, и данные тоже (полноценно с ними работать, удалять, редактировать). Винда с помощью ext2fsd монтировала диск, однако напрочь отказывалась удалять данные, записанные через WDLive, хотя читать, писать и удалять новые она позволяла. Ресерч на эту тему толку не дал. Ок. Как же нам перегнать 2тб информации в ntfs при отсутствии внешних носителей? Замонтировать в линуксе, стереть 1тб ненужной фигни и в два прохода перегнать в ntfs. Но не тут то было.
Товарищам из WD кровь из носа нужно было адресовать 2тб диск старым как мои тапки PPCшным процом, и они придумали гениальное решение. А почему бы нам не сделать размер блока больше? Больше размер блока -> меньше блоков -> меньше надо адресовать. Выставили размер в 64, пропатчили ядро, сделали кучу работы — отлично, дело сделано. Только вот диск подмонтировать нельзя вообще нигде, тк ограничение на размер блока — 4. Просто великолепно!
Я потратил только что 15 часов на ресерч, который ничего не дал: люди в гугле решения проблемы не добились. И вот только вспомнив, что под macosx extX монтируются с помощью fuse решил вбить «fuse ext» и наткнулся, собственно, на проект «fuse-ext2». Совершенно внезапно там есть исходники под линукс и, после некоторого шаманства в live archlinux над скриптами сборки этих исходников, я смог примонтировать фс и начать удалять данные. 15 часов. Сейчас я, гордый собой, иду спать, но хотел хоть как-то опубликовать решение проблемы в этих наших интернетах.

Что я могу сказать про сам дебиан в этих зверьках… он ужасен. Это самая кривая установка линухи, которую я видел. Я не мог там дернуть iptables, почти любое сколько-нибудь важное телодвижение в пакетном менеджере приводило к поломкам зависимостей (следствие отсутствия поддержки этой, старой, версии дебиана), поднять на этом девайсе transmission — только если через fpkmgr, руками обязательно что-то отлетит по дороге.

Что я бы сам посоветовал? Дешевейшая материнка с lan и видео, arch (любой Ваш любимый дистрибутив) и хард. Это обойдется и дешевле и гибче WDLive'а. А сложность настройки — туториалы есть в гугле и при большом желании можно умудриться, выполняя их, вообще не включать голову. Зато вы не будете тратить неделю на вопрос того, какого лешего sftp полностью игнорирует установленные *nix права к файлам и почему веб интерфейс совершенно не корелирует с реальным положением дел на харде.
Я потратил в 30 раз меньше времени на поиск решения с fuse_ext, ничего не компилировал, но недоволен не менее Вашего. А чем не устроила работа с данными «штатными средствами» WD MBL?

P.S.: iptables там просто не работает, ибо либо сам, либо нужные модули выключены в конфиге ядра при сборке, а userspace-часть не соответствует kernalspace. Знаем, нарвались уже.

P.P.S.: web-интерфейс там тормозное уг, согласен, но, тем не менее, штатную функциональность реализует почти на 100%
Насчет fuse ext — я с fuse работал только под macosx и, тк под этой ос у меня только ноут, в голову вообще не пришла мысль о том, что… я дебил)

Не устроило меня многое. Я хотел расшарить данные многим пользователям извне по sftp (общага, студенчество). No iptables, стандартные средства не корелируют ни с sftp ни с *nix'овыми пермишенами, вообще живут отдельной жизнью. Совершенно не работает без огромного бубна iTunes sharing, TimeMachine роняет бэкап через 1 месяц использования (трижды проверено), все остальные возможности, выведенные в веб интерфейс, вообще интереса не представляют.

Про штатную функциональность — ей богу, я ее быстрее руками реализую на месте, чем через это уг.
Самокритично.

Про функциональность я выше намекал — вполне хватает для mpd, icecast, сайта на php и прочей мелочи. Настраивается один раз, а потом только юзеры добавляются/удаляются/блокируются.
Может быть, но мне не хватило для домашнего использования :).
Я про «pure debian», если что. Штатная веб-морда, сжирающая половину (а то и больше) оперативной памяти и забивающая реально нужные сервисы в своп — это к мазохистам. Ну, или к WD.
А. При условии того, что дебиан не архивный — да.
Под функциональный аналог WD MBL я, находясь в здравом уме и трезвой памяти, никогда не посоветовал бы десктопное железо. А серверное — тем более. Из пушки по воробьям.

Энергосбережение хромать будет у такой системы. На оба протеза. Так что нафиг, имхо.
Да, энергию я не учитывал тк за нее плачу не я.
В моем же случае вопрос оправдан тем, что большой брат и без этого в сети 24/7 делами занят иными, уж пошарить какую-то фигню он в состоянии =)
Я в общаге тоже не учитывал. Теперь приходится.
Дополню: диск в ext4 и альтернатив на запись в win7 ext2fsd нет. Невозможность модифицировать — баг ext2fsd, проект заброшен с 2011го.
Ну, Вы, хотя бы, имеете возможность скопировать с этого диска информацию, чего не получилось бы, будь диск, например, в reiserfs отформатирован. Так что, это не смертельно.
Не всегда есть куда копировать =) Я собирал новый комп и все деньги ушли на железо, в кошельке минус трехзначная сумма. Студенчество.
Не «студенчество», а огрехи планирования инфраструктуры, скорее. Хотя бы домашней. Надо было usb-вариант брать, наверное.
Когда нужен дико мощный комп, а денег нет, либо купишь железо слабее, либой уйдешь в минус. Я решил уйти в минус. А хард у меня уже много лет.
Предлагаете с болтающимся на шнурке usb ноуте по комнате расхаживать, или использовать другую железку для шары? Другой железки не было тогда, пара ноутов. Я не вижу огреха.

Ваше право. Я бы это посчитал огрехом, но мы же домашний вариант рассматриваем — тут у каждого свои критерии. И, тем не менее, Вы раскурочили девайс, дабы вытащить из него диск, тем самым спустив псу под хвост идею шаринга. На одном компе Вы получили быстрый доступ, да.
Раскурочил я его на следующую же неделю после покупки — без корпуса он милее, занимает меньше места, а случае гарантийной ситуации — собрал бы обратно. А шаринг — подниму на этом большом брате. Лишь бы избавиться от этой кривой поделки.
Я выше отписался про электричество. Сколько Ваш ББ потребляет под нагрузкой? А на холостом ходу? А теперь сравните цифры с нашим злополучным ведром. Кто выиграл?
Естественно ведро. Только вот в контекте ситуации это обстоятельство силы вообще говоря не имеет — плачу не я :) Хоть со всего института андроидов соберу и поставлю заряжаться. А с тем, что в общем случае, это фейл — я согласился выше.
Точно. Я пропустил.

Давайте попробуем вернуться в топик — что ещё было бы полезным/необходимым на ведре, вместо/вместе с owncloud?
Очень важно — TimeMachine, но, как я уже сказал выше, оно падало. Сцепка с noip2. Ну а так, воообще говоря, я описал выше все, зачем мне нужен был хард.
Кстати, а для локалки смысл в этом есть?
Для локалки смысла в https особого нет. Но речь же идёт об Облаке :)
Ну, значит, мой вариант, когда ssl «одевается» на трафик WeDra на фронтенде, расположенном на роутере, вполне адекватен.
Ну не Облако это, а установленный ownCloud на linux хост.
А что не так? Кроме отказоустойчивости, естественно.
Если я хочу больше места в дропбоксе, то я просто плачу деньги и получаю больше места. При этом сервис не останавливает работу, подключают еще серверы и перераспределяют нагрузку на них. А это просто сервер с веб-мордой.
да всё не так, кроме того, что у вас есть доступ к своему хранилищу снаружи.
Все не так:

Национальным институтом стандартов и технологий США зафиксированы следующие обязательные характеристики облачных вычислений[7]:

Самообслуживание по требованию (англ. self service on demand), потребитель самостоятельно определяет и изменяет вычислительные потребности, такие как серверное время, скорости доступа и обработки данных, объём хранимых данных без взаимодействия с представителем поставщика услуг;

Универсальный доступ по сети, услуги доступны потребителям по сети передачи данных вне зависимости от используемого терминального устройства;

Объединение ресурсов (англ. resource pooling), поставщик услуг объединяет ресурсы для обслуживания большого числа потребителей в единый пул для динамического перераспределения мощностей между потребителями в условиях постоянного изменения спроса на мощности; при этом потребители контролируют только основные параметры услуги (например, объём данных, скорость доступа), но фактическое распределение ресурсов, предоставляемых потребителю, осуществляет поставщик (в некоторых случаях потребители всё-таки могут управлять некоторыми физическими параметрами перераспределения, например, указывать желаемый центр обработки данных из соображений географической близости);

Эластичность, услуги могут быть предоставлены, расширены, сужены в любой момент времени, без дополнительных издержек на взаимодействие с поставщиком, как правило, в автоматическом режиме;

Учёт потребления, поставщик услуг автоматически исчисляет потреблённые ресурсы на определённом уровне абстракции (например, объём хранимых данных, пропускная способность, количество пользователей, количество транзакций), и на основе этих данных оценивает объём предоставленных потребителям услуг.
Не понятно, к чему весь этот геморрой. Такое ощущение, что делалось всё просто в погоне за модой. Как уже правильно заметили, облаком тут и не пахнет. Куча единых точек отказа (SPoF). Открыли бы доступ через FTP и не парились
Пробовал когда-то экспериментировать с ownCloud на MBL. Отказался по причине несовместимости функционалов — хотелось, чтобы ownCloud был веб-интерфейсом для доступа к файлам на диске из-за пределов локалки, а в локалке чтобы было видно по SMB, однако у ownCloud свой формат хранения и структура каталогов, и файлы либо хорошо видно через ownCloud, но криво видно через SMB, либо видно через SMB, но не видно через ownCloud.
Для себя сделал следующее простое решение. Домашняя сеть с подключением по VPN из вне и SMB сервак. Необходимо получить доступ к файлам. Подключаюсь к VPN (реализовано силами роутера), а далее стартую сервак по WOL (а нефиг ему постоянно электричество жрать) и подключаю диск по SMB. Кроме этого на серваке и торрентокачалка есть и другие нужные мне вещи. Управление сервером по RDP хоть со смартфона, собственно и со смартфона можно получить доступ к файлам. При желании можно для экспресс доступа с незнакомого компа и вебморду поднять(благо апач все равно стоит), но потребностей таких у меня пока не было. Также это решение позволяет сохранять и свой российский ИП при нахождении в командировках — очень бывает полезно и актуально. В результате очень много места, гигабитный доступ из локалки (и при необходимости непосредственный доступ к серверу).
Давайте ещё CalDAV прикрутим!
По поводу кривости debian — его кривость прямо-пропорциональна кривости ваших рук.
Реально у WD проблема это WD Green, который от интенсивной нагрузки разваливается за год, ext3(4) (не system) которую нормально не смотрировать при подключении к бб, и наконец венец сего творения — 256мб это никуда…
В остальном хорошая тихая домашняя NAS система)
> Реально у WD проблема это WD Green, который от интенсивной нагрузки разваливается за год

А что можно считать «интенсивной нагрузкой»?
У меня WD MBL о 2-х Тб несколько лет в режиме 24/7 торренты раздает/качает, я уж не говорю что аппарат пару раз падал со стола во включенном виде. Все до сих пор живо, сломался только индикаторный светодиод на лицевой морде аппарата.
В гринах как раз проблемы с интенсивной нагрузкой нету. Был опыт использования 1.5 Тб грина под постоянной нагрузкой чтения/записи ~ 30Мб/5Мб 24х7 в течение двух лет. Полёт отличный. Он бы ещё столько же проработал, если бы не понадобилось расширить место.
А вот с парковкой головок там действительно проблема. Они там, заразы, каждые 8 секунд паркуются, а gnu/linux каждые 10 секунд лезет логи дополнять. Впрочем проблема решается отключением энергосберегающего режима специальной утилитой, которую можно чуть ли не на сайте wd скачать ( ну или у техподдержки выпросить ), хотя с некоторыми отдельными грин моделями для отключения столь агрессивного поведения нужно было отдельно плясать.
У меня за год работы 2000 Reallocated_Sector_Ct на грине. Хотите сказать мне просто не повезло? Сейчас грин заменен на ред.
По поводу кривого дебиана, не понимаю в чем его кривость? После доработки напильником, вполне себе неплохо работает.
Я бы вместо ownCloud посоветовал Seafile, ну или в дополнение к нему, он больше подходит на замену дропбокса, по моему мнению.
Правда не уверен, что поставить (читить собрать) его на WD будет простой задачей.
Я понимаю, что вы решали проблему исходя из того, что имелось в наличии, но роутер с ЮСБ диском делает эту задачу намного проще.
Извините за резкость, но это не облако, а фигня на постном масле. В промышленности за словом «облако» скрывается прежде всего масштабируемость и отказоустойчивость, а не: «Ой фоточка с мобилки появилась на компьютере!». Накроется 3 терабайтный винт, и желаю удачи с перезаливкой и пересинхронизацией всех клиентов.
Ну зато как минимум, сами данные не пропадут как при простом хранении и доступе, например по FTP.
При синхронизации через owncloud, данные хранятся на сервере и на локальной машине (а может на нескольких). Если с сервером что-то происходит, на всех локальных машинах с которыми была синхронизация, данные остаются. Так что даже если сервер физически выйдет из строя, как минимум, на локальных машинах останется информация.
Если просто заливать файлы на FTP, не оставляя копий на локальных машинах, при физическом выходе из строя сервера, данные уйдут в небытие вместе с ним.
Не логично?
Я даже не знаю плакать мне теперь или смеятся. Выходит мой инкрементальный бекап важных папок с ноутбука на сервер стал вдруг облаком. Инкрементальный, это когда при изменении одного байта в 2-х гиговом файле копируется только это изменение, а не весь файл.
Если верить Википедии, очень грубо, облако подразумевает повсеместный и удобный доступ к устройствам хранения данных, все остальное — это уже технологии.

Это как с автомобилем — общий признак это — 4 колеса и наличие двигателя. И ежу понятно что телега — не автомобиль, но вот если в телегу поставить двигатель и заставить колеса крутиться вследствие его работы, технически, она будет автомобилем. Поэтому если подходить с этой точки зрения, то мотоцикл будет меньшим автомобилем, чем наша самоходная телега.

Так что если Вы организуете удобную синхронизацию с Вашей системой для еще хотя бы одного человека и при этом не будете друг другу мешать в процессе работы (ресурсы будут отдаваться параллельно), наладите версионность и функцию хранения удаленных файлов, тогда формально у Вас и будет облако в общем смысле, все остальное — уже технологические нюансы.

Или я не прав?
Вот именно, повсеместный доступ к устройствам, а не к одному устройству. Если вы сделаете резервирование дисков, хостов, сети, то это можно будет называть маленьким облаком.
Хорошо, абсолютно та же самая операция применима к MyBookLive Duo, в котором два жестких, которые можно объединить в RAID, таким образом данные будут зеркалироваться. Это уже будет Облаком?
А если я содержимое моего MyBookLive зеркалирую по сети на второй такой же?
Осталось зарезервировать доступ в сеть и настроить автоматический fail-over.
Квадроцикл = автомобиль. Удивительная логика.

То что вы описали называется сервер данных. Такие применяют в компаниях десятки лет. Сотни людей используют общий сервер для обмена и хранеия данных, почтой, календарями и еще сотней сущностей. Но когда админ хочет провести апгрейд сервера, то ночью выключает сервер и ковыряется. При этом никому из пользователей сервис не доступен.

Допустим вы подключили своего друга, но ему показалось что 3Тб мало для порнушки и просит увеличить лимит ресурсов. Вам для этого придется покупать новый жесткий диск, выключать все ваше барахло, разбирать, менять, собирать, включать перенастраивать.

Вот если у вас будет управляющий сервер, который сможет рулить несколькими такими серверами хранения данных как ваш. Включать их и выключать по мере необходимости, распределять нагрузку и обеспечивать приемлемую неприрывность работы, тогда это с натяжкой можно будет назвать облако.

А у вас просто сочинение на тему «Как я провел лето, после того как узнал про апач».
Стоит отметить, что для управления квадроциклом требуется удостоверение водителя-тракториста. Это обусловлено техническими характеристиками и другими особенностями квадроцикла, а также тем, что он предназначен для суровых условий эксплуатации.

В остальном, не буду спорить. Лето удалось, и сочинение от души писал.
> на всех локальных машинах с которыми была синхронизация, данные остаются.
Почему? Там же просто монтируется по webdav сетевой фолдер. Если сервер уронить, локально ничего не останется.
По-умолчанию ничего не монтируется, папка и файлы физически остаются на компьютере, для отслеживания изменений и синхронизации используется модуль csync. WebDAV нужно настраивать и прикручивать отдельно.
На двух компах были файлы в папке owncloud, потом я лично грохнул прошивку MBL при случайном обновлении udev и пришлось разбирать девайс и полностью форматировать винт. На обоих компах файлы физически остались, никуда не делись, только клиент owncloud сообщает о том что нет соединения с сервером.
Что я делаю не так?

P.S. на официальном сайте написано:
ownCloud gives you universal access to your files through a web interface or WebDAV.

и ссылка. В нашем случае используется веб-интерфейс на сервере и синхрон по csync на клиентах.
> a web interface or WebDAV
Собственно, нет никакой разницы, какой протокол используется для передачи данных.

> синхрон по csync на клиентах.
А вот это другое дело. В таком случае файлы действительно хранятся на всех машинах.
Не вседа удобно, например, для несколько-терабайтной файло-помойки.
Тут с Вами согласен, поэтому и написал что не представляю сколько времени потребуется для синхрона 3 Тб и кому это может потребоваться, но сам факт что такое возможно даже посредством MBL уже интересен.
Лично я в итоге разобрал MBL, купил док-станцию для жесткого диска, поставил 3-х террабайтник в нее и пользуюсь так, просто как внешним хардом. А для остатков MBL жду когда товарищ принесет старенький винт на 80 Gb чтобы начисто поставить на него Debian Wheezy по инструкции отсюда и сделать отдельно маленький домашний owncloud-серверочек для синхрона особо важных документов.
А причем тут промышленность? Если судить по посту, то автор предлагает некий вариант «облака» для персонального использования. Для себя, правда, я другое решение собрал(см. выше), имеющее аппаратный рейд.
Какая версия прошивки была в сем эксперименте?
По поводу доменов, для Украины можно бесплатно зарегистрировать домен *.pp.ua.
Регистрация полностью бесплатна, проверено лично.
Не проще ли сразу .tk?
Хотел бы посоветовать во-1, не передавать ваши личные данные через интернет по открытому протоколу в смысле вообще, в смысле закрыть доступ в облако на 80 порт. А SSL ходить только по НЕсамоподписанному сертификату, а использовать бесплатные службы типа cacert.org. Иначе смысл SSL практически сводится на нет.
А чем плох самоподписанный сертификат?
Тем что в таком случае либо сертификат вашего CA должен быть на всех клиентах и сервере, либо Вы легко подвержены атаке MiTM.
Sign up to leave a comment.

Articles