Как стать автором
Обновить

Комментарии 165

Кстати, все вышесказанное также потенциально относится и к таким сервисам как dropbox и ряду других. От себя могу сказать, что совместная работа в owncloud оказалась очень удобной. Крайне важной фишкой оказалась возможность указать конкретные удаленные каталоги для синхронизации и указать целевые каталоги на локальной машине. Когда сервис свой, то его размер легко может достигать 100-200 ГБ. Ну и немаловажными оказались сервисы версионирования и хранения удаленных файлов согласно выделенным квотам. Предлагаю поделиться опытом)
НЛО прилетело и опубликовало эту надпись здесь
Паранойя заразна) Сделайте бэкапы. Пусть лежит. А там посмотрим. Сейчас такая каша творится, что я ничему не удивляюсь.
Зачем сейчас-то?
Заблокируют — тогда уж выходить через прокси и сливать дамп.
А сейчас — просто трата времени.
А ситуация потери данных или блокировки с другой стороны? Я не заставляю. Невелик объём данных при его ценности.
Это если с нашей стороны заблокируют, то можно через прокси дамп сделать. А если заблокируют с той стороны и не по ip а просто списком все аккаунты у которых известно местоположение, то не факт что вам отдадут дамп. Хотя я конечно считаю такую ситуацию маловероятной, но всё таки дамп сделал — пусть у меня тоже лежит.
Ну, как раз списочный бан — совсем из области крайнемаловероятного.
А вот лично конкретного юзернейма Гугл бывает и банит, за нарушение тех или иных правил пользования собой. Помню была новость про чувака, которого забанили за ник вместо имени в ГуглоПлюсе.
В Иране не работают Google Apps for Business. Причем полностью, вне зависимости от того в какой стране зарегистирован аккаунт. Просто с иранского айпишника невозможно залогиниться даже например в почту привязанного к гуглу домена. Это было очень неприятно когда я был в Иране, потому что отвалились полностью аккаунты почты, аккаунт на андроиде, а с учетом «очень быстрого» интернета в Иране (скорость там ограничивают специально, быстрый интернет доступен только по разрешению правительства) использование прокси и впн превращается в полнейшую боль.
НЛО прилетело и опубликовало эту надпись здесь
В Китае весь гугл заблокирован на корню, начиная с ютуба и поиска, заканчивая картами, переводчиком и всеми остальными сервисами. Не знаю, как они пользуются андроидом, думаю пишут свои клоны магазина приложений.

Что касается «подготовки к санкциям», очень это похоже на «начали занимать очередь, чтоб к обеду освободиться». Компании ничего перекрывать не будут, в чём смысл им терять клиентов? А то, что перекрыли себе сами, самим надо и открывать.
Вы правы в целом. Но я хочу, чтобы на случай чего-нибудь неприятного у мешая под рукой была резервная копия. Например альтернативный вариант — google блокирует аккаунт конкретного пользователя «из-за нарушения правил». Каких не скажем. Вспомните блокировки разработчиков. Я не хочу потерять данные за последние 13 лет. Я регистрировался ещё когда Gmail по инвайтам был.
НЛО прилетело и опубликовало эту надпись здесь
Gmail и Drive очень сильно шифруются несертифицированными алгоритмами. Вполне себе повод.
а можно выгружать на регулярной основе, чтобы иметь копию гуглодоков-почты, но пока можно пользоваться ими? или штатной фичи реимпорта регулярного нет?
Можно выгружать сколько угодно. Там ограничение в три раза в день и не более семи раз в неделю. А в остальном как хотите.
Если вам от OwnCloud нужна только работа с файлами, то рекомендую выкинуть его, и поставить pydio. Намного более стабильная и приятная штука.
Нет, не только. У нас ещё и общий календарь и контакты. pydio умеет создавать удобные ссылки для внешнего доступа? Плюс, что с клиентами?
Умеет.
Емнип, там можно даже сокращалки прикручивать (если интересно — посмотрите документацию плз, я это дело сразу отключил, ибо мне внешние ссылки не нужны).
Клиенты — есть старый десктопный на жабе, и сейчас допиливается новый и модный на питоне.
Для андроида тоже есть. Насчет прочих мобильных аппаратов — не в курсе.

Вообще, штука очень сильно заточена именно на файло-шаринг. Там есть куча всего, связанного с этим.
Потыкаю, спасибо. Но, вероятно, будет не хватать части функционала.
Я тыкал. Календарь и контакты не нашел. Если есть кто тыкал лучше, ткните меня носом, пожалуйста. Вроде pyd.io не собираются делать НЕ для файлов.
Все верно. Я с разрабом общался на эту тему — мне было сказано примерно так — мы лучше сосредоточимся на файловых фичах, но сделаем все очень хорошо, чем будем делать кривой комбайн со всем подряд.
Спасибо!
Это какая то секретная ссылка что ли? В меню не нашел.
pyd.io -> Download -> Apps — все там.
Спасибо за наводку. Почитал сайт и не могу найти ответ на вопрос: можно ли там на автомате скачивать документ, открывать локально, править, сохранять и автоматом заливать обратно. Без лишних действий пользователя?
В некоторых ECM такое есть. Если оно и тут будет, то цены не будет такому решению )
Если я правильно вас понял, то вы можете работать с установленным клиентом — тогда все изменения будут синхронизированы. Или, есть еще вариант — там есть простой онлайн-редактор.
Еще, если ваш редактор поддерживает webdav — то можно через него вроде бы как. Я такой сетап не делал, точно гарантировать не могу, но вроде бы и так можно.
Не очень понял, что вы хотели. Можно редактировать в простом редакторе в браузере. Можно синхронизировать каталог и редактировать в нем. Версии от разных пользователей будут отличаться и маскироваться.
*маркироваться
У них же вроде синк-клиент пока нестабильный адски?
Вроде уже все в порядке. Linux, Windows на работе. За пару месяцев никаких проблем.
Может быть, пару лет назад был таким :)
Год с лишним все ок.
Кстати, еще для работы с файлами есть довольно удобный SeaFile от наших китайских друзей. В свое время искали альтернативу дропбоксу на предприятии (нужно было локальное облачное хранилище). Выбирали между OwnCloud и SeaFile. Остановились на втором ( по OwnCloud было много отзывов о нестабильной работе, возможно сейчас уже что-то изменилось ). Уже почти год используем — тьфу, тьфу, проблем небыло пока. Однако функциональность SeaFile и правда не богата, есть мелкие недочеты, но как замена дропбоксу — работает исправно.
При переходе на www.google.com/settings/takeout получаю

403. That’s an error.
We're sorry, but you do not have access to this page. That’s all we know.


при том что у меня apps аккаунт и я там один и самый главный. в настройках не нашёл как включать.

Ага, нашёл

1) admin.google.com
2) пользователи
3) я
4) Включено ещё N сервисов гугль
5) Архиватор Гугль (ВЫКЛ)
6) Включить
Письма хороши!
Для файлов bittorrent sync не быстрее будет?

Кстати по поводу БП внизу — очень плохая идея, пыль скапливается и в режиме онлайн там легко не почистить (за месяц/два может доходит до аварийных отключений, у меня бывало). Лучше чтобы БП был наверху, тогда и чистить его легко и воздуха ему больше и он не гудит как вертолет.
Кстати по поводу БП внизу — очень плохая идея

Если производителем предусмотрен пылевой фильтр (а в BitPhenix Prodigy он предусмотрен) то данная проблема не страшна.
Плюс он на ножках поднят над поверхностью. Внутри почти идеально чисто за 2 года.
У меня весь такой фильтр в пыли вечно, забивается и вызывает еще больше проблем. (быстрее перегрев)
Корпус ощутимо приподнят на ножках. Эти же элементы делают его очень удобным в транспортировке.

Да, такое поднятие хорошо, у меня в половину этого и жуть как забивается.
Поищу этот корпус для закупки (хотя в идеале хотелось бы водянку в PSU).
Зачем водянка в PSU для такого сервера? Да там пассивного блока питания Ватт на 120 хватит с головой (и то если будете i5 ставить и RAID массив дисков на 4 хотя бы). А если на базе Celeron G18xx или Pentium G32xx — то и 80 Вт хватит. А то эта привычка вечно ставить минимум 400 Ватт, в любой комп… Есть же тесты сколько реально потребляют компы. Вот к примеру, смотреть потребление с интегрированной графикой. При этом учитывайте, что это потребление от розетки, т.е. еще процентов на 20 нужно уменьшить.
Я чисто из тишины. Так я знаю сколько потребляют ПК.
Так пассивный блок питания работает тише любой водянки, вы же не жалуетесь на шумность блока питания ноута?.. Или у вас водянка без радиатора с кулером и помпы?
У меня еще нет водянки, я пока думаю лишь взять, но буду читать обзоры. В двух ПК самым громким является PSU…
Тогда лучше купите нормальный PSU (например, SeaSonic, суперские блоки, но дорогие, а их бюджетные модели быстро расхватывают, могу посоветовать изучить тесты блоков питания на fcenter.ru).
Либо более бюджетный вариант поменять кулеры в блоках питания, на нормальные, Noctua к примеру (на fcenter тоже есть тесты толковые по кулерам). Но опять же это если у вас более менее нормальные БП, а не китайский noname. И там возможно придется попаять, ну либо подключать кулер к материнке.
Тогда вы увидите, что даже низкооборотистые винты, оказываются самыми шумными в системе.
Ну и еще если с английским дружите то silentpcreview.com можно почитать по поводу шумности компонентов.
Для файлов bittorrent sync не быстрее будет?


Проприетарное решение от американской компании. В чем разница с гуглом?
Ни в чем. Просто opensource альтернатива ещё в процессе. Потом перейду на открытое ПО.
Но это решение не хранит ваши данные на своих серверах, а в свойствах папок можно указать с каким хостом синкаться. Т.е. никаких промежуточных нод/серверов не требуется, данные хранятся у вас и теоретически, при условии отсутствия «закладок», пока вы сами установленное и настроенное данное ПО не отключите, оно будет исправно работать.
Трафик то сниффали, протокол исследовали, чтоб уверено говорить, что никуда кроме Ваших серверов данные утекают? Я думаю нет, протокол же почему-то закрыт…

Так что все эти аргументы только «теоретически». В суровой реальности ничем от гуглодрайвов не отличается. Хотите распределенного хранения в гуглодрайве — всегда можете его синкать с несколькими серверами.
Ну зачем же сразу менять контекст… Чтобы показать собеседнику, что он как бы не прав, но исключительно в вопросе, про который он и не упоминал? :)

Во-первых, я не просто так дописал «теоретически». Я не утверждаю, что такое решение не может быть выключено извне и что оно работает исключительно так, как заявлено.

А во-вторых, контест топика
что произойдет, если внезапно «выключат Google»

Тут не идёт речи, что данные куда-то утекают, речь про утерю доступа к куче нажитого непосильным трудом своего контента. Я комментировал исключительно в этом контексте, и если прочитать мой коммент полностью, то можно заметить, что я на это достаточно однозначно указал ;)

Ну а по вашему вопросу — не снифал, уверенно на эту тему ничего не говорю. Поставил btsync буквально на днях, посмотрел разве что, что при синке исходящий трафик примерно равен тому размеру, чего положили для синхронизации. Круглосуточно процесс не мониторил, если он вдруг ночью ещё куда-то данные отправит, я этого не замечу. Но на работе, за NAT'ом, клиенты из двух разных подсетей синкаться у меня не стали, не смотря на включённые оптции «промежуточные сервера» и «использование трекера», т.е. как минимум сразу после старта и/или начала синхронизации процесс на свои сервера не полез.
Мы знаем, что гугл хранит наши данные на своих серверах. Гугл об этом открыто заявляет.
Мы не знаем хранит ли bittorrent sync наши данные на своих серверах. bittorrent sync заявляет, что не хранит наши данные на своих серверах.

Это если прямо отвечать на вопрос. ;)
Спасибо за статью!
Прямо вовремя )

Можете ли подсказать, есть ли там API для следующих маневров:
1. автоматическая синхронизация пользователей с внешней системой. Будь то 1С, ActiveDirectory, внутренний портал
2. возможность через API давать доступ на папки и файлы группам пользователей и автоматическая синхронизация групп
3. возможность автоматически выдавать доступ пользователям Б и В, если выдан доступ пользователю А. получая список пользователей Б и В от внешней системы.
4. если файл уже закачан на ПК, и прошело 2 дня. я пытаюсь открыть этот файл локально, но на сервере его кто либо уже поменял. предположим не было доступа. как система разрешит конфликт?

п. 3 нужен для корпоративного хранилища, чтобы скажем сотрудники одного отдела или руководство, автоматом получали доступ, при наличии таких настроек во внешней системе.

Было бы очень интересно узнать про это )
Я не программист и не интегрировал никогда так тесно в бизнес его. На скрине с плагинами есть что-то похожее на то, что вы простите. Права доступа очень удобно привязывать к группам пользователей, все работает. Внешние плагины для LDAP и всякого там есть. Судя по потребностям — все очень активно пилят. По последнему пункту — будут сохранены все возможные версии файлов в рамках квот, а реплицироваться будет наиболее поздняя. Merge он точно не делает.
Кстати, снова по поводу pydio — главный разраб там предоставляет «серьезному бизнесу» свои тарифные планы на поддержку, в рамках которой может интегрировать кастомные фичи — pydio.com/plans
1. Седьмую версию особенно активно допилили под AD.
2. Через API — хз, вроде как они открыли API с доками.
3. Может дело не в пользователе А, а в группе, в которую входят Б и В? Доступ по группам есть.
Для корпоративного файлохранилища я бы посмотрел в сторону pyd.io все-таки.
Не хотелось бы к этому прибегать, но…
Может кто-нибудь знает чем можно Evernote бекапить и заменить?
Из Evernote можно выгрузить в формате Enex, вместе с вложениями, а далее легко парсится и льется куда захочется.
НЛО прилетело и опубликовало эту надпись здесь
Бекапится он сам на десктоп, а если ещё и десктоп бекапится(хотя если тут не должно быть), то всё совсем пучком. Сам Evernote может в html экспортировать.

Так что в общем случае сбежать с него можно будет даже если, не то что их сервера исчезнут, а даже если будут слать команды на удаление всех данных.
бекапить — CloudHQ (что на выходе — можно указать. можно например PDF и ENEX в Яндекс. Диске). Сервис платный.

Мы здесь решения автономные обсуждаем, вроде. Облака это понятно.
Бекапы по определению необходимая вещь. И паранойя здесь ни при чем.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Если перестанут возить HP, то вы ничего не потеряете. Внутри почти стандартное железо, кроме RAID-контроллера, вроде. Все можно заменить. Это просто очень продуманная компоновка.
НЛО прилетело и опубликовало эту надпись здесь
Тут зависит от целей, согласен)
В этом недосервере диски не продуваются, железо не пойми какое, не ясно как там с апгрейдами и расширением функционала.


У меня на шкафу в квартире стоит. Летом температура с учетом подпотолочного положения не превышала десктоп в просторном корпусе с хорошими вентиляторами. Брал версию без оптического носителя, вместо него ssd под bcache. Память проапгрейдил на сторонюю 16 гигов. Все четыре SATA HDD в программном рейде, ОС на sdcard во встроенном контроллере. Работает под домашнее файлохранилище, сервер БД, заббикса, редмайна и коллектор для видеонаблюдения.

Так что из недостатков реально только то, что места под харды < 5. Но для своих четырех его полностью хватает.

И да. Один PCI-E слот есть. Так что третью сетевуху Вы поставить сможете. Два PCI-E я не знаю зачем в общем случае в сервере нужно.
Можно ещё видеокарту поставить для hdmi и медиа-нужд. Но это я на 7 поколении делал. Там не было интегрированной.
HP Microserver из-за iLO берут. Это такая системка «компьютер внутри компьютера», которая позволяет удалённо полностью контролировать сервер, включая переустановку ОС и перепрошивку биоса.
Удобная штука. Но для домашней эксплуатации некритична. Я поначалу офигевал, что это такое на отдельном ip висит в DHCP. Красиво температурные карты рисует.
Если часто в командировках бываешь незаменимая практически. Я вот думаю как бы за вменяемые деньги домой ip-kvm для сборочной станции генты заполучить.
По-моему в такой корзине от дядюшки ФуньХу жёсткие диски получат нехилый такой перегрев. Там даже зазоров между ними нет. Лучше уж действительно просторный корпус
Температура дисков сейчас не поднимается выше 31 градуса. Лето. Жара. Все нормально продувает.
НЛО прилетело и опубликовало эту надпись здесь
У меня пока таких потребностей нет. Мне 6 ТБ хватает.
Да хорошо в микросервере продувается, хорошо. Мои
Device Model: ST3000NC002-1DY166
Device Model: HGST HUS724030ALA640
Device Model: ST3000DM001-9YN166
Device Model: Hitachi HDS723030BLE640

сейчас, хоть и ночью, но на шкафу как я уже говорил, под нагрузкой держат среднюю температуру 35 градусов.

Нет смысла в большом корпусе для файлсервера, если не вылезаешь за 4 диска.
НЛО прилетело и опубликовало эту надпись здесь
Какие однако интригующие названия файлов у вас на скринах… вы в теме или это просто интерес?
А вы с какой целью интересуетесь?)
Человек хочет знать, к кому обращаться в случае чего)
P.S. И я тоже, если хорошо подумать)
Это смотря, какой результат вы хотите получить))
Да какой тут результат… интересно почитать на эту тему.
Не от дебиловатых репортеров, а от человека в теме. тем более который умеет грамотно излагать свои мысли.
Не могу я излагать на любые темы. К сожалению.
Не можете или низззя? )
Тогда хотя бы скажите, на сколько все плохо…
Все будет хорошо. Колонии на Марсе очень перспективны.
>Колонии на Марсе очень перспективны.

Ясно, значит можно начинать паниковать…
Это нужно добавить в избранное.
А где записывают хотя бы на Луну?
Интересно, Гугл за такие имена файлов не банит?..
Ну вдруг выпустили вирус и внезапно озаботились бекапом данных :)
Я думаю, что вас почта бы уже не волновала)
А что ещё делать холодными вечерами в бункере, как не перечитывать переписку? :)
Эхм, а есть ли что-нибудь со следующими требованиями (в определённой степени дублирует гугл):
1) копирует и синхронизирует все контакты с телефона;
2) делает бэкап настроек приложений/полный бэкап.

Вопросы по топику:
1) Каким макаром осуществляется обновление файлов? Если, к примеру, файл большого размера изменился, то будет скачиваться только .diff или целиком?
2) Обязательно ли сервак поднимать на отдельном железе? Или мне может хватить моего ноута?

Но, как я понимаю, от зонда всё равно не избавишься: без акка в гугле не будет работать маркет и ещё куча специфический фич типа удалённого контроля телефона.
Полностью подменить Google не получится. Но owncloud может заменить контактв, календарь и google drive. Ноута хватить должно, но как-то некошерно. Тут и винты под NAS нужны типа WD Red и лучше бы минимум 2 для копий. Насчёт diff не помню. Обещали точно, но результат не помню. У меня канал толстый, не обратил внимания.
А синхронизация напрямую будет проводиться?
Тут и винты под NAS нужны типа WD Red
Кхе, для PHP-скрипта?
Сервер редко выполняет одну функцию. И данные винты во многом отличаются прошивкой и алгоритмом работы. Головки лишний раз не паркуют и т.п. Обычные десктоп-версии не любят круглосуточной работы.
Обычные десктоп-версии не любят круглосуточной работы.
Действительно, то-то у меня десктопы по полгода работают без каких-либо проблем, но это-ж я, глупый, про винты не знал, загонял их, видимо… Вот вернусь, и обязательно себе специальные куплю, какие вы посоветовали!
Не надо иронизировать. Цены на Red и Black серию почти не отличаются. Но красные больше проходят для этой задачи. Я могу и шуруп в стену забить, и даже держаться картина будет, но зачем?
ЕМНИП, то наиболее заметным отличием red-серии является отношение винтов к ошибкам (чтения/хранения). Десктопные винты лучше потратят несколько дополнительных секунд, но попытаются ошибку поправить, а при наличии нескольких винтов в raid'е такое поведение нежелательно. Винты же red-серии вопрос исправления ошибки оставят на усмотрение raid-контроллера, и исправляться будут в свободное от работы время, зато все диски в массиве будут работать с одной скоростью (в плане возврата данных). В сухом остатке из заметного пользователю — десктопные винты в массиве могут вызывать затупы, а в особо тяжких случаях необходимость ребилда, а «red-винты» в десктопе без использования raid'а могут порождать ошибки при чтении.

На шурупе картина держаться будет, но действительно зачем…

А по поводу круглосуточной работы — тут скорее вопрос не во времени работы, а в количестве операций с диском, по большому счёту для винта не такая уж и большая разница выключен он или спит :)
А того, что собирался написать, и не написал :)
Красные подходят больше для данных задач при условии использования raid…
Пока diff'ами не пахнет. Для запуска ноута хватит, а дальше все от нагрузки зависит.
Ну мне с телефона много не нужно сливать и обновлять. Я думал прикрутить Bittorrent Sync, но это чисто для бэкапа
Тогда это не проблема.
Грустно, когда в 50 МБ sqlite файле добавишь пару значений, и он его весь пересылает.
Особенно грустно, когда постоянно добавляешь значения, а инет с телефона…
Пришлось переключить на rsync для одного файла.
Я BTSync в связке с телефонами тоже использую. Очень удобно.
А скажите, BTSync используете просто потому что начали раньше им пользоваться (если это так) и теперь просто продолжаете или же он чем-то лучше/удобнее чем owncloud в вопросе синхронизации файлов с телефона?
Исторически. Раньше клиент под Owncloud был очень убогим. Плюс у BTSync есть возможность нормальной двусторонней синхронизации. Ну и ничто так не пробивает любые NAT, как torrent-протоколы.
А не скажете — есть ли возможность на мобильном девайсе (android) удалить загруженный файл с устройства (чтоб место не занимал), но при этом чтобы он не удалился из папки вообще, т.е. чтобы потом при желании его опять можно было загрузить?

Мне иногда и с телефона что-то перекинуть надо, иногда на телефон, т.о. нужна папка с полным доступом (а не read-only), но какие-то файлы мне надо разово посмотреть на телефоне, чтобы они постоянно на нём лежали мне не нужно. Или остаётся только несколько папок заводить, одну делать read-only и получать файлы на телефон только через неё, чтобы можно было их смело удалять?
В Owncloud можно просто подтянуть нужные файлы. А BTSync после удаления еще месяц (или сколько настроите) хранит удаленное в каталоге ".Archives"
Owncloud ещё не настроил. Всё никак диски не докуплю в домашний сервер (уже месяц всё собираюсь). Как станет много места, так и настрою :)
Хотя вроде есть там 150 гигов свободных, может и раньше настрою :)

А хранение в .Archives не совсем то, что нужно. Просто для теста накачалось файлов на телефон, которые на нём не нужны, а их удаление с телефона приводит к удалению со всех устройств. Сделаю тогда пока пару папок для синка файлов на телефон, а после теста owncloud может и не понадобится больше такой вариант.
А чем заменить Gmail, это единственное что держит меня на гугле. Только не yandex mail.
У owncloud есть плагин — вебморда для почты на основе roundcube.
Но сервер придется поднимать самому и настраивать антиспамы в силу своего разумения.
советую axigen
На первой картинке «нужно больше вентиляттров!».
Вроде не первый год существуют маленькие неттопы с пассивным охлаждением.
Это Thermalright. Они абсолютно бесшумны. Два года назад спокойно спали с новорожденным ребёнком рядом с ним. Я его в упор почти не слышу. А температура винтов мне важнее. Почему не неттоп — я написал. Сейчас в нем уже 3 винта и 16 ГБ RAM. Куда я это в компакт запихну?
С таким качеством, если не жалко денег, согласен.
У самого пока нет таких объемов.
Забавно говорить про бесшумность Thermalright с боксовым кулером на проце :)
Не спорю. Но, как ни странно, в фоне он еле крутится. Не слышно.
Процессор:Intel Core i5-3470, 3.20ГГц, 6МБ, LGA1155, BOX

RAM:16ГБ (8Гбх2), PC3-10600, 1333МГц, Corsair Value Select CMV8GX3M1A1333C9

HDD:3 штуки 2ТБ, 3.5", 5400об/мин, 64МБ, SATA III, Western Digital Red, WD20EFRX

Motherboard:MSI B75IA-E33, B75, Socket 1155, DDR3, mini ITX

Блок питания: ATX 430W Corsair CX 430 M, Active PFC, вентилятор 12 см, модульный, CP-9020058-EU, Retail
Дай вам бог у домашнего сервера загрузить такие проц и память хотя бы на 10%.
Когда как. Там пачка тестовых виртуальных машин с кучей всего. I2p, BTSync, owncloud, сервер minecraft и всякое разное. RAM в Linux отлично используется под кэш, процессор обычно на 15-25% загружен. Иногда больше, когда owncloud для клиента архив на пару гигабайт пакует. Я предпочитаю иметь запас. Core-i5 не сильно прожорливых без полной нагрузки.
Да, я странный врач)
Понятно. Для owncloud apache замените на nginx+php-fpm, как начнет тормозить. Очень помогает.
Попробую, хотя пока ничего так… Много танцев с бубном?
Спасибо, почитаю. А почему этот вариант не дефолт, раз производительнее?
С apache у пользователей меньше вопросов.
Не все ещё приучены к nginx+php-fpm.
Консервативность, обратная совместимость и т.д.
Позволю себе посоветовать свой, доработанный немного и использующий поддиректорию, а не поддомен:

owncloud.conf
location ~ ^/mnt/data/owncloud/ {
    internal;
    root /;
}

location ~ ^/tmp/oc-noclean/.+$ {
    internal;
    root /;
}

location ^~ /owncloud {
        root /usr/local;

        client_max_body_size 5G; # set max upload size
        fastcgi_buffers 256 4K;

        index index.php;

        error_page 403 = /owncloud/core/templates/403.php;
        error_page 404 = /owncloud/core/templates/404.php;

        location = /owncloud/robots.txt {
            allow all;
            log_not_found off;
            access_log off;
        }

        location ~ ^/owncloud/(data|config|\.ht|db_structure\.xml|README) {
                deny all;
        }

        rewrite ^/owncloud/go/(.+) /owncloud/public.php?service=shorty_relay&id=$1 last;

        rewrite ^/owncloud/caldav(.*)$ /owncloud/remote.php/caldav$1 redirect;
        rewrite ^/owncloud/carddav(.*)$ /owncloud/remote.php/carddav$1 redirect;
        rewrite ^/owncloud/webdav(.*)$ /owncloud/remote.php/webdav$1 redirect;

        rewrite ^/owncloud/.well-known/host-meta /owncloud/public.php?service=host-meta last;
        rewrite ^/owncloud/.well-known/host-meta.json /owncloud/public.php?service=host-meta-json last;

        rewrite ^/owncloud/.well-known/carddav /owncloud/remote.php/carddav/ redirect;
        rewrite ^/owncloud/.well-known/caldav /owncloud/remote.php/caldav/ redirect;

        rewrite ^(/owncloud/core/doc/[^\/]+/)$ $1/index.html;

        try_files $uri $uri/ =404;
        
        location ~ ^(/owncloud/remote\.php)(/webdav/.*)?$ {
                try_files $1 =404;

                gzip off; #Чтоб не стрипало e-tag
                include fastcgi_params;
                fastcgi_param SCRIPT_FILENAME $document_root$1;
                fastcgi_param PATH_INFO $2;
                fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                fastcgi_read_timeout 130s;
                fastcgi_pass    unix:/var/run/php-owncloud.socket;

        }

        location ~ ^(/owncloud/index.php)(/apps/documents/ajax/.*)?$ {

                try_files $1 =404;

                gzip off; #Чтоб работали документы
                include fastcgi_params;
                fastcgi_param SCRIPT_FILENAME $document_root$1;
                fastcgi_param PATH_INFO $2;
                fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                fastcgi_read_timeout 130s;
                fastcgi_pass    unix:/var/run/php-owncloud.socket;

        }

#       location ~ ^(.+?\.php)(/.*)?$ {
        location ~ ^(/owncloud/(\w+\.php|core/templates/40\d\.php|core/ajax/update.php|apps/files_encryption/files/error.php|apps/files/ajax/download.php))(/.*)?$ {
                try_files $1 =404;

                include fastcgi_params;
                fastcgi_param SCRIPT_FILENAME $document_root$1;
                fastcgi_param PATH_INFO $3;
                fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
                fastcgi_read_timeout 130s;
                fastcgi_pass    unix:/var/run/php-owncloud.socket;

        }
        location ~ \.php$ {
                deny all;
        }

        # Optional: set long EXPIRES header on static assets
        location ~* ^.+\.(jpg|jpeg|gif|bmp|ico|png|css|js|swf)$ {
                expires 30d;
                # Optional: Don't log access to assets
        #       access_log off;
        }
}



Привошу конфиг касающийся только owncloud'а. Из остальных настроек nginx, достойных упоминания, включен gzip.

Кусок php-fpm.conf:

[owncloud]
listen = /var/run/php-$pool.socket
listen.owner = nobody
listen.group = nginx
listen.mode = 0660
user = php-$pool
group = php-$pool
#вырезал настройки pm, так как они строго индивидуальны
request_terminate_timeout = 70

php_admin_value[upload_max_filesize] = 5G
php_admin_value[post_max_size] = 6G
php_admin_value[memory_limit] = 512M
php_admin_value[max_execution_time] = 60
#Это полезно настроить для безопасности, но не дошли руки до исследования нужных директорий
#php_admin_value[open_basedir] =
php_admin_value[upload_tmp_dir] = /mnt/data/owncloud.tmp
Какой он у вас… большой неочевидный :)
В принципе, главное что работает, хотя для начинающих я бы посоветовал более простой вариант.
Могу предположить, что в вашем конфиге каждая строчка написана «кровью».
Поэтому, не могли бы вы поделиться сакральным смыслом этих строк?
gzip off; #Чтоб не стрипало e-tag
gzip off; #Чтоб работали документы
fastcgi_param MOD_X_ACCEL_REDIRECT_ENABLED on;
nginx, когда gzip'ает, вырезает http-заголовок e-tag, от этого сходит с ума owncloud-client при синхронизации. Начинает рандомно бессмысленно повторно синхронизировать файлы. Я сам чуть с ума не сошел это отлаживая.

owncloud documents, появившиеся в шестой версии owncloud просто не работают, если содержимое запроса /owncloud/index.php/apps/documents/ajax/.* возвращается gzip'нутым.

Ну и третье — это прям из документации. Я просто не мог пройти мимо такой вкусняшки.
nginx, когда gzip'ает, вырезает http-заголовок e-tag
Начиная с 1.7.3 не вырезает.
nginx.org/ru/CHANGES.ru
У меня объёмы невелики. Друзьям раздал сколько кому нужно и рабочая группа небольшая.
Память вообще легко, а с процом да, сложнее, особенно если не гонять какие-то расчеты.
Нет, спасибо. Пусть симуляцию ядерных взрывов сами рассчитывают)
Если вы будете хранить информацию в неподконтрольных гуглу облаках — гуглу это может не понравится. Как прикажете улучшать качество поисковой выдачи(tm) если мы не сможем дотянуться до ваших файлов?!
А mail-сервера там нету?
Выше написали, что есть фронт-енд в виде веб-морды. А какой сервер — решать уже вам.
Имеется ввиду именно встроенного. Ну ок. Значит свой поднимать отдельно.
Так не linux-way комбайны пилить. Модульность это плюс.
Вы бы email Александра Борисовича Ковальчука получше замазали, раз уж вообще за это взялись.
Небольшой вопрос. А кто-то делал опыты по установки ownCloud именно в домашнем облаке? Под «облаком» я подразумеваю несколько физических машин. Ну, скажем, есть домашний сервер у меня и у моего друга. Я хочу установить ownCloud таким образом, чтобы для него оба компа выглядили как один и данные физически дублировались на обоих компах. И если один из них выйдет из строя, то все данные останутся на другом. Кто-то так пытался делать? А то иметь свой сервак с файлами и календариком это, конечно, хорошо, но не хочется держать это всё в одном месте…
Не пробовал, но по идее ничто не мешает вам поднять BTSync поверх файловой системы, на которой расположен owncloud. Это из простых решений. Либо в кошерном варианте распределенные файловые системы изначально. Owncloud на файловом уровне работает. Синхронизируйте ФС.
Спасибо за ответ. Надо будет попробовать. Просто интересно, насколько всё стабильно работает.
Бог его знает. Тыкать надо. Но не вижу критической проблемы. Если нужно просто холодный бэкап иметь, то хватит резервирования файловой системы. У меня поднята изолированная виртуальная машина KVM на 100 ГБ. Можно ее бэкапить или использовать распределенно штатными средствами того же ProxMox.
При таком подходе разумно резеврные копии хранить на отдельной машине (сервисе, переноске, облаке...), а именно этого я и хочу избежать :) Я и стараюсь сделать такую систему, которая работала бы как облако. Идея такая, что я заливаю фотки, они появляются только в моём аккаунте в ownCloud, но физически они хранятся на двух машинах: у меня и у моего друга. Его файлы и данные точно так же: хранятся физически и у него, и у меня. Если необходимо для него зашарить что-то, то ты просто открываешь ему доступ и файл даже копировать никуда не надо. Если на мой комп падает кирпич/сгорает в пожаре/конфискует НЛО, то я просто собираю другой комп, добавляю его в облако и каким-то удобным инструменом все данные снова попадают с компа моего товарища. Это я всё описал то, что хотелось бы иметь в самом идеальном варианте :) так что ownCloud очень интересный проект, нужно его попробовать. Я его год назад ставил, был очень корявым и глючным. Сейчас он выглядит намного лучше.
На самом деле даже в базовом варианте в случвае гибели сервера вы потеряете только базу данных. Сами файлы останутся в целостности у тех ПК, на которых клиент синхронизировался. А поднимать и перезаливать серверную часть придется заново.
Посмотрите в сторону KVM-контейнеров и ProxMox в режиме кластера. Тогда вы получите все, что хотели. Из неудобства — жирные контейнеры надо сразу отдавать на 100-300 ГБ. В контейнере — сервер с Owncloud.
Имхо, описание вашей виртуальной лаборатории может оказаться интересным. Может быть, напишете статью?
Может быть. Если вкратце, то ничего особого. Ввиду полного отсутствия профильного IT образования, приходится учить все самостоятельно по мануалам. Поэтому и поднимаю пачками машины и издеваюсь над ними, не переживая за сохранность. Особо удачные результаты идут в «продакшен» домашний. Я предпочитаю использовать изолированные контейнеры для отдельных сервисов, чтобы не натыкаться на грабли интерференции между ними. Особенно, когда речь идет о капризных веб-сервисах, чувствительных к конфигам Apache и тому подобным вещам. А так машины работают изолированно, окружение у каждого свое. Где-то Debian, где-то Ubuntu LTS. Миграция проще в плане KVM. Дома настроил, принес на работу и подключил. Удобно.
Проще всего rsync по крону тогда уж.
Кстати, что owncloud, что pyd.io умеют custom mounts — внешние файловые хранилища. Правда, насколько, я понял, они монтируются как отдельные виртуальные директории.
Спасибо. Я не специалист по распределенным системам. Тут лучше профессионалов спросить. Я лишь домашний личный кейс привел.
НЛО прилетело и опубликовало эту надпись здесь
Посмотрите на мой комментарий выше про кластер из ProxMox. А вообще я BTSync использую для репликации особо ценных данных. Спасло, когда я сжег одновременно все HDD и SSD на рабочей машине случайно.
1. Можно хранить залитые файлы в ecryptfs, а зашифрованные версии rsync'ить по крону на арендованный сервер.
2. Да делайте rsync раз в минуту, если позволяется инет. И суточные копии параллельно.
3. Ну это очевидно.
4. Суточные бэкапы параллельно с репликацией файлов. Можно чаще.
5. Еще один сервер к п.1 на другом континенте.
6. Репликация БД на другой сервер для уменьшения времени отсутствия облака
7. Хранение образа виртуалки с настроенным сервером приложения owncloud.
Парни, потерпите немного — скоро Ethereum и MaidSafe подоспеют.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории