Pull to refresh

Comments 52

Интересная работа. А какова скорость загрузки/выгрузки файла из такого хранилища, например образ диска?
реально 200 килобайт в секунду независимо от количества скачиваемых одновременно файлов, все упирается в канал
разработка интересная, однако гугл не дурак и может просто навсегда запретить вам пользоваться ихними серверами. отключить ваши реальные аккаунты и тд и тп. опасная штука…
Для этого сделано резервирование на yandex.disk в виде 5 гигабайтых архивов :)
обидно что к яндекс диску нельзя поключится через smb. было бы ну оочень удобно.
я стараюсь использовать гугл аккуратно и выкачивать оттуда файлы только если их нет в кэше системы. нагрузка на сервера гугла минимальная. система предназначена не для реалтайм выгрузки а для длительного бесплатного хранения файлов.
а у меня для бекапа отдельный винт, для критического бекапа еще один который подключается только тогда когда надо обновится бекапы (раз в пару месяцев)

каждому свое :)
Проблема в том, что мне нужно чтобы файлы были доступны из сети по нормальному каналу, дома держать тяжело, а в инете дорого.
В настоящий момент в мои планы входит переписывание системы под хранения на любом источнике, в том числе на яндексе итд итп. с соответствующим резервированием на другом источнике. т.е универсальная система хранения чанков.
оно то конечно хорошо, однако это надо тратить свой канал. все таки лично я буду надеяться и ждать Gdrive от гугла (не его подобие). там будет и резервирование и тд и тп. и знаю гугл будет не мало места. и я даже им платить за это буду если надо будет:)
к сожалению систему хочется иметь сейчас, а не тогда, когда гугл ее создаст. Сам готов платить, если мне обеспечат возможность длительного хранения моих гигабайтов за разумные деньги. с возможностью в любой момент по ссылке скачать этот файл без всяких каптч. Но, думаю, это мечты…
спасибо, почитаю
за 300 гигабайт 45 долларов только за хранение, + куча бабок за траффик. хочется что-нибудь более лимитированное но доступное, скажем 300 гигабайт за 30 баксов + безлимитное скачивание 10 мегабит, например. ибо совершенно не хочется планировать дополнительные расходы на трафик.
про кучу бабок за трафик поподробнее… там дикие копейки
Как я уже сказал, я не хочу платить по 45 баксов за хранение файлов + 50 баксов за загрузку собственных файлов обратно (300 гиг), я хочу фиксированную стоимость с лимитированным каналом. Мне так реально удобней.
судя по описанию не для всех ;)
Пару недель назад я тож обламывался
В Google App Engine уже появился неанонсированный тип данных BlobKey, пока еще не к чему не привязанный, но будет «привязан» к blob-storage, он же как я понимаю GDrive. Так что свершение ваших мечт как я понимаю не за горами.
Пока в GAE HTTP Response size 10MB любой сторейдж не имеет никакого смысла.
Это будет отдельный сервис. Прогоняться данные будут не через «сервера» AppEngine, в этом я уверен. И этот ключ похоже — ссылка на внешнее хранилище, эти данные не будут храниться в пространстве AppEngine. А на обычный ответ 10 метров — более чем достаточно.
Если это будет как S3 и они переплюнут амазон по стоимости, то это, конечно, будет супер. Подождем, я читал, что это у них приоритетная задача.
а еще, если разбить все файлы на куски по 140 байт, их можно хранить в твиттере. распределенно и с резервированием.

вообщем, по-моему весьма странный способ использовать почту.
когда-то давно, лет пять назад, когда интернет еще стоил очень дорого, я написал скрипт, который через форум интернет провайдера (форум был доступен снаружи) делал SSH тоннель. т.е. сервер с наружи устанавливал соединение с ssh сервером и передавал данные через страничку сообщений форума в base64 кодировке, программа на компе, скачивала эти данные и выдавала в сокет. в обратную сторону тоннель работал на прямую. После чего putty устанавливал соединение через этот тоннель и запускал SOCKS5.

Чтотолько человек не сделает, чтобы получить то, что он хочет.
А страницы по е-мейлу? Когда провайдер дает ящик с бесплатным трафиком.
Да, код было бы круто. Даешь OpenSource!!!
я сейчас думаю над тем, чтобы открыть код на гугл коде, но что-то мне подсказывает, что это обернется реальным баном системы…
Разместить на сервисе код обхода его защит. Смахивает на «свехнаглость» :)
была такая серия анекдотов
Откройте его на sourceforge. Или на мыло страждущим.
Достаточно будет общее обьяснение и возможные проблемы, например те, с которыми столкнулись Вы. Я бы с удовольствием почитал! Хотя в общем и так понятно как это работатет. Но, уверен, при разработке были препятствия.
На самом деле самое главное препятствие это, то что с 2006 года гугл не один раз менял интерфейс. Последнее изменение в августе этого года, установка https по умолчанию, породило какую-то странную проблему с авторизацией + после этого изменения, перестала работать загрузка больших файлов по https через curl (соединение периодически разрывается). Почему это происходит, пока так до сих пор и не разобрался. За три года пришлось устранить несколько таких мелких проблем связанных с изменением gmail. Сейчас очень сильно помогает плагин FireBug, сразу видно что шлет сервер, какой ответ получает, эмуляцию можно сделать 100%.
так ты html парсил!

а нельзя было просто по smtp/pop3 или imap? уж эти-то протоколы редко меняются :)
я использовал прямые ссылки на аттачи, это надежней
>>к платным сервисам я отношусь скептически
То есть вы больше доверяете бесплатным сервисам, чем платным? Чем это вызвано?
Я просмотрел множество платных сервисов, и ни один из них не удовлетворил меня по стоимости хранения на гигабайт информации и выкачивания ее обратно. Слишком дорого для личного использования получается.
UFO just landed and posted this here
1. точно сказать не могу, установлено опытным путем, если залить 700 мегабайт на почту быстро, почта блокируется на время от 12 до 24 часов
2. Конечно не привязаны, иначе как бы работали люди с DHCP :)
UFO just landed and posted this here
это очень странно ибо у меня тоже Google apps for domain (только им и пользуюсь) и динамический IP, все рабоает как часы. Галочку ставите «помнить меня»?
UFO just landed and posted this here
у меня новый адрес практически каждый день меняется и все работает, правда раз в несколько дней тоже отваливается.
Microsoft SkyDrive с его 25гб религия не позволяет использовать? Конечно пока только через веб-морду (АПИ обещали, но пока нету), но вы по крайней мере не нарушаете ничего.
эту службу не видел, иначе бы глянул, а что у нее с лимитами на загрузку этих 25 гигабайт? Ограничения какие? Я так понимаю скриптом я оттуда скачать не могу? Честно говоря не знаю как устроена авторизация в майкрософт, надо разбираться, да и что-то не очень им доверяю.
Я детально не разбирался, пока только веб-морда есть. Если ее расковырять, наверняка можно будет научить скрипт утягивать файлы. В перспективе они обещают API нормальный, чтобы можно было писать всякие плагины и прослойки.
Авторизация у MS — Windows Live Account уже повсеместно, с ним много всего написано — сложностей не должно быть много.

Ну раз не доверяете МС — тут уж дело ваше, насильно мил не будешь.

PS Мне пока хватает Live Mesh синхронизации — крутится само, 5гигов места (из того же скайдрайва), шаринг и удобные настройки- что еще нужно для мелких задач =). Но это уже другая тема. Ах да, это тоже от «империи зла» ;)
вобщем надо ждать пока технология устаканится, ибо мне сейчас резон переходить только если будет где гигов 300 хранить, но к сожалению тот же amazon S3 за это хочет 45 баксов без учета трафика. А с трафиком вообще разорится можно
Видел аналогичное в бородатые года для распространения фильмов. Когда не было Рапидшар и еже с ними файл-хостингов.

«Раскачивался» ящик на мейл.ру путем отправления себе больших файлов. Когда свободного места становилось меньше 100 мб можно было увеличить объем ящика. Пользователи устанавливали программу, скачивали что то вроде торрент-файла, в котором было зашифрованы мыла и пароли на которых лежал фильм. Так и жили.

Идея здравая.

Из пожеланий — не делать привязку к конкретному почтовику. Добавить настройки как в почтовых клиентах — ПОП, ИМАП сервера, размер ящика, размер вложения. Потом грузишь список логин; паролей и вперед!

Удачи!
ну на самом деле этот проект и разрабатывался когда нормальных хостингов еще не было, а то что было было неудобно (каптча или еще какая нибудь гадость) Сейчас есть из чего выбрать, но бюджетных вариантов хранить и большие объемы информации с возможностью скачивать по ссылке с сервера нет до сих пор. Amazon S3 хорошее решение, но дорогое. Все остальное только через хостинги.
кстати, а рапидшару рассматривал? там платный аккаунт стоит около 50 евро в год, скачивать можно до 25 ГБ за пять дней, размер файла до 200 мб. скачивание по прямым ссылкам, никакой капчти, файлы не удаляют совсем, скорость ограничена входящим каналом (у меня 6 мегабит/сек, так 6 мегабит/сек и качает), можно делать папки
Там еще ограничение на общее количество файлов имеется: «as long as the data saved for a user does not exceed the total amount of 25 gigabytes», мне нужно гигабайт 300.
Sign up to leave a comment.

Articles