Как стать автором
Обновить

Комментарии 34

Прекрасно.

Теперь ему бы ещё распаковывать уметь.
Не понял. Сначала предлагается скачать весь архив не запакованный, потом потратить циклы процессора на упаковку, и скачать то, что уже скачано но упаковано? Кроме как сайты где распространяются бесплатные иконки не вижу смысла…
Допустим, вы дизайнер иконок, на странице уже загружены иконки, но выкачивать их по одной, нет ни единого желания, да и пересобирать архив на сервере если добавиться одна или несколько иконок, тоже как то не очень хочется. Вот тут и пригодиться данный инструмент, даже можно сделать опции по выбору\исключению нужных иконок.
> Кроме как сайты где распространяются бесплатные иконки не вижу смысла…
Возможности применения более широки, чем вы думаете. Любой контент, генерируемый на клиенте можно собрать в архив, не отправляя его на сервер. Примеров можно привести массу, первое, что пришло в голову — это упаковка примера с JsFiddle в архив, используя API.
Еще один: вы смотрите какие-нибудь картинки по очереди и отмечаете те, которые понравились и которые хотите скачать.
И еще: сборка расширений для браузеров прямо в браузере.
И еще один: упаковка песен на сайте, который использует чужое API.
Расширение до хрома VK musicer вроде как раз использует эту штуку для скачки музыки… только немного навороченую…
Ну я встречал такое на книжных сайтах — на либрусеке и флибусте.
Собираем несколько произведений в один архив.
Удобная штука.
Так, что бы собрать архив надо, чтобы данные были на клиенте.
Ну одно дело тратить процессорное время сервера на перепаковку архивов (само собой все книги хранятся в архивах) и совсем другое — возложить это на клиентскую машину.
Ну так файлы то уже скачаны. Пусть уж отдельно каждый фаил скачивается.
НЛО прилетело и опубликовало эту надпись здесь
Тогда качайте файлы, тратьте процессороное время на архивирование, сохраняйте архив и разархивируйте, то что уже было таким пару секунд назад.
По вашему — проще 1000 раз отдать 10 файлов клиенту, где они будут собраны в архив, чем собрать архив на сервере, сохранить и отдать этот архив 100 раз. Сложность работы на порядок меньше.
Нет, по моему — проще 1000 раз отдать 10 файлов клиенту, чем 100 раз распаковывать 10 архивов и упаковывать их в 1.
Пользователь сам выбирает набор файлов для архива.
Хранить все варианты? Даже для 10 файлов это даст оверхед в сотни тысяч раз (сумма по k от 2 до 10 сочетаний k из 10).
зашел на сайт, нажал Run, opera (12) выдала

Чета я очканул сохранять такой файл )
Ого! 3 экзабайта! Это помом больше всего содержимого инета)
Скачать Интернет БЕСПЛАТНО! без регистраций [x]
Может, это просто файл бэкапа… Админа всея интернета.))
Для продолжения вставьте другую галактику.
Да, тоже удивился:

7 149 449 60,0 GB (767 666 271 050 269 039 bytes)
Заходил с радостным чувством того, что «вот мне и подвернулась альтернатива swf-файлу для игрушек на HTML5». Реальность оказалась не такой радужной(
Мне понравилось на их сайте пункт зачем:
"… вместо траты тактов сервера и пропускной способности канала..."

Я почему-то всегда думал, что экономия канала и нагрузка на сервер употребляется с «или».
О Downloadify почему не упомянули?
Можно еще добавить в функцию список удаленных файлов, которые надо скачать с сервера и запаковать, чтобы не писать zip.add(«Hello.txt», «Hello World\n»);
а можно «скачать зип и ДОБАВИТЬ к нему сгенерированый js контент»?
Chromium 15
Имя загружаемого файла — «загруженное». Да, именно так, на русском и без расширения =)
Подтверждаю.
Архив создается с именем папки, в котором временно хранятся файлы, которые будут запакованы. У вас MUI русский, следовательно, имя архива именно такое.
Opera 11 build 1150 предложила скачать:
2198785280,0 ГБ (2 360 927 820 210 766 191 байт)
скачалo default.zip на 367 байт с текстом и гифкой в папке

Может это еще соревнование — кому больше даст интернетов скачать?

ЗЫЖ мне кажется или оно целиком GET'ом передается? Гугл подсказывает что формального ограничения на длину URL нет, но здравый смысл еще никто не отнимал.
скорее всего переменная размера при получении таким образом base64 mime не инициализированная оставалась, потому у всех такие числа.
если бы прошел реальный GET запрос, то переменная размера была бы инициализирована и показала бы нормальный размер. разработчикам оперы нужно предусмотреть что в случаи получение base64, взять число байт и умножить 3/4.
Не умеет работать с кириллицей в названии файлов (архив становится битым). Лечится транслитерацией.
тестировал в хроме отдылся архив без расширения — это огромный минус, обычный юзер даже не поймет что делать, а писать инструкцию типо переименуйте архив в *.zip это извините не круто для сайта, а также для ie писать костыль через сервер, так что я бы отнес этот скрипт к разделу — «прикольно но пока не юзабельно»
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Изменить настройки темы

Истории