Pull to refresh

Comments 22

Тэги отличные.
Вы скажите, как вам кажется, есть ли предел у вашего сжатия?

К полученному «архиву» применяем алгоритм повторно пока не надоест, предела нет.
Вот только при извлечении, вместо первоначальных данных, получаем два идентичных архива…
UFO just landed and posted this here
Потому что по существу построение для сферы, которая разбивается на 4 части, а затем из каждых двух собирается новая сфера. Шар это просто концентрические сферы + центр (т.е. 5 часть это одна точка).
Господи, думал будет интересное математическое чтиво из области теории информации… но как только автор приплёл теорию большого взрыва и квантовую спутанность… стал понятен весь уровень дилетантства и непонимания текущих базовых теорий, например стандартной модели… испытываю чувство стыда за автора
Чтобы воспользоваться данным парадоксом для сжатия информации на серверах для начала надо чтобы на серверах хранилось бесконечное количество информации на бесконечном носителе данных. Дальнейшее сжатие тривиально.
Боюсь, что даже в таком случае не все тривиально, хотя… тогда да, половину серверов можно просто выкинуть.
Зачем выкидывать!? Можно же разрезать их на 5 частей и…
Что-то вы напутали. Так у вас только «разжатие» тривиально получится, т.к. если у нас хранится бесконечное количество данных, то для адресации хотя-бы одного байта вам понадобится адрес бесконечной длинны ;)
UFO just landed and posted this here
Ну если придумать какую-нибудь хитрую форму кодирования адреса, чтобы можно было понять какой сам адрес длинны (это не так тривиально как кажется для потенцеально бесконечной длинны самого адреса), то тогда конечно каждый конкретный адрес можно закодировать конечной длинной. Но в таком случае это не сильно будет по эффективности отличаться от кода Хаффмана. Но в общем случае длинна адреса все равно бесконечна, т.к. длинна адреса — это логарифм от количества данных.
Есть ещё более эффективный способ сжатия информации: хеширование. Бёрете гигабайт информации, перегоняете его в MD5 и получаете сжатие в миллионы раз.
Правда, потом надо подумать, как из сжатых данных получить исходные, но это так, мелочи.
Правда, потом надо подумать, как из сжатых данных получить исходные, но это так, мелочи.

Очень просто: генерите случайный гигабайт информации, считаете хэш, сравниваете. Намылить, смыть, повторить.

Тогда эффективнее хранить 2-3 хэша от каждого массива информации, вычисленных по разным алгоритмам. Больше вероятность найти именно исходный массив информации из хэшей.

Нейросеть, специально обученная.
Сарказм и отсылка к ИНС "восстановливающим" фотографии из пиктограмм 16х16 до hd разрешения.

Операция умножения и деления? :-)
Ну с одинаковыми абстрактными объектами прокатит, с разными нет. В реальном мире и 1+1 не всегда можно :-)
Можно ещё вспомнить «Вавилонскую библиотеку» Борхеса.
Большой взрыв, квантовая запутанность, корпорациям не выгодно.
одно и тоже каждый раз у них.
/вздох/ Занимайтесь лучше менторством в колсантинге для коучинга. Теория множеств пока не для вас. Без обид.
Что-то весна в этом году ранняя — февраль только, а на хабре уже обострения начались.
Sign up to leave a comment.

Articles