Pull to refresh

Comments 23

Тонкие передёргивания, делающие статью забавой для казуалов, а не серьёзным постом. Например, предположение, что snmp испольузется для определения «через какой маршрут отправлять». Нет, snmp не используется маршрутизаторами для проверки соседей, а для перестроения маршрутов используются протоколы маршрутизации. SNMP же используется для фактического управления и считывания метрик системами мониторинга и персоналом.
Похоже первые марсиане станут фидошниками :)
со скоростью 3 картинки за ночь =)
DNS закэшировать и на Марсе, а насчет множества файлов страницы, так на Марсе все уже будут использовать HTTP2. И того, для прогрузки одной страницы — 1 запрос на Землю.
по моему у яндекс-карт есть локальный трафик в определенных городах
вот и на Марсе сделать локальный трафик, который все время будет синхронизироваться с Землей
отставание будет 25 минут. но это лучше чем 1,5-2 часа.
со временем там появятся свои сервисы, сайты, которые будут доступные с Земли
как в Китае есть свой тветер и фэйсбук

Эдак потребуется в итоге весь земной интернет перекачать на Марс.
К тому же, это потребует определённой сетевой инфраструктуры, доставить которую будет просто невероятно сложно и дорого. И даже если её туда доставить, всё это оборудование потребует для себя много электроэнергии. Мне кажется, эффективнее начать развитие марсианской инфраструктуры с решения более фундаментальных проблем, таких как производство на месте продуктов питания, электроэнергии, конструкционных материалов и так далее.
недавно на сайте была новость о новом протоколе для сайтов на основе torrent и/или mesh сетей
имея такие протоколы можно хоть на телефоне поднять веб сервер.
это сейчас 4 гига оперативной памяти и 8 ядер это круто.
когда люди доберутся до интернета на Марсе, кто его знает какие технологии, протоколы, телефоны появятся
Ещё есть идея оптимизировать траффик. Например последние новости отправляются в одностороннем порядке без запроса. Итого задержка составляет 12,5. Подписку на ресурсы сделать по таким же правилам.
Итого, общее время загрузки одной странички по существующей на сегодня схеме запросто может достичь полутора-двух часов. И это мы рассматриваем идеальный вариант, в котором ни один пакет не потерялся и не повредился, что на таких расстояниях маловероятно.

Вообще-то, человечество давно придумало прокси сервера.
Запрос отправляется на прокси, который в свою очередь собирает страничку с контентом и отправляет ее назад.
Очевидно, что в таком случае задержка будет сравнима со временем распространения сигнала.
Но человечество на этом не остановилось — оно придумало кеширующие прокси, которые кешируют контент.
Итак, размещаем один прокси на Земле, а второй, кеширующий на Марсе — и снижаем время загрузки отдельных страничек до нескольких миллисекунд. А если дополнить сегмент марсианской сети серверами CDN, то можно получить вполне отзывчивую сеть.

Итого, какой-то копирайтинг, а не техническая статья.
Поправьте меня, если я не прав. Для того, чтобы что-то получить хоть от самого сервера, хоть от прокси, я должен отправить соответствующий GET (ну или PUT, POST, если динамика какая-то) запрос. И по стандарту HTTP 1.1 один запрос — один файл. И даже если прокси соберёт всё, браузер просто не будет знать, что делать, без определённых доработок, которые учат браузер принимать весь пакет архивом и разбирать локально. По поводу кеша на Марсе — мысль верная, но тоже хорошо подумать надо. Как кеширующий прокси будет проверять, не изменился ли оригинал? Стоит ли делать это параллельно с запросом, независимо по планировщику, вообще не проверять, а принудительно держать копию какое-то время?

А про CDN я писал ближе к концу статьи. :)
Вы сейчас пытаетесь применить стандартные технологии там, где они нежизнеспособны.
Изначальный пример с DNS неудачен. Современные провайдеры предпочитают давать клиентам свой локальный DNS, не какой-то удаленный. Такой DNS тоже может кешировать запросы клиентов.
Если рассматривать HTTP, то нужно будет сильно изменить таймауты на удаленных серверах, чтобы он смог заработать. Принцип один запрос — один ответ, вполне возможно реализовать с учетом особенностей задержек. Доработка браузера и прокси — это не та проблема, которую стоит обсуждать.
Как кеширующий прокси будет проверять, не изменился ли оригинал?

Очевидно, что механизм не будет значительно отличаться от уже существующих. Будет поправка на время распространения сигнала в оба конца. Не весь контент в кеше будет актуален, не всё возможно закешировать, но это не отменяет того, что некоторые странички странички(которые оказались в кеше) будут открываться за несколько миллисекунд.
Я сейчас ничего не пытаюсь применить. Собственно, статья и была о том, где и почему современный вариант нежизнеспособен, и что делается, чтобы это исправить, с указанием уже существующих наработок.

Локальный DNS-то дают, но на практике сталкивался много раз со случаями, когда его использование только вредит, и приходилось вручную вбивать адрес Google Public DNS. Особенно радуют провайдеры, для которых TTL не писан, и в итоге после смены А записей клиенты нам строчили, что я вот, мол, поменял, а у меня вот, мол, вторые сутки не открывается, что нужно.

Плюс хорошо бы, чтобы веб-мастера ввели за правило хорошего тона отправлять заголовок с предполагаемым сроком жизни кеша, что сейчас делается далеко не всегда.
Fidonet
эхоконференции
файлэхи…
netmail

ну или UUCP и Usenet (и для бинарного контента)

+ бот на земле который скачивает wget'ом главную хабра и все ссылки с глубиной 2 например, пакует и кидает в группу юзнета техническую
другой бот на марсе это распаковыет. с авторизацией правда в данной реализации будут некоторые вопросы

Компаниям проще будет устанавливать локальные сервера и DNS. У Амазона, Azure, GCE, DigitalOcean и других появится зона «Марс».
Межпланетный интернет вполне возможен, но думаю что он будет оффлайновым — марсиане отправляют вечером запрос на список страниц, утром читают или смотрят то что скачалось. На мой взгляд, не так уж и плохо, учитывая масштабы ситуации, развивает терпение, иногда кажется что нас как-то избаловали почти-мгновенным доступом к любой информации.

В итоге будет Земной Интернет (Терранет?) и Марсианский Интернет (Марснет?), которые будут сообщаться друг с другом через оффлайновые загрузочно-кеширующие ноды.
ИМХО: только децентрализованные технологии способны «разрулить» такую ситуацию.
Какие «децентрализованные технологии»? Чем они помогут, если пинг больше часа? Только Store-and-Forward, только хардкор!
Судя по всему, проблему межплатнетной связи в Китае давно решили
Смотреть
image
Я всегда знал, что китайцы не с нашей планеты.
Sign up to leave a comment.