Pull to refresh
189
135.4
Никита Цаплин @ntsaplin

2.3.5 Математическое и программное обеспечение

Send message

Горючку потратили. А тракторы да, одноразовые.

Испытывали две парашютные системы:
— Арбалет;
— Спирмт-СП.

Обе системы спец назначения.

Проверяли, пару раз даже дошли до коннекта, но дальше не пошло. Не волнуйтесь, у них ещё много строчек инициализации осталось. Поэтому и был план Б с модулированием сообщения с координатами.

Установление мирового рекорда прыжка на Северный полюс из стратосферы было попутной целью, а основная цель - доставка и эксперименты с мини-ЦОД, вот тут всё расписано.

И это, уважаемые знатоки, правильный ответ!

В этом и будет заключаться часть эксперимента. В качестве основной мы планируем использовать всенаправленную антенну, так как, с одной стороны, на Северном Полюсе более благоприятная радиообстановка и меньше шумов, с другой стороны, тот факт, что под ногами нет земли, а только лед и океан, будут усугублять ситуацию, и поэтому мы предусмотрели резервный вариант.

Если всенаправленная антенна не справится, будем использовать узконаправленную (та, что на фото) со штатива. Наведение будем осуществлять с помощью программного обеспечения Orbitron, про которое я рассказывал в одном из комментариев. С учетом того, что угол диаграммы направленности выбранной антенны составляет 30 градусов, ручная настройка должна дать результаты даже при определенной погрешности в расчетах. От подвижных вариантов мы отказались из-за ненадежности в условиях сильных морозов.

А им именно поначалу можно пренебречь.

Хватает часа на 3, потому что задача комплекта – обеспечить обогрев не только на время прыжка, но и для ожидания группы подбора эвакуации.

Мы же отчасти все-таки виндоуз-хостинг.

Тут все же не как в спутнике. Сервер выступает в роли терминала для связи со спутником (то есть, он является мини-ЦУПом). Поэтому необходимо обеспечить совместимость серверной части с софтом, используемым для этих целей. Например широко распространенным ПО Orbitron для отслеживания спутников, зон радиовидимости, автоматических расчетов эффекта Доплера и многого другого. Помимо этого для работы со спутниками используется еще ряд софта, как проприетарного, так и коммерческого, основанного на Windows.

В случае с нашим арктическим ЦОД речь идёт о дрейфующей льдине, и сделать там дата-центр с подходящей терморегуляцией непросто. Потому проект будет развернут на базе защищенного оборудования Dell, такие системы нередко используют военные или добывающие компании по всему миру.

Клиентских виртуалок, как вы правильно догадались, не будет – проект сугубо исследовательский. Наш сервер будет агрегировать различную телеметрию, обрабатывать данные на месте, а затем отправлять их на спутник. Со спутника информация будет уходить на «большую землю». Работа с данными на месте позволит сэкономить на связи – ведь передается уже обработанная информация. К тому же, если использовать альтернативный (в нашем случае – резервный) канал в виде системы Iridium, получится еще и сэкономить.

Мы будем отслеживать точность полученных данных и, возможно, даже потестим работу всей системы в условиях северных сияний – они, как известно, тоже могут повлиять на качество сигнала. Часть данных будет доступна в незашифрованном виде на сайте проекта. Там же есть подробная инструкция о том, как считать и получить эту информацию.

Выводов о проекте заранее мы делать не можем, но обязательно поделимся ими здесь, на Хабре. Уверены, что результаты исследования пригодятся в освоении региона в будущем.

Мы терпели! Чуть не выложили вчера, но вовремя догадались.

Здесь не совсем так.

Из шести описанных компаний мы продолжаем работать только с двумя — швейцарским дата-центром и компанией Джет.

По зарубежным дата-центрам, к сожалению, это довольно распространенная практика поддержки, тут уходить просто некуда, так что воспринимайте критику в их адрес — как крик души.

Компания Джет является одной из двух реально кредитующих краудфайндинговых платформ в нашей стране, заменить их на кого-то невозможно. Критика в их адрес — попытка улучшения качества их работы с заемщиками.

По банку. Около 2/3 клиентов юрлиц платят, повторяя предыдущий платеж, не обращая внимание на огромное предупреждение о смене реквизитов. Чтобы клиенты перестали платить по прежним реквизитам, по нашему предыдущему опыту, требуется до полугода. Соответственно, значительная часть клиентов продолжает платить по старым реквизитам, которые 29 декабря блокируются до 9 января.
Предложенные банком новые реквизиты тоже не работают до 9 января, деньги автоматически отправляются отправителю, который также далеко не сразу это выясняет.

В итоге клиентам были предложены реквизиты в другом банке. Но часть платежей зависли на праздники, и услуги мы оказывали в кредит.

Вопрос — зачем нужно было осуществлять переход именно 29 декабря, когда связаться с бухгалтерией контрагентов невозможно, остается открытым.

Я пытался выиграть 2 приза, сначала авторизовавшись через Хабр, а потом через Telegram. Шутка. Но задвоение возможно действительно из-за того, что использовал рпзличные способы авторизации для двух сессий.

Проверять никак не будут, скорее всего. Но если нужно будет достать и показать, а у вас нет — после штрафа могут и отобрать лицензию.

Смотрите, нам удобнее считать на ширину канала, потому что всё масштабируется. Есть ёмкость, есть фактическое потребление. Фактическое потребление обычно считается в объёме, а не канале, но для расчёта железа на год нам практичнее считать в утилизации канала. На каждый 1 Гбит/с утилизации приходиться 60 Тб хранилища. То есть зная утилизацию каналов группы серверов, мы прогнозируем объём хранения.

Верхняя оценка основана на опыте из различных тестов и исследований и на информации из открытого доступа.

Обычно весь NetFlow составляет от 0,5% до 1,5% от общего объема трафика.

Взята верхняя оценку из-за отсутствия сэмплирования в законе. Хранения полного объема данных нужно из-за постоянных атак с обеих сторон. А еще из-за того, что хостеры, как правило, платят за трафик постфактум, с учетом превышения. То есть если номинально гигабит, а реально больше, никто не режет.

То есть в расчетах мы исходим из худшего сценария.

Дальше математика:
1 * 60 * 60 * 24 * 365 = 31 536 000 гибит в год или 3942 Тб

1,5 % от них примерно 60 Тб

Далеко не все хостеры имеют свои маршрутизаторы в каждой точке. Обычно они ставят сервер в предоставленных ДЦ (за что им и платят). В таких случаях у хостеров может может не быть доступа к управлению и настройке NetFlow (или других инструментов для мониторинга трафика).

Можно, создаёте поддомен и прописываете А-запись. "@" жёстко прописана только для корня.

Нет, у меня нет подробностей. В Европе просто есть аналогичные типы оборудования, как ТСПУ у нас, точно так же приходят запросы от полиции. Просто в каждой стране по-разному.

Интернет в этом дата-центре предоставлен как местными, так и крупнейшими международными провайдерами. Связность сети внутри региона, к сожалению, действительно оставляет желать лучшего.

Проблема это довольно непростая, потому что затрагивает не всех, и сложно выявить закономерность, у кого она возникает. Операторы над улучшением связности работают, мы по-возможности разбираемся с каждым конкретным случаем. Пришлите трассировку в лс, попробуем посмотреть, что там такое.

1
23 ...

Information

Rating
22-nd
Location
Москва, Москва и Московская обл., Россия
Works in
Date of birth
Registered
Activity