Pull to refresh

Comments 43

Зомби-ботнеты тихо посмеиваются в сторонке.
Skynet лишь улыбнулся :)
UFO just landed and posted this here
Как-то нет желания предоставлять свой планшет для каких-то чужих вычислений, пусть и очень важных.
А подтянуть ресурсы с вытяжки, счетчика газа и автоматизированных дверей? ;)
Мощность задач тоже будет меняться.
Возможно, что бы собрать из «тумана» мощность для просмотра фильма в 1920000х1080000x600px4D Вам сначала надо будет раздавать мощность своего планшета пару суток:)
всегда троллил своего хорошего друга (фаната HD), спрашивая, интереснее ли фильмы в HD чем в обычном PAL? ;) ИМХО качество видео уже достигло достаточного уровня. Теперь это чистый маркетинг — быстрее, сильнее, выше. Если же о «тумане», то я вижу расшаривание универсальных ресурсов, не заточеных под какую-то задачу.
а если за это будут платить?
А если в обмен на это Вы получите пропорциональный вкладу доступ к огромным ресурсам всего «тумана» на какое-то время?
Как торентовые отношения с рейтингом, может и пойдут. Но кто будет контролировать туман? что именно будет распределять вычислительные задачи и собирать их потом в результат? насколько я понимаю децентрализация сейчас в плане алгоритмов не очень развита. Один из немногих примеров биткойн, но и у него есть уязвимости насколько я понимаю.
Ну раздача вычислительной мощности за рейтинг и потом использование по рейтингу же мощностей чужих — уже есть и сейчас
Что же, идея витает в воздухе
Это давно в голове — нейроны и синапсы. :-)
Подобная идея у многих фантастов присутствует.
Вообще, сейчас все упирается в доступность широкополосных линий связи и наличие (вернее, наличие отсутствия) ёмких и малогабаритных источников энергии, способных автономно проработать эти пару лет, либо регулярно и быстро возобновлять энергозапас.

> Питание «капля» получает от маленькой батарейки, которой тем не менее хватит на пару лет работы с регулярными перерывами на сон (picoPower от Atmel рулит)

Вы не учли, что пока для обеспечения достаточных вычислительных ресурсов и ~100% онлайн режима ячейки требуется достаточно много энергии. Так что ждем-с…
Мне всегда казалось, что передача данных требует на много больше энергии по сравнению с ее приемом. Да аккамулятора телефона при ненулевой загрузке процессора на долго не хватит.
Не совсем так, если брать маломощные short-range беспроводные сети (802.15.4, например), то мощность потребления при передаче всего раза в полтора-два больше чем при приеме. Для обеспечения динамического диапазона 120dB нужна мощность и на прием тоже.
Прежде чем фантазировать на эти темы — ознакомьтесь с произведениями Вернона Винджа:
«Пламя над бездной»
«Глубина в небе»
«Затерянные в реальном времени»
Очень помогает понять пределы человеческой мысли.
Вот как раз про Винджа хотел написать, когда статью прочитал. Очень в точку.
Оно у многих. У Винджа, у Крайтона, у Лема, тысячи их. Сначала пишут про туманные вычисления, потом сразу про серую пыль.
«Значит, Техно-Центр уязвим. Где же он находится? Где прячется
Техно-Центр?»
[Я уже говорил тебе]
«Скажи снова, Уммон».
[Мы населяем
между-промежутки
сшивающие малые сингулярности
в подобие кристаллической решетки/
для накопления нашей памяти и
создания иллюзий
о нас
для нас]
«Сингулярности! — кричу я. — Между-промежутки! Боже милостивый,
Уммон! Значит, Техно-Центр расположен в нуль-сети!»
[Конечно\\Где же еще]
«В самой нуль-Т, в сингулярных транспортных каналах! То есть Сеть
служит для ИскИнов гигантским компьютером?»
[Нет]
[Компьютером являются инфосферы\\
Каждый раз когда человек
подключается к инфосфере
его нейроны
оказываются у нас и используются
на наши собственные нужды\\
Двести миллиардов мозгов/
каждый со своими миллиардами
нейронов/
вполне достаточно
для вычислений]
«Значит, инфосфера не более чем приспособление для использования нас
в качестве вашего компьютера, а сам Техно-Центр находится в нуль-сети…
между порталами!»

(с) Падение Гипериона, Д. Симмонс.
Еще пару проблемок:
  • Проблема интеграции пока что гораздо массивнее, чем возможная польза от объединения капель в поле (и такое положение дел еще долго будет сохраняться), нет общих технологий, чтобы среда стала удобна для прилложений, однородной по предоставляемому API. Сейчас, чтобы сделать какое-то мало мальски кроссплатформенное мобильное приложение, нужно поддерживать iOS, Android, Windows Phone, Symbian, WebOS… это дорого, отличия существенные, разные языки, разные среды исполнения, разное API, разные коммуникационные возможности.
  • Нет адекватной потребности в вычислениях, сейчас даже стационарные компьютеры и ноутбуки, кодключенные постоянно к интернету обладая гораздо большей универсальностью, нежели капли, простаивают без дела, даже если за ними работают пользователи, то в течении 95% времени работы они потребляют 5-10% ресурсов процессора и памяти, остальное ожидает, чтобы пригодиться в моменты высокой нагрузки. Вычисления нужны физикам, социологам, математикам, астрономам, а ни кто их не пустит на свои капли, чтобы у них батарейки садить, ресурс выедать и безопасностью жертвовать.
  • Во всех облачных вычислениях совершенно отсутствует прикладной уровень, т.е. из трех слоев (инфраструктура, платформа, приложения) сейчас мы пользуемся только двумя, облачной инфраструктурой (каналы связи, облачные хранилища, вычислительные мощности) и облачными платформами (виртуальные машины с их операционными системами), а вот прикладной слой мало насыщен, нет бизнес-приложений, массовых веб-сервисов мало, а те что есть, по большей части общественно-развлекательного толка. Обычные же программы, запущенные внутри виртуальной машины совсем не становятся облачными от этого.
  • Войны стандартов, как результат политики несовместимости, которую ведут все производители устройств. Борясь за рынок, все придумывают огромное множество своих внутренних стандартов, протоколов, технологий. Это уж ни как не способствует появлению в тумане стабильных островков.
Адекватная потребность есть, наличие суперкомпьютеров и распределенных вычислений тому подтверждение. А вот способа это все универсально объединять действительно нет.

Сделает государство 16% налог на вычислительную мощность — и усё. Общество ведь заинтересовано в ее использовании для общественного блага. Интересно, где процесс начнется.
Ну если так посмотреть, то если очень много людей будут пользоваться вашим «туманом» для вычислений, то в конце-концов на каждого собственных вычислительных мощностей придется меньше, чем он в среднем обладает. Так что я думаю вряд ли.
Не думаю, что так будет.
Вам в пример — мультиплексация каналов в интернет. Статистически — можно посадить на канал в 100 мбит 20 человек — и все будут получать 100 мбит, т.к. каждый задействует канал в среднем процентов на 5 — ведь бОльшую часть времени ваш канал простаивает.
Конечно на 20 людях это может и не сработать (если попадется напрмер там пара торрентофилов) но на выборке, например, в 200 000 человек — в среднем так примерно и будет.
То же и здесь — ну не будет никто 100% времени потреблять ресурсы. И на большой выборке пики одних будут накадываться на простои других и график загрузки по туману будет более-менее ровный
Хе-хе! А как же встреча нового 2022 года? Когда все разом начнут поздравлять друг друга.
Встреча Нового года целые сутки идет. Как раз распределенная система здесь плюсы имеет.
В принципе на достаточно длинных промежутках времени так и есть. Но вот при сужении масштаба процент стабильности такой системы будет уменьшаться. (про НГ ниже — один из таких примеров)
Как вариант, можно хранить в закрытом доступе определенное количество дополнительных ресурсов, и отворачивать вентиль как раз в такие моменты.
Также, я думаю, не стоит забывать, что грубо 10 приведенных вами % торрентофилов будут примерно теми же при любом количестве.
В общем спорных моментов многовато. Во всяком случае, я максимум рассчитываю на такой подарок к старости(мне 19), но уж точно не через ~10 лет, как заметил автор. Хотя я позиционирую себя здравым оптимистом, но не моим мнение единым, так что время покажет.
До тех пор, пока опсосы будут драть такие бабки за мобильный интернет — никакой речи о тумане и быть не может.
Другими словами — нужно выбирать связь как приоритетное направление развития. (Не нужно зацикливаться на больших городах, там все более-менее, а, например, в моем городе всего один провайдер предоставляет услуги проводного интернета, и тот дай бог чтобы нормально работал. С беспроводным интернетом вообще пичаль.)
А еще есть проблема с алгоритмами. Всякие разные процессоропроизводительные конторы уже почти десяток лет пытаются приучить программистов к многопоточности и многоядерным процессорам, а с каплями то все будет еще веселее…
Так и будет. Вы все верно мыслите.
Облако-дождь-туман.
Алгоритмы, стандарты, архитектурные решения подтянутся.
Не так много существующих задач можно так агрессивно распараллелить. Т.е. в таком «тумане» нуждается только небольшой класс задач, остальным не нужны «капли», им нужны более крупные узлы. Это раз.

А теперь два — представьте, какой мощностью должен обладать узел, распределяющий задачи и собирающий ответы, сколько времени потребуется на передачу данных, синхронизацию вычислений и т.д. Чем менее мощными будут капли — тем сложнее собрать их во что-то адекватное по своей вычислительной мощности.
> Т.е. в таком «тумане» нуждается только небольшой класс задач, остальным не нужны «капли», им нужны более крупные узлы.

Всю эту сеть можно использовать не только как распределенную систему вычислений, но и как высокоскоростное отказоустойчивое средство обеспечения связи в любой точке.
Не могли бы вы раскрыть свою мысль? Ведь мощность таких капель очень низка, и надо прокладывать маршрут пакетов, исходя из загруженности конкретной капли. Пропускная способность и отказоустойчивость такой сети напрямую будет зависеть от количества капель, которое никто не может гарантировать. Ведь владельцы таких капель могут отключать их от «тумана» в различных целях (экономия батареи, невозможность владельцу пользоваться своим устройством, находящимся под такой нагрузкой и т.д.)

Поэтому хотелось бы детальнее понять, как вы видите возможность существования такой сети.
Я исходил из предпосылки, что узлов достаточно много и плотность их расположения достаточно высока (т.е. каждый узел — это некий автономный аппарат (как и сказано в исходном посте), а не чей-то гаджет (которые предположительно рассматриваются только как терминалы доступа к этой сети)).
Т.е. основные тезисы таковы:

— Узлы распределены в пространстве, предположим, города, достаточно равномерно (с учетом статистики нагрузки распределение может корректироваться, т.е. в места с наибольшей нагрузкой может быть передислоцировано больше узлов).
— Каждый узел связан беспроводным каналом (радио или направленная оптика) со всеми ближайшими узлами (или как минимум, с 6-8 ближайшими узлами).
— Управляющие алгоритмы обеспечивают оптимальную маршрутизацию траффика через узлы.
— Управляющие алгоритмы обеспечивают объединение вычислительных ресурсов при необходимости (собственно, основная идея топика).
— Всю сеть условно-децентрализована. Узлы автономны. В редких случаях возможно централизованное управление (обновление ПО, смена конфигурации, аварийные ситуации, и т.п.).
— В будущем, при соотв. развитии технологий, вероятно резкое уменьшение габаритов узлов, повышение их мощности, добавление возможности самостоятельных перемещений и динамической реконфигурации сети.

Как-то так.
Идея хорошая, согласен.
Можно совокупность состояний капель использовать как таковую. Что-то вроде как в языке Prolog сама программа является и данными. Добавление или изменение данных меняет программу и результаты. Только на физическом уровне.
Тогда это уже не просто вид организации инфраструктуры, коим является cloud computing, а новая парадигма организации вычислений, которая нуждается в новых инструментах, алгоритмах, моделях вычислений и т.д. В статье я про это ничего не нашел.
Техническая реализация могла бы быть такой: налаживается производсво чипа, который становится своего рода «условной единицей» — простым, удобным и дешевым решением для любых вычислений: от включения лампочки по таймеру и до рендеринга 3D-сцен. Производительность этих чипов пусть будет избыточной для большинства основных простых функций и благодаря интерфейсам обмена информацией, эти «недогруженные» чипы могли бы объединятся в сеть вокруг тех чипов, которым нужна дополнительная производительность. Это, без сомнения, масштабная и непростая задача, но позволит сделать технологии и компьютеры невидимой основой, практически веществом, вычислительной материей. Одновременно будет сохранена и независимость отдельных дивайсов, и их взаимодействие по необходимости.
В том и фишка, что никому не нужны такие устройства, но те, устройства, которые нужны, обладают значительно большей вычислительной мощностью, чем им нужно. Той же атмеги для минимальных задач автоматизации больше чем нужно, вот она пусть и расшаривает свои ресурсы, которые простаивают. Идея состоит в том, чтоб использовать ресурсы, которые УЖЕ есть в устройствах, а не в том, чтоб создать специализированное устройство.
Я скорее о реализации. Тогда нужен модуль взаимодействия с уже имеющимися устройствами и я говорил о том, что сделать такой будет, возможно, сложнее, чем заменить их все новым универсальным чипом, который изначально умеет делиться ресурсами.

Знать бы скорость с которой растёт количество чипов в нашем окружении… Я думаю что скорость эта растёт экспоненциально и мы находимся на пороге «взрывного» роста и сейчас самое время запускать такой универсальный чип. Если размер рынка для современных сложных чипов это, в среднем, 1 чип в расчёте на человека, то размер рынка для универсальных чипов на порядок выше — это 10+ чипов на человека.
Sign up to leave a comment.

Articles