Pull to refresh

Comments 55

60 000 MFLOPS — не слишком много по текущим стандартам производительности
Да, не особо. В три раза меньше, чем у i7.

у меня на 2683v3 выполнение команды из статьи выдало 20 gflops — какое-то странное число на фоне упомянутых 180 mflops для i7. Или я не туда смотрю?

180 000 mflops == 180 gflops, разве не так?
Слабо себе представляю i7, который в 9 раз быстрее серверного камня(хоть и 14ого года, но на 28 потоков с не малыми частотами за овер 1к баксов). Что-то тут не сходится.

более того… если суммировать удельные гигагерцы 12шт. NanoPi получим 134ГГц, при условии из таблицы результата в 60гф мы получаем точное соотношение коэффициента моих 42ггц / 20гф. Может просто у SergeyMax измерения не сложились? И в итоге кластер получился всё таки довольно интересный, на уровне приличного нового Xeon

Старшие i7 при работе с оптимизированным под AVX/AVX2 кодом вполне могут 180 ГФЛОПС и даже больше выдавать на задаче решения системы линейных уравнений.

image

У вас результат низкий видимо из-за того, что приведенный вариант теста совершенно не подходит под архитектуру i7 или Xeon — счет запускается в 12 групп по 8 потоков в каждой (хотя для Xeon 2683v3 оптимально считать одной группой в 28 потоков, для i7 соответственно тоже 1 группа с числом потоков = число ядер*2 чтобы задействовать HT) и без использования AVX дающего буст в несколько раз, но которого нет у ARM.
Да, похоже на правду. Вот навскидку Linpack на стареньком i7:

Да, не особо. В три раза меньше, чем у i7.

Как вы можете такое говорить. Тут, намедни, статья была про новый айфон и его «супер» процессор, судя по которой, арм архитектура не может быть настолько медленной. )) Я с нетерпением жду когда маки на нее «снова» переедут вернуться, вот тогда заживут.
Так я и не понял — для чего?

Ну, например, поиграться с распределёнными алгоритмами. Отличный стенд.

Так видеокарты есть, CUDA и прочие фреймворки, в конце концов шейдеры.
Это не то. Оно все-равно рассчитано на работу в едином чипе. Так же как обычные мультипоточные программы для многоядерных процессоров.

Настоящие HPC это все-равно всегда кластер из отдельных независимых устройств, но работающих параллельно и общающихся между собой через какого-то вида сеть. И позволяющие масштабироваться на практически любое количество подобных устройство.

В этом плане подобное чудо хорошая модель настоящего суперкомпьютера. Хорошая для обучения, демонстрация, проверки каких-то решений в алгоритмах.

А если нужно просто какую-то прикладную задачу решить, для которой достаточно подобных выч. мощностей — проще конечно современный многоядерный процессор взять(даже дорогих серверных не надо — старших i7 или Ryzen хватит) или GPU взять.
Речь шла про распределенные алгоритмы а не модели суперкомпутеров. А распределенным алгоритмам при должной абстракции все равно на чем работать, хоть видеокарта, хоть ПК соединенные через сеть.

Да не только видеокарты. Система за 550$ с i5 будет считать не хуже, хоть и на чуть более "последовательных" ядрах. К тому же та же система с i5 будет работать с почти любым ПО для научных вычислений и не надо будет разрабатывать софт под железо, не имеющие очевидных плюсов. Поэтому совсем не понимаю, где преимущества данной сборки будут очевидны и существенны.

В качестве лаьоторного стенда — более, чем отличный вариант: на "взрослом" железе собрать аналогичного масштаба (не производительности, а количества узлов) кластер будет стоить на порядкИ дороже. А так, реально каждой бригаде обучающихся (а то и каждому) выдать кластер на стол и пусть клепают системы распределенных вычислений.

Виртуалки? Контейнеры?
Далеко не всегда стоит при подготовке специалиста заменять «физические модели» на виртуальные. Работа с «физической моделью», как минимум, эмоционально более приятна (ну для меня лично, как минимум).
И это касается не только виртуалок =)
Запускай десяток виртуалок и играйся, гораздо проще. Скорее всего у товарища просто руки чесались.

Ну, это я думаю не сильно дешевле выйдет тк придется докупить 16-32gb ram

и эффекта от mappingа процессов не заметите
Вас, «практиков-прагматиков», под каждым постом и из каждого домофона слышно с воплями «да зачем оно нужно?». А когда дело доходит до того, что вдруг появилась практическая задача, в которой действительно «нужно» — сразу же все «зачем» отметаются, но при этом и благодарностей к теоретикам особой не слышно. Особенно это относится к инженерам, которые научились в CAD'ы и не ценят труд математиков, стоящих за этим и за этим в будущем. Зато если вдруг рано или поздно появится задача, для которой математика не дала базы — инженеры завопят чем-то вроде «годами просиживайте зад и ничего не сделали?». Бесит такой подход. Пирамида понтов — CEO жмут продажников, продажники — инженеров, инженеры — теоретиков…
Извините, накипело.
Понятно, что накипело. Но это же не первый кластер товарища. Может и мне пора тоже заняться строительством. Если этот товарищ их клепает, может кто-то знает причину. И осуждения никакого не было с моей стороны.
Извините, мимо. Просто триггер сработал. Сам в себе пытаюсь данный подход убить.
Навеяло )))
— Кто является движителем научно-технического прогресса?
Философы размышляют куда движется общество.
Правители улавливают эти тенденции, стараются направить их и дают задания министрам.
Министры думая о конкретных путях решения задач — дают задания инженерам — самолеты делать и/или электростанции.
Инженеры дают задание физикам — разобраться с тем, что им неясно в устройстве природы.
Физики озадачивают математиков — посчитать то, что они прикинули на пальцах.
Математики идут к программистам — запрограммировать их километровые формулы.
Программисты запускают С++… и вот только программисты наконец-то работают!
Хотя… они требуют от математиков новых эффективных алгоритмов. От инженеров — новых скоростных компьютеров, от физиков — новых принципов для этих компьютеров, от министров — денег на эти компьютеры, от правителей — свободной работы этих компьютеров, и от философов — ответа на вопрос — куда эти компьютеры нас всех приведут.
Таким образом, очевидно, что именно программисты являются ныне главной движущей силой прогресса.

Как-то у вас все смешалось. И прагматики плохие и инженеры труды математиков не ценят.
В статье ясно задан вопрос "для чего он нужен?"
А такого же ясного ответа нет. Ладно, там сказано, что для обучения и разработки распределенного ПО, но польза такого подхода выглядит весьма сомнительно, тем более что это не первый кластер. Вот человек не понял и спрашивает. И ничего плохого в этом нет. Не забывайте, именно критика отличает науку от религии.
Имхо, ответ тут простой: сделал, потому что может и захотелось. А практической пользы действительно мало

А ведь vmware только заанонсило esxi под arm :) Что будет дальше? :)

Потому что выходят серверные ARM процессоры.

Вот только применять их на серверах было бессмыленно: однопоточная производительность «никакая», а распараллелить на тысячу потоков далеко не всё можно.

Thunder X2 даёт уже половину от Xeon'а (а в некоторых задачах и больше).

Сколько календарного времени занял у вас этот проект от момента задумки до окончательного времени?

Плата сначала показалась интересной. Но… WiFi нет, USB интерфейсов мало, питание проблемное. Разве что кластеры строить из такой платы.
Так плат с wi-fi и кучей других интерфейсов пруд пруди, а без всего лишнего, только с питанием и сетью — надо ещё поискать.

До тех пор, пока вы готовы ставить экзотические (для простого обывателя) разъемы, такие модули встречаются.


Вот, к примеру, превью модуля на TI AM65x с шестью гигабитными Ethernet
https://phytec.com/products/system-on-modules/phycore/am65x/#som


Но, разумеется, только процессор+сеть мало кому интересны, в самих SoC ставят периферию на все случаи жизни, вопрос в том, станете вы их использовать или нет

А стоило развернуть платы или поставить кулер снизу, как проблем с охлаждением на 5V уже бы не было.
Тогда бы кружку с кофе некуда ставить было.
Тоже было бы интересно по сравнению с i7/r7.
Очень плохо или никак. Там всего 1ГБ Памяти и очень низкая производительность. См. в комментах есть примеры в ГФлопсах.
Какая красивая штука получилась, дух захватывает…
Не полный, софт реальный бы на нем запустить
Спасибо за статью! Судя по списку собранных кластеров вы, вероятно, должны быть в курсе про compute module 3?

Вы не знаете судьбу этой модели? Я как не искал, нигде не могу найти ни в продаже ни решений на базе этого модуля. С учетом форм фактора и минимального количества шелухи, мне кажется, что кластер собранный на compute module 3 может получиться куда более практичным.

На тему находил только вот этот проект но с тех пор ничего не слышно.

У Compute Module отсутствует Ethernet и PMIC на плате, слишком много на материнской плате придется городить самому. Сами модули продаются на RS-Components, да вот по характеристикам RPi плоха для HMI (из-за простецкой видеокарты, отсутствия полноценного Ethernet), скудный набор периферии.


Поэтому решения от NXP и TI для эмбеддеда куда интереснее

Подскажите, можно ли как то питать эти штуки от PoE свитча?
Ищю интересное/маленькое/дешевое решение тонкого клиента для питания по сети и загрузки по PXE.
Сейчас все работает на Raspberry Pi 3, но хочется еще интереснее/меньше и с PoE.
Дык Raspberry Pi 3 Model B+ как раз тем от Raspberry Pi 3 Model B и отличатеся, что для него POE HAT бывает…
это да, но хотелось бы что то поменьше
Суперкомпьютер Cray C90, упомянутый выше, выдавал всего лишь 0,02 MFLOPS на ватт в 1992 году.

Есть ложь, есть чудовищная ложь и есть статистика.
Вроде и НЕ соврали, но вагон и маленькую тележку упомянуть забыли…
а что не упомянуто?
Крутая игрушка. Только не могу понять, почему воздушный поток охлаждения идет поперек ребер холодильников на процессорах? Может я не знаю чего.
Я правильно понимаю что в отолчии от малины NanoPi Fire3 не содержит драйверных блобов? В малине любят broadcomовские чипы, и соответственно открытых дров на них нет.
Вообще-то и открытые дрова и доки от производителя на гпу в наличии.
А где вы возьмете такое добро под mali в открытом доступе?
To build a functional OpenGL ES or OpenVG driver you need access to the full source code of the Mali GPU DDK, which is provided under the standard Arm commercial licence to all Mali GPU customers.

Комментарий с дивана. А не правильней ли было расположить платы под углом 90 градусов к текущему, чтобы разрез радиаторов был вдоль потоков воздуха вентиляторов а не поперёк?

Sign up to leave a comment.

Articles