Как стать автором
Обновить

Комментарии 105

16-дюймовый ноут MacBook Pro с процессором Intel с 8 ядрами и 64GB RAM стоил $6000, а новый с M1 и 16GB RAM стоит $2000.

16-дюймовые MBP с M1 появились в продаже? Когда?

А как с производительностью у M1 в задачах, на которых нет аппаратных "кодеков". Например архивация 7z при максимальном сжатии. Хочется увидить gif'ку.

Ну если так, то и правда прорыв и хороший пинок Intel. Просто я против перехода в облака вычислительных мощностей рабочих ПК. Это с самыми "дохлыми" Intel, а как с мобильными процессорами "hq" например?

Но никакими «в 3-6 раз» всё же и не пахнет.
По perf/w вполне пахнет. Ядро M1 в однопотоке потребляет до ~5W, а Zen3 (десктопный) до ~24W при примерно одинаковой производительности.

На самом деле, это лишь вопрос времени.
Производительность ARM развивается более быстрыми темпами, а чипы строятся на передовых техпроцессах.
Уже в 2021г TSMC запускает 3nm risk-production. Отгадайте, какие процессоры будут
сделаны первыми? Hint: Одна компания уже всё зарезервировала.
В серию они вряд ли пойдут (в 21) конечно, но кто знает…

Если Интел прямо сейчас не готовит ответ на M3 (на M2 уже поздно), им будет тяжело.
Производительность на ватт — это совершенно другая характеристика.
Вы же, наверное, не крипту майните, чтобы беспокоится о производительности ядра на ватт?
В ноутбуке есть много других компонент — дисплей, SSD, батарея, видеокарта — которые влияют на потребление и/или продолжительность работы. 20 часов в режиме просмотра видео, в первую очередь, определяется потреблениями аппаратного ускорителя видеокарты и дисплея, а никак не ядер процессора — который должен при этом вообще простаивать.
Как они вообще меряют потребление именно ядра — и как в этом учитывается потребление какой-нибудь системной шины или памяти — учитывая, что в M1 это всё намешано на один чиплет?
не крипту майните

Причём тут майнинг? У меня процессор часто занят компиляцией, например.

чтобы беспокоится о производительности ядра на ватт

Интересно, а чем по вашему нынче ограничивается производительность процессоров? Она ограничена потреблением и мощностью рассеивания. Во всех сегментах. Сервер может отвести 200-400W, но этого мало. Если запускать 64 ядра EPYC на той частоте, на которой он может работать в однопотоке, потребуется >1,5KВт, и система охлаждения, которая сможет отвести 1.5КВт.
Например использовать жидкий азот. Иначе плотность теплового потока будет такая что чип просто расплавится.

У кого правдавыше perf/w*, тот и сильнее.
*при сравнимой производительности

видеокарта

А уж видеокарте perf/w ещё более важен. Какую вы выберете для ноутбука — с потреблением 10W или 100W, при одинаковой производительности?
Кстати GPU у Apple тоже очень энергоэффективные.

Как они вообще меряют потребление именно ядра — и как в этом учитывается потребление какой-нибудь системной шины или памяти — учитывая, что в M1 это всё намешано на один чиплет?

На M1 нет чиплетов. Это монолитный SoC.
Чипы DRAM в упаковке M1 это самые обычные чипы DRAM.
www.eetasia.com/why-is-apple-m1-processor-passing-on-the-chiplets

Чиплеты это отдельные кристаллы модульного процессора а-ля Ryzen или Lakefield.
Ядра отдельно, IO и контроллер памяти — отдельно.

Конкретно в M1 есть датчики на каждый кластер, каждое ядро, память, GPU, на всю упаковку в сборе.
twitter.com/andreif7/status/1328775201677565952/photo/1

Можно подключится к преобразователю напряжения и снимать оттуда.
www.slideshare.net/linaroorg/how-to-measuresocpower

Даёте нагрузку на разные ядра и получаете дельту. Какие тут могут быть вопросы?

Производительность нелинейно зависит от частоты — если уменьшить частоту (и, соответственно, производительность) вдвое, то потребление запросто сократится вчетверо, если не больше.
И так как потребляет не только процессор, но и много чего другого — то можно сократить его потребление хоть в сотню раз, но если главным потребителем остаётся дисплей, то эффект от этого сокращения будет мизерным.
Соответственно и вопрос — какая доля от потребления всего ноутбука именно на потребление процессора, а какая — на всё остальное.
Даёте нагрузку на разные ядра и получаете дельту.

Контакты там общие для процессора и всего остального в нём? Как отличить потребление одного ядра из CPU от потребления контроллера памяти или ещё чего, если всё в одном наборе?
На M1 нет чиплетов. Это монолитный SoC.
Имелось ввиду, что всё в одном корпусе, с одним наборов контактов для общения с внешним миром.
если уменьшить частоту (и, соответственно, производительность) вдвое

Неспроста было примечание под звёздочкой
*при сравнимой производительности

но если главным потребителем остаётся дисплей,

С чего бы это дисплею быть главным потребителем?
Если ноутбук работает 20 часов на батарее 60Вт/ч, это значит что весь ноутбук — дисплей, SSD, GPU, VDEC, память, CPU потребляет 3 Вт в этом режиме.

Контакты там общие для процессора и всего остального в нём? Как отличить потребление одного ядра из CPU от потребления контроллера памяти или ещё чего, если всё в одном наборе?

Я могу только повторить свой ответ:
Даёте нагрузку на разные ядра и получаете дельту.
Специфика нагрузки отвечает за активацию разных блоков.

Имелось ввиду, что всё в одном корпусе.

Корпус это тем более не чиплет.
Погуглил — обычный дисплей потребляет порядка 2 Вт, некоторые с Intel Low Power Display снижают потребление до 1Вт (что на просмотре видео позволяет им работать больше 17часов).

С чего бы это дисплею быть главным потребителем?
С того, что всё остальное очень часто простаивает.
С того, что всё остальное очень часто простаивает.

Речь шла о максимальной производительности процессора. Экрана у него может вообще не быть. У сервера, например.
Мне казалось, что мы говорили про ноутбуки (с их ограничениями по массе и энергопотреблению), а не про сервера.
Способности же M1 к разгону пока что недоказаны.
Я говорил про perf/w без какой либо привязки к сегменту.
Вы невнимательно читали? Вот цитата:
Она ограничена потреблением и мощностью рассеивания. Во всех сегментах. Сервер может отвести 200-400W, но этого мало. Если запускать 64 ядра EPYC на той частоте, на которой он может работать в однопотоке, потребуется >1,5KВт

link.springer.com/referenceworkentry/10.1007%2F978-0-387-09766-4_499

Power delivery and dissipation limits have emerged as a key constraint in the design of microprocessors and associated systems even for those targeted for the high end server product space.

Способности же M1 к разгону пока что недоказаны.

О каком разгоне идёт речь? Алло?

Доказывать что-либо я вам и не должен, просто я привык так писать — с фактами и ссылками.
Во всех сегментах.
Совершенно не во всех. Майнеры криптовалюты специально делают даунвольт и снижают частоты своих видеокарт чтобы поднять прибыльность. Сервера зачастую могут делать то же самое.
О каком разгоне идёт речь? Алло?
О разгоне для того, чтобы уперется именно в TDP, а не в программный барьер или барьер из-за нехватки мощности БП.
Может, их стандартные 2ГГц и есть их предел?
Почему Mac Mini — который, по идее, вполне себе десктопного формата — не получил нормальной системы охлаждения, более мощного БП и разогнаного проца? Причём там внутри ещё и свободного места вагон…

Простите, но я должен дать вам эту ссылку

Всё же конкретно в ноутбуке с их убогой системой охлаждения (в большинстве) хочется:
1. Производительности побольше
2. Нагрева поменьше
Нагрев у нас порождается ваттами, которые скушал процессор, в итоге опять же скатываемся к производительности на ватт как к косвенной характеристике.
Уже в 2021г TSMC запускает 3nm risk-production. Отгадайте, какие процессоры будут
сделаны первыми? Hint: Одна компания уже всё зарезервировала.
но там таймлайн на 2022 год
Но никакими «в 3-6 раз» всё же и не пахнет.
они сравнивали с предыдущим поколением макбуков, где эйры троттлят так жестко, что там те же многоядерные geekbench/cinebench отличаются в полные 4 раза. А всякие 6/20 раз это про хардварно ускоренные задачи.

А там, где они сравнивали не с предыдущим поколением, они сравнивали с «популярными windows ноутбуками», которые тоже едва ли блещут несравненной производительностью.

4-ядерный Tiger Lake на 1% медленнее 8-ядерного М1. Извините, но смерти Интел здесь пока что не вижу. Как и разницы в производительности в разы. А вообще, это всё очень здорово, но как бы устройства на таких процессорах не перестали быть доступны большинству. Хотя подождите, сколько там стоит Evo-ноутбук или MacBook 2020?.. грустная ирония

Долго смотрел на гифку и, досмотрев, решил, что статья будет про монстроузность XCode. Ан нет…
А чего сразу Интел.
Напомню, когда планировался переход из 32 в 64 бит — у интел, скорее всего, были планы переделать все. Но тут быстро подсуетилось амд…
Так Intel же всё переделал задолго до этого.
и назвал это IA64 и решил что надо срубить бабла с корпоративных юзеров, (640кб хватит всем)… но тут реально внезапно подсуетилась АМД и поезд ушел и пришлось хоронить свой и юзать конкурирующий стандарт
ia64 было на VLIW, что не добавляло ему производительности, но при этом усложняло компиляторы. Так x86 с -64 костылем и победило.

Не успел Apple выпустить свой процессор а уже куча людей бегают с похоронами Intel. Напомнило как фанбои Маска хоронили Роснефть в начале 2010-ых. В общем ничто не меняется в этом мире.

Газпром до сих пор существует, но капитализация в 3 раза упала.
В какой валюте?

В любой международной :))

и что конкретно это капитализация изменила? работают все же за прибыль.
логика довольно проста, капитализация — это мера объёма доступных дешёвых кредитов, которые фирма может получить. Соответственно, она определяет способность фирмы развиваться (что без кредитов последние 500 лет слабо реализуется). В целом капитализация неплоха для оценки не текущего состояния (для этого как раз прибыль), а будущего.
Упала, конечно, но не всё так плохо.

Есть такая вещь — маркетинг, сейчас должны все говорить о новом процессоре m1. Восхищаться алюминием новых наушников. Intel atom тоже "рвал" в тестах, когда вышел — а пошёл в массы и "порвался" об обновления Windows и emmc память. Надо сравнивать не только тесты, а интерфейсы, что поддерживает и не "стандартные" сценарии. Браузер с плагинами, с кривой упаковкой (нестандартными кодеками) в "mkv". Компиляция приложений и прочее.

M1 реально прорыв, но 90% тестов заточены на хардварные кодеки в результате чего такие цифры. Но например если сравнивать качество рендера на М1 в том же Da Vinchi Resolve, например, то получается что попиксельно картинка похуже чем на интеле, хотя скорость в несколько раз выше и комп значительно тише и холоднее.
Вот чего у М1 не отнять это очень низкое энергопотребление в сравнении с конкурентами. Система получилась очень удачная — тихая и быстрая.


Если бы на новый макмини можно было ставить что-то другое отличное от макоси, то наверное уже взял бы. Потому что аналогов в таких же размерах и с такой же производительностью сейчас на рынке нет.


P.S. Поддерживаю насчет «Вот так свобода и умирает — под гром аплодисментов.»

Это все конечно замечательно, но как там дела с производительностью моделирования во всяких MathLab Simulink, Solidworks прочих CAD?
Мы стали быстрее компилировать и отображать мегабайтные javascript-ы, но зачем…
Мы стали быстрее компилировать и отображать мегабайтные javascript-ы, но зачем…

Затем, что мы компилируем в сотни и тысячи раз чаще, чем что-то моделируем во всяких MathLab Simulink, Solidworks. А отображаем мегабайтные javascript-ы, думаю, не ошибусь, если скажу, что в миллионы раз чаще.
НЛО прилетело и опубликовало эту надпись здесь

Есть нужно быстрее есть же Райзен 9.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Это больше вопрос к софту чем к процессорам, если они готовы к оптимизации под m1 то все будет быстро. А вот про js вы конечно зря, вы сами его гигабайтами на дню «отображаете» ваш кэп

Fusion 360 работает на системе (Air 8 ядер и 16 RAM) на равне с (Mac Mini 2018 года с i5 и 32 RAM) а вот рендер картинки во fusion у нового Аир чуть хуже оказался


Проверил работоспособность OpenFOAM( численный расчёт гидроаэродинамики)через Docker так при построение расчетной сетки результаты сильно удивили новый М1 в 10 раз медленнее это сделал.


В Blender новый М1 оказался хуже с большими сетками (от 7 миллионов)

А можете предоставить пруфы больше информации?
DrivAer validation case- тестовый расчет аэродинамики автомобиля, особенность данного теста, в том, что программа очень требовательна к ресурсам (в частности оперативная память и процессор) проведя серию расчетов мы получили следующие результаты
Mac mini 2018 (i5 32 gb Ram) тест построения расчетной сетки занял 562 секунды использовалось при этом 6 ядер и 30 гигабайт оперативной памяти

Mac с М1 (8 ядер и 16 gb Ram) тест построения расчетной сетки занял 5937 секунд использовалось при этом все 8 ядер и 15,75 gb оперативной памяти
Был проведен второй тест, построение заняло 6492 секунды использовалось при этом 4 ядра и 15,75 gb оперативной памяти (почему был проведен расчет на меньшем количестве ядер, было сделано предположение, что оперативной памяти было недостаточно, и чтобы уменьшить задержки в расчетах, снизили количество процессоров)

Программы в которых тестировалось: Docker (есть поддержка M1) во время эксперимента работал стабильно

Программа для построения расчетной сетки (тест) snappyHexMesh от OpenFOAM
Что как бы закономерно. Трансляция команд x64 -> ARM это конечно замечательно и М1 процессор замечательный — но если софт активно использует векторные инструкции и собран нормальным компилятором, то «внезапно» оказывается, что похороненный интел вылезает из земли и съедает всех танцующих на его могиле, после чего прячется и ждет следующих танцующих.

И поскольку в 2017 году clang и LLVM сливали GCC и ICC по производительности сгенерированного кода почти двукратно, я бы не исключал, что эппл подтянули свой компилятор чтобы он под ARM начал генерировать вменяемый код, и теперь сранивают нормально собраный армовский бинарник со сгенерированным их же компилятором унылым кодом x86.
уточните пожалуйста, что из протестированного вами софта запускалось не через rosetta2?
НЛО прилетело и опубликовало эту надпись здесь

Судя по тексту, он дочитал, но по её концовке прошёлся вскользь, словно бы видя, но искренне желая развидеть и забыть.

Честно говоря, я не понял, зачем увязывать в одной статье темы производительности и свободы пользователя. Это как бы немного совсем ортогональные вещи — и мешать использованию посторонних операционок на Mac-компьютерах Apple могла бы и на Intel-процессорах.

Вопрос свободы в контексте «Star Wars» — вообще весьма сложный. У меня сложилось ощущение, что там речь идёт о свободах для высшего слоя общества, а также для маргиналов типа контрабандистов. А вот свобода для простых обывателей (которая определяется скорее материальным достатком, чем политическим режимом) и для любителей научных исследований — в контексте «Star Wars» полностью игнорируются.
Из истории человечества известно, что в период феодальной раздробленности — было много свободы для феодалов и мало свободы для простого народа. А вот при абсолютной монархии — свободу для феодалов сильно сократили, за то свобода для простого народа заметно выросла: ибо при абсолютной монархии становится меньше произвола властей и больше законности.
Поэтому речи сенатора Падме Амидала меня как-то не трогают: мне кажется, он говорил о свободах только для социально близких ему людей. Если ему так дорога республика — то надо было озаботиться благом общества до того, как этим занялся Палпутин. А то ведь для простого обывателя — диктатура коррумпированных политиков и чиновников ничуть не хуже диктатуры императора.

Что же касается компьютеров — то сейчас я ожидаю, что количество свободы для пользователей будет сокращаться на всех платформах. Громкий звоночек прозвенел ещё когда проектировали UEFI — правда, тогда попытка плотного огораживания платформы от альтернативных операционок провалилась. Но это не значит, что такие попытки прекратились — и сейчас надежда разве что на маргинальных производителей, которые смогут обеспечить выпуск неогороженных компьютеров. А крупные корпорации — будут настойчиво продолжать попытки огораживания.
Да все будет ок. Свободные платформы останутся в любом случае, хотя бы потому, что есть Linux. Пусть это всего несколько процентов, но в мировом масштабе несколько процентов это многие миллионы пользователей, спрос на свободное железо будет, а значит будет и предложение. A Apple всегда был анально огороженным, так что тут ничего нового.
Блажен кто верует… Поклонников windows7 было в десятки раз больше, но это не помешало выпилить поддержку win7 новым железом. С чего вы решили, что с линуксом, с его ничтожной долей, будут цацкаться? На него просто, пока (именно пока) не обращают внимания. Что же до спроса, который «будет», то лучше без иллюзий — корпорации сумеют между собой договориться, а вас просто поставят перед фактом.
Производители железа поддержку Windows 7 специально не выпиливают, просто на нее не ориентируются при разработке нового железа и дрова на ней не тестируют. Это и понятно — система deprecated, давно не обновляется, ее даже не купишь официально, чтобы на машины для тестов поставить, например.

С линуксом будут цацкаться, потому что он много кому нужен, в том числе и многим корпорациям.

Скажите это Intel Kaby Lake. При запуске Win7 на этом (и последующих… мне вот так на рабочем компе пришлось на Win10 раньше переезжать) ядре винда сразу говорит, что апдейтов не будет. Система обновлений отключена. Часть возможностей процессора использовать невозможно.

И как это противоречит тому, что я написал выше? Или вы клоните к тому, что интел специально заморочился, чтобы его новые процессоры были несовместимы с Windows 7? Серьезно?

Intel + MS специально заморочились вместе. Какой профит от этого получил (и получил ли вообще) Intel — мне неизвестно. Но вот выпустить микрокод, который заставил бы Win7 жрать и не пыхтеть — они могли легко. Но и без соглашения с Intel — MS бы не рискнуло такую "фишку" сделать.

Но вот выпустить микрокод, который заставил бы Win7 жрать и не пыхтеть — они могли легко

Сильное заявление. Жаль, что не совсем верное.
Ну, то есть, могли бы, да. Но за чей счёт банкет?
Банально потому, что замены lunux нет и вряд ли будет. Что на серверах устанавливать? Windows? Это даже не смешно. Все смартфоны базируются на линуксовом ядре, огромное количество встраиваемых систем и тд. Linux отлично работает на любой архитектуре, даже на таких экзотических, как E2K. Винда же x86-64 only с нулевой масштабируемостью. Сейчас возможно это не так важно, но arm уже активно внедряется в сервера, приход на ПК лишь дело времени.

Win7 умерла из-за отсутствия поддержки, линукс пилится сообществом, просто так прекратить поддержку не получится. Дрова конечно сообщество не напишет, но с каждым годом ситуация все лучше и лучше. С виндой ситуация обратная — количество багов и глюков в 10ке поражает.
НЛО прилетело и опубликовало эту надпись здесь

А где свободные мобильные устройства не на android/ios? Какие-то устройства для увлеченных, отстающие по характеристикам на несколько лет?


Сейчас я могу купить совершенно мейнстримное компьютерное железо, собрать совершенно мейнстримный компьютер с производительностью в широком диапазоне на любой вкус и кошелек, и поставить туда хоть Windows, хоть Linux, да хоть BSD. Без необходимости ждать милости от каких-то производителей железа "для энтузиастов". Да и практически любой ноутбук тоже вполне неплохо чувствует себя под Linux.

и мешать использованию посторонних операционок на Mac-компьютерах

А кто мешает?
twitter.com/XenoKovah/status/1339914714055368704

Наоборот, добавили возможность загрузки альтернативных ОС, несмотря на iboot.

Вот это вы зря, не разобравшишсь, да в политику ДДГ полезли.


  • Палпатин — не абы какой император, а Дарт Сидиус. В общем при всех минусах Республики (судя по имеющимся данным — для галактики ДДГ было бы полезней, если бы она развалилась лет на 500 раньше… и это был далеко не первый её период стагнации), преобразование оной в Империю очень родственно оруэлловским произведениям. Т.е. даже обычному населению стало хуже (а откуда, по вашему у повстанцев через столько лет такая моральная поддержка?!) при том, что улучшений им не завезли (местные царьки так и остались местными царьками… у них просто риски умереть в особо неприятной форме возрасли… проблема только в том, что на место такого царька тут же приходил точно такой же, только более лояльный центральной власти). Про "правящий" класс — и того интереснее — за не то слово Дарт Вейдеру, если помните, в одной из частей он запросто применил душение, за не очень большой провал — удушил насмерть. Да, это воинское подразделение… но я сомневаюсь, что убийство не за предательство адекватно в такой среде. Ну и в любом случае, где нормальные разбирательства? Нет, все решения на откупе под настроение личного порученца императора.


  • Амидала — не абы какой сенатор, а представитель конкретной планеты. Сенатором которой может быть только оттарабанивший срок правления. Правитель выбирается демократическим образом. Т.е. это не вчистую "местный царёк", у неё реально высокая поддержка среди населений её планеты было. Значит, как минимум, сильных косяков она не допускала (ну за исключением ситуации с оккупацией планеты… в которой она была не совсем виновата — скорее внешние силы подсуетились на момент слабости правительства планеты..., да и с проблемой она всё же смогла с внешней поддержкой справиться)… И да, Амидала — она, а не он.


  • добавим сюда ещё, что для захвата власти Палпатин уничтожил международную организацию "орден Джедайи", который играл важную роль во внутренней и внешней политике Республики, работая неплохим миротворческим корпусом (и да, не в современном понимании миротворческих корпусов нашей Земли — они старались именно через переговоры уменьшить проблемы всех сторон, в том числе не участвующего напрямую в дипломатическом общении народа), так же они занимались: образовательной деятельностью, спасением населения в зонах конфликтов, спасением заложников, охрана важных лиц, расследованием преступлений и прочими социально-важными занятиями. Кстати, да, орден был именно вырезан. Влючая стариков, женщин, детей. Суммарно 20-60 тысяч человек, если мне память не изменяет.



В общем с точки зрения средней углублённости в ДДГ ваш комментарий выглядит или "хатаскрайним" или просто напрочь поверхностным.


PS и да, при сравнении текущих платформ — неправильно замалчивать какую-либо проблему. Проблема с конфиденциальностью замалчиваться не должна вообще никогда.

А уточню — Палпутин — это опечатки или тонкий троллинг? Я склоняюсь ко второму варианту :)
А крупные корпорации — будут настойчиво продолжать попытки огораживания.
а крупные корпорации, использующие линукс для своих собственных задач, будут отпиливать линукс для того, чтобы усложнить себе решение собственных задач…
А разве при распаковке узкое горлышко не диск? По-моему тут 2х прирост (по сравнению с Intel) на 90% из-за новых более быстрых SSD (вроде бы, об этом была речь в презентации Apple). См. например What is more important when extracting rars cpu or hdd?
НЛО прилетело и опубликовало эту надпись здесь
Согласен с комментарием выше, не мешайте «Хайповать». Время, всё, расставит на свои места и покажет прорыв это или нет, но «Intel» есть над чем задуматься, это точно!
НЛО прилетело и опубликовало эту надпись здесь
скорее тут бутылочным горлышком выступает система охлаждения. Есть ОГРОМНОЕ подозрение, что интел в тесте жутко троттлил.
По вашей ссылке речь про hdd с 7200оборотами, а в заглавной гифте у обоих машин(м1 и i9) топовые ssd, которые с запасом имеют iops для распаковки. Тут реально cpu м1 впереди.
Интересно, какая бы производительность была бы у Intel'а откинь они монструозный микрокод транслирующий x86 и выведи наружу своё RISC ядро. Вот только не могут всё никак с наследием расстаться. Хотя и эмуляцию сделать на уровне проблем нет, и скомпилировать под разные ядра можно.
Думаю, это почти нереально т.к. гипотетический RISC сам по себе «не существует», а завязан на инфраструктуру ускорения x86 кода программно-аппаратно. И, один ли RISC использован при этом?

P.S. Интересней дождаться появления технологий реконфигурируемого железа для разных задач на основе «FPGA» технологий и опыта в разработке железа от Intel, AMD…

Немного моих домыслов и рассуждений


  1. Чем обеспечивается производительность М1? Я так и не понял. Говорят, из-за наличия бОльшего количества декодеров. Но мне казалось, что декодер (да и все ядро в целом) занимает довольно скромное место на кристалле, по сравнению, к примеру, с АЛУ, ФПУ и, тем более, кэшем. Поэтому не понятно, что мешает Intel/AMD наращивать их количество, если это действительно так улучшает производительность.

Картинки

AMD Zen 1 Core Complex

Функциональные блоки в ядре

Сравнение CCX Zen 1 и Zen 2, где кэш занимает еще больше места

Ссылки на источники картинок:



  1. Часто говорят о преимуществах ARM, т.к. они RISC. Имеется ли какое-то преимущество в использовании набора инструкций ARM перед x86? Да, я понимаю, что и те, и те декодируются в uOps, но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?


  2. Если п.2 верен, то компании-производители x86 могут сделать ход конем и сделать полу-совместимые процессоры, реализующие подмножество x86. Статья, где анализируется количество инструкций, используемых в софте на разных процессорах. С одной стороны, это потеря совместимости, которая является сильной стороной x86. С другой стороны, если уж Apple (компания, не имеющая отношения к разработке х86 процессоров) сделали транслятор x86 -> ARM, то уж компании-разработчики х86 процессоров с опытом в 40-50 лет, должны осилить транслятор полный x86 -> подмножество x86.


НЛО прилетело и опубликовало эту надпись здесь
Но мне казалось, что декодер (да и все ядро в целом) занимает довольно скромное место на кристалле, по сравнению, к примеру, с АЛУ, ФПУ и, тем более, кэшем.
да, занимает. Но бутылочное горлышко скорее в количестве команд, которые процессор может декодировать единомоментно. В случае ARM процессоров, каждая команда кодируется ровно 32 битами, и расширение декодера тривиально. В случае x86 процессора, команды кодируются разным числом байт, т.е. для декодирования следующих инструкций надо либо закончить предыдущие, либо начинать угадывать. Поэтому на x86 масштабирование декодера намного сложнее.

Помимо этого не стоит забывать что в M1 двухуровневый кеш, а в x86 процессорах трехуровневый. Ну и довольно-таки быстрая (4266 МГц) память с низкими задержками за счет её интегрированности.
но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?
как раз статья про это.

А вот разный размер команд — спасибо, не подумал.


как раз статья про это

Где говорится, что сжатие команд и macro-op fusion позволяет сделать минимальный ISA, который не проигрывает, а даже иногда выигрывает у более раздутых ISA (x86, ARM). Которые, кстати, согласно этой статье, тоже используют эти техники.

А в чём проблема (кроме потребления памяти) поставить выравниватель? Правда интересно.

ну будет у вас бутылочное горлышко не в декодере, а в выравнивателе, по тем же самым причинам.

Так вы не поняли идею — код, загружаемый в кеш (L2, например), прогонять при загрузке через выравниватель. А на процессор (его декодеры) отдавать уже выровненый код. Тут, конечно тоже будут проблемы со скоростью обработки, но при небольшом оверхеде кеша — горлышко можно изрядно расширить.

НЛО прилетело и опубликовало эту надпись здесь
я то идею понял. Но если у вас тормоза в декодерах именно из-за выравнивания, с чего вы взяли, что отдельный выравниватель будет сколь угодно быстрее?
Чем обеспечивается производительность М1?

Они явно заточили хардварно под определенные популярные типы задач. Типичный пример работа с обработкой видео — явно быстрее чем на интеле, но по факту попиксельно качество оказалось чуть хуже.

Ну это кодеки и прочие аппаратные ускорители. Как быть с тестами на компиляцию итп?

Чем обеспечивается производительность М1

Вот этим
www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2

— Гигантские и быстрые кэши
— Глубокое OoO. В буфере переупорядочивания вдвое больше команд чем у TigerLake.
— Предсказатель переходов лучше чем у Intel.
— Много ALU (6 x int, 4 x simd)
— Огромная ПСП — ~60ГБ/с на одном ядре(!).
— Набор инструкций ARMv8

Поэтому не понятно, что мешает Intel/AMD наращивать их количество, если это действительно так улучшает производительность.

Переменная длина инструкций. Инструкция х86 занимает от 1 до 15 байт.
Декодеров не поставишь слишком много, да и незачем.
Современные процессоры Intel/AMD/ARM используют кэш микроопераций.
Т.о. ширина декодирования не имеет значения для горячего кода (который уже выполнялся).
Для холодного же кода средний IPC в большинстве программ около 1 и каждые 3-5 инструкций переход.

но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?

На эту тему сломано много копий. Имеющиеся исследования основаны на старой архитектуре ARMv7. Но я скажу что ARMv8 позволяет.
LD/ST архитектура с 32 регистрами позволяет сильно уменьшить количество обращений в память. А это весьма затратные операции.
ARMv8 в частности имеет много удобных инструкций.
Поэтому зачастую их требуется меньше чем на x64 для одного и того же участка кода.

компании-производители x86 могут сделать ход конем и сделать полу-совместимые процессоры,

Это не даст ничего, но лишит их всего что у них осталось — совместимости.

должны осилить транслятор полный x86 -> подмножество x86.

Он аппаратный. Старые инструкции реализованы в микрокоде.
У Apple же это временное решение на время смены архитектуры.

монструозный микрокод транслирующий x86 и выведи наружу своё RISC ядро

1) Микрооперации это не RISC инструкции.
От микрокода не избавиться, т.к. на нём функционал процессора написан.
Микрокод есть даже в самом простом RISC — ARM1.
Each instruction in the ARM1 is broken down into 1 to 4 microinstructions.
www.righto.com/2016/02/reverse-engineering-arm1-processors.html

2) Программы выполняются из uOp кэша. Legacy decode в основном нужен для холодного кода.

3) Это никому не нужно

"Там же не про микрокод, а про декодер инструкций. Это другое." © DrPass

Микрооперации это или RISC инструкции определяется только тем, является ли набор тьюринг-полным или нет. Я не знаю как там у Intel, но предполагаю, что набор является тьюринг-полным в отличие от того же ARM.
Intel — компания, заточенная под производство процессоров. В отличие от Apple. С капитализацией меньшей, чем у Apple, но даже не в 2 раза.
Intel — компания с капитализацией в 10 раз большей, чем у AMD.
Теперь каверзный вопрос. Почему компания, которая скорее всего превосходит конкурентов по научно-техническому потенциалу не идет по пути увеличения мощности процессоров?
меньшей, чем у Apple, но даже не в 2 раза.

Market cap Apple — $2.242T (Yahoo finance)
Market cap Intel — $189B (Yahoo finance)


Ну да, не в два. Поэтому вопрос действительно каверзный, но, надеюсь, я на него ответил.

Имелся в виду «собственный капитал», а не «рыночная капитализация». Да, на 2020 побольше чем в 2 раза. Рыночная капитализация — это умелая игра на бирже, в том числе запилом новостей про суперпроцессоры. И если у эппл такое расхождение между реальным капиталом и стоимостью акций, то не мыльный ли пузырь.
Просто потому, что «разрыв Интела» есть только в фантазиях фанатов научно-технического прогресса. В этом смысле Хабр, к сожалению, пример худшей реакции на события.
Прогресс не есть потенциал. Чтобы организовать производство чего-то наукоемкого, а производство процессоров очевидно оно, надо иметь развитый ресурс и многолетний опыт в этом деле. Нельзя в гараже вдруг начать запиливать самые мощные процессоры в мире. Если можно, значит в ущерб чему-то, чем не пренебрегает компания, для которой надежность и стабильность на первом месте. Она не может пренебречь репутационными потерями перед крупнейшими заказчиками. Вот когда и если интел станет вровень с эппл и амд, тогда она и начнет играть на рост характеристики процессора, которая важна для мелкого потребителя.
НЛО прилетело и опубликовало эту надпись здесь
Подождите, вы подменяете понятия. Что у Интела все прекрасно — я не говорил. Что в отрасли бурный рост и никакой стагнации, и Интел «на гребне волны» — тоже не говорил. Я всего лишь высказался о том, что Интел и его микроархитектуры хоронят не первый раз, и всегда это происходит под гиканье. Кто-то из «гикателей» уже вырос, кто-то перестал интересоваться темой, кто-то продолжает «гикать» по каждому новому событию, кто-то лишь недавно подключился к гиканью (как Ананд в 2014-м), но суть не меняется — Интел и его микроархитектуры каждый раз переживают своего «убийцу».

Ну а «убивать GPCPU ускорителями» — не новая тема, вот поверьте. Не знаю, какого вы года рождения, но до моего рождения она точно уже существовала. :)

Если что — я у них не на зарплате ))
НЛО прилетело и опубликовало эту надпись здесь
Вот на основе этого и возникают сомнения, что получится компанию, которая выродилась в менеджерскую из технологической, встряхнуть


Извините, но все ваше сообщение состоит по сути из одной этой идеи, если не вдаваться в подробности. А откуда эта мысль вообще взялась?
НЛО прилетело и опубликовало эту надпись здесь
не мог освоить техпроцесс новый

Скорее всего мог, но не было потребности. Больше затрат, чем выгоды. Организации обновляют ПК в лучшем случае раз в 5-10 лет. Игровой мощности им не надо. Нужна дешевизна, надежность и потребление малого количества ватт.
У эппл другая ситуация. Гугл поджимает, заявляет новые оси и делает устройства, майкрософт развивается. Эппл находится в условиях большей конкуренции, ему кровь из носа урвать сейчас кусок прибыли побольше. Причем торгует он в топ-сегменте, где для потребителя деньги не главное. Главное понты. Ну почему бы не выпустить более мощный проц. Дураком надо быть чтобы не выпустить, если такая возможность есть.
Скорее всего мог, но не было потребности. Больше затрат, чем выгоды. Организации обновляют ПК в лучшем случае раз в 5-10 лет. Игровой мощности им не надо. Нужна дешевизна, надежность и потребление малого количества ватт.
так-то более современный техпроцесс дает потребление меньшего «количества ватт». Не говоря о том, что чем лучше новое поколение процессоров относительно предыдущего, тем чаще потребители будут заменять свою технику.
Причем торгует он в топ-сегменте, где для потребителя деньги не главное. Главное понты
вот почему только когда доходит дело до качественной техники ноутбуки apple внезапно оказываются далеко не самыми дорогими? А если хотите прям попонтоваться — берите лучше razerbook. Последние кстати даже неплохи.
Не в этом суть. Просто рассуждения детско-холиварные, что если эппл выпускает процы мощнее, то интел загинается и у менеджмента проблемы.
Если допустим у кого-то есть все ресурсы сделать мобильное приложение и занять топ в каком-то сегменте, не значит, что имеет смысл делать. Знание особенностей сегмента, затрат на «сделать», может говорить, что выгоднее вложиться во что-то другое.
Просто рассуждения детско-холиварные, что если эппл выпускает процы мощнее, то интел загинается и у менеджмента проблемы.
ну пока что это действительно так — apple не конкурирует с intel напрямую, и у них слишком малая доля рынка чтобы их косвенное влияние на intel было существенным.

Однако во-первых, intel резко теряют долю рынка в угоду AMD, во-вторых, intel делает перестановки менеджмента. Это уже весьма явные индикаторы проблем.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Скорее всего мог, но не было потребности. Больше затрат, чем выгоды.

Судя по всему, как раз «не мог». Не мог — в смысле, не мог с достаточным выходом годных для коммерческой эксплуатации. Потребность-то как раз была. При всей неповоротливости менеджмента крупных компаний, ситуация, когда другие чипмейкеры успешно осваивают более тонкие техпроцессы, а в Интеле искренне считают, что сейчас ещё рановато, звучит совершенно невероятно.
Хотя с другой стороны да, и это они тоже переживут.
intel nuc на каком нибуть m3 хороший может получиться c обновленным видео от amd по типу vega m gh
Но за силу темного лорда есть своя цена.
И какая цена?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории