Открыть список
Как стать автором
Обновить

Комментарии 749

Вы сравниваете мобильные чипы. ARM не сможет тягаться с десктопными x86, по крайней мере при одинаковом техпроцессе.
Но тут показаны реальные задачи включая компиляцию. Почему не могут, если делают?
При разработке чего-либо (например процессорной архитектуры) приходится постоянно искать компромиссы. У ARM упор сделан на энергоэффективность, у x86 на производительность. Невозможно сделать процессор одновременно и с высокой производительностью, и с малым энергопотреблением. Физику не обманешь.

Почему не могут, если делают?
В приведенных вами тестах не участвуют десктопные x86.
В мак про стоит ZeonXeon. Если в тестах нет никакой ошибки, то похороны x86 уже случились.
Помнится, эта же самая яблочная контора уже «хоронила» x86 лет 25 назад. Тогда тоже были крутые тесты, овации в прессе, слоган «лучше, чем Pentium» и т.д.

И чем все закончилось?
А вот этим.



Я уже говорил в другой теме, что если ядро новых ARM такое крутое, то ни у интела, ни у амд, не будет больших проблем использовать его в своих x86-совместимых процессорах, потому как нет разницы, поверх чего будет работать транслятор команд.
ни у интела, ни у амд, не будет больших проблем использовать его в своих x86-совместимых процессорах

И да, и нет. И да, потому что концептуально можно положить ARM ядро и назвать этот процессор Intel Core или там Ryzen. Более того, AMD в начале 10х экспериментировала с выпуском ARM процессоров.
С другой стороны, разработка ядер CPU и процессоров на их базе — основной бизнес Intel и бОльшая часть бизнеса AMD. Если они начнут эти ядра у кого-то покупать (а Apple, на сколько я понимаю, все таки разрабатывает сама и ядра, и процессор, а не покупает их на стороне, как делают многие производители мобильных чипов), то это будет означать фактическую смерть обоих компаний, так как основную ценность и главную компетенцию они потеряют.
Кроме этого, если у них нет туза в рукаве на базе «таких хороших ядер» на ARM (а у Intel его судя по всему нет) — разрабатывать его с ноля займет годы. И проблемы с техпроцессом. Кроме того, в случае с Intel и их собственными уникальными фабриками, придется еще и перепроектировать все это под собственно их фабрики, что тоже займет долгое время, т.к. нельзя просто взять условную пачку документаций и спецификаций с фабрики TSMC и начать делать то же самое на фабрике от Intel или от Samsung. Даже на одном и том же условном «10нм» техпроцессе техпроцесс у каждого производителя отличается и чип надо под него перепроектировать.
В общем — все на самом деле очень непросто.
С другой стороны, разработка ядер CPU и процессоров на их базе — основной бизнес Intel и бОльшая часть бизнеса AMD. Если они начнут эти ядра у кого-то покупать

У них гораздо больше опыта в разработке ядер, чем у кого-либо. Если окажется, что просто выбран неверный путь, то повернуть в сторону и разработать нечто похожее для них большой проблемой не будет. Покупать разве что на время переходного периода придется.

а Apple, на сколько я понимаю, все таки разрабатывает сама и ядра, и процессор

Apple — исторически контора дизайнеров-гуманитариев (и не нужно спорить, публично доступная история разработки айфона это отлично доказывает). Весь грешный инжиниринг делается купленными на стороне руками и головами. Так кто мешает тому же интелу, если прям так сильно пахнет жаренным, точно так же перекупить тех, что умеет делать лучшие ядра?

Ну и не забываем, что яблочный процессор — это ARM, а не что-то неведомо-новое, т.е. его архитектура прекрасно известна и доступна всем желающим.
повернуть в сторону и разработать нечто похожее для них большой проблемой не будет.

Будет. Intel вот пыталась пару лет назад и в модемы, и в процессоры мобильные. Слилась, не смогла.
Если бы могли — сделали бы. Intel/AMD и любая другая подобная компания каждый год миллиарды долларов в RnD закапывают. Пока в ARM и подобные показатели производительности у них даже близко не получилось.
А на счет покупать — во-первых могут и не продать, во-вторых — все, что доступно к свободной покупке не блещет показателями. Так то да, вон готовые Cortex ядра продаются.
Весь грешный инжиниринг делается купленными на стороне руками и головами.

Вот только процессоры они разрабатывают in house. Даже компанию для этого купили в начале нулевых, специализирующуюся на разработке процессоров. Там не только маркетологи работают все таки, с времен создания первого айфона поменялось достаточно много. Ну и контрактников конечно никто не отменял, они есть у любой крупной компани.
Кто мешает тому же интелу, если прям так сильно пахнет жаренным, точно так же перекупить тех, что умеет делать лучшие ядра?

А нет их доступных к покупке. А если представить такую ситуацию, что есть абстрактная команда, которая офигенно пилит новые ядра на ARM и она вдруг осталась без контрактов и решила продаться, то Intel может оказаться бедновата для получения над ней контроля. У Apple денег даже в кэше 75 миллиардов против 16 у Intel.
это ARM, а не что-то неведомо-новое, т.е. его архитектура прекрасно известна и доступна всем желающим.

Так и x86_64 всем известен и доступен всем желающим по лицензии. Проблем нет. Вот только архитектура != ядро или процессор под нее. Разница примерно как между алфавитом определенного языка и его грамматикой и написанной с помощью этого алфавита на этом языке книгой.
Знание языка необходимо, но совершенно недостаточно для того, чтобы написать книгу. Ну то есть что-то конечно можно изобразить, но до бестселлера этому произведению будет далековато.
Будет. Intel вот пыталась пару лет назад и в модемы, и в процессоры мобильные. Слилась, не смогла.

Не "пару лет", а побольше. И ушла не потому, что "не смогла", а потому, что эти рынки — низкомаржинальные. Затрат много, конкуренция высокая, прибыли (относительно десктопных и серверных процессоров) — низкие.


Реальная очевидная проблема у Интела сейчас одна — они впервые за очень долгое время потеряли лидерство в техпроцессе, и никак не могут его наладить. На этом фоне рассуждать о том, что у Эппла или АМД архитектура лучше, а Интел якобы "не смог" — занятие так себе.

Разве в x86_64 не всё запатентовано перепатентовано? И патенты никому не продаются. Или это речь шла про х86?
Только то, что мы называем x86_64 было разработано AMD. и оно вообще-то называется AMD64.
Интеловская 64 разрядная технология (IA-64) вообще не взлетела.
Не взлетела массово, потому что предлагала слишком радикальный подход, ведущий к продуктивности за счёт отказа от легаси. Что сейчас всё равно происходит.
Впрочем, ограниченную распространённость получила и до сих пор используется, но как раз наступает EOL.
Если уж HP и Intel, потратив огромное количество ресурсов на разработку технологии, решили от неё отказаться, значит есть другие варианты.
Будет. Intel вот пыталась пару лет назад и в модемы, и в процессоры мобильные. Слилась, не смогла.

Чужая ниша. А персоналки и сервера — свое поле. Разница очень большая. Тут уже и маркетинг налажен, и рынок приложений трилионный.

А на счет покупать — во-первых могут и не продать

Купить болванку. А сделать ее быстрой, если дело только в наборе команд, должны суметь, иначе грош им цена.

Даже компанию для этого купили в начале нулевых

Вот про это я и говорю.

У Apple денег даже в кэше 75 миллиардов против 16 у Intel.

Не такая и разница. Да и не деньгами едиными. Apple даже светоча своего Джобса умудрилась просрать в свое время, опыт есть.

Вот только архитектура != ядро или процессор под нее.

Конечно, но раз apple не стала пилить свой x86, а пошла на кардинальную смену набора команд и выбрала arm, значит архитектура решает, не так ли? И если новый камень реально такой крутой, как о нем тут пишут, значит и интел может поменять архитектуру и получить примерно то же самое.
но раз apple не стала пилить свой x86, а пошла на кардинальную смену набора команд и выбрала arm, значит архитектура решает, не так ли?

Конечно решает, x86 не продаётся, а больше разумных вариантов, кроме арма не было, вот и всё решение.

Еще наработки под мобильные армы были.

Да и вообще, они этот арм основали :)

Почему это? Лицензию х86 может купить любой желающий с тем лишь ограничением, что компания должна быть из США. Apple вполне подходят под это требование.
Я думаю, что выбор x86 <-> ARM был в другом — Apple уже давненько сама разрабатывает процессоры для своих телефонов и увидела, что это у неё успешно получается + провела моделирование быстродействия для десктопных задач. Результаты её устроили и поэтому она решила перевести на них Маки.
Почему это? Лицензию х86 может купить любой желающий с тем лишь ограничением, что компания должна быть из США. Apple вполне подходят под это требование.

Откуда такая уверенность, что лицензия на x86 вообще продаётся? :)

Потому-что иначе это ограничение конкуренции, а там такое очень сильно не любят. Так что там или ты её не продаёшь вообще никому, или пилишь разумные условия лицензии и продаёшь всем, кто подходит им соответствует. Там же недавно Qualcomm нагнули (или дело ещё в процессе) за такое.

Хорошо вам жить в мире иллюзий, где всё просто и понятно, как у вас в комментарии.


Так что там или ты её не продаёшь вообще никому, или пилишь разумные условия лицензии и продаёшь всем, кто подходит им соответствует.

Ну вот x86 никому и не продаётся, нет никаких "разумных условий лицензии", нет никакой лицензии вообще, на планете три компании, кроме интела, которые могут делать x86 процессоры, потому что они исторически добились (разными путями) разрешения от Интела.


С другой стороны, многие патенты уже истекают, так что в принципе любой может начать делать что-то вроде Пентиума 2, но смысл? :)

AMD, VIA, а третья какая?

DM&P Electronics с их процессорами Vortex86 для embedded оборудования. Последнюю на текущий момент модель процессора они выпустили в 2018 году.

Даже не слышал о такой.
Конечно решает, x86 не продаётся
эм, x86 может и продаётся (ну, как минимум есть ещё виа с правами на процы с x86), не продаются какие-нибудь новые расширения и x64. Интел и АМД их крослицензировали друг другу.
Хотя можно вспомнить, что АМД продала зен1 китайцам без блоков шифрования. Не знаю, имеют ли они право теперь что-то выше сделать на основе.

Загуглите как via получили права на x86, там была совсем не продажа :)

Ну китайцы то для личных процов таки купили прям архитектуру у амд вообще, не знаю на каких условиях)

Формально, там по сути AMD производит свои ядра.

Формально, там совместное предприятие AMD с китацами, как и в случае VIA с Zhaoxin.
И совместному была передана именно лицензия на разработку на основе zen без блоков криптографии, которые были заменены на блоки для работы с китайскими алгоритмами шифрования. Zen2 уже не разрешили передавать.

Да, в википедии так и написано

Купить болванку. А сделать ее быстрой, если дело только в наборе команд, должны суметь, иначе грош им цена.

Так дело же совершенно НЕ в наборе команд. Дело в том, как реализовано выполнение этих команд.
Вот про это я и говорю.

Поглощения компаний ради готовых компетенций — нормальный путь развития крупного бизнеса. В этом нет ничего удивительного. Посмотрите сколько компаний поглатила та же Intel — newsroom.intel.com/tag/acquisition/#gs.l7gq90
Большая часть из них была про микроэлектронику. Получается там тоже одни маркетологи сидят?
Apple даже светоча своего Джобса умудрилась просрать в свое время, опыт есть.

Причем тут конкретный человек и компания?
Конечно, но раз apple не стала пилить свой x86, а пошла на кардинальную смену набора команд и выбрала arm, значит архитектура решает, не так ли?

Нет, не так. Apple была в соучеридителях ARM, много лет разрабатывала мобильные процессоры на этой архитектуре и теперь пришла в другой сегмент. Они же не вчера этим занялись. Как раз те самые компетенции. Всмысле они научились очень хорошо работать в рамках этой архитектуры. Вероятно даже лучше, чем AMD/Intel в рамках своей х86 и лучше, чем Qualcomm в рамках той же ARM. Если бы дело было только в архитектуре, Qualcomm, Samsung, Huawei и еще пара десятков компаний помельче давно бы пришели и нагнули парочку Intel/AMD.
Известно, что лицензией на архитектуру Arm64, на которой построены все современные ARM процессоры (то есть возможность заглянуть вообще везде и во все детали и крутить ее как надо, а не купить готовые ядра в формате black box), есть как минимум у Apple, Samsung, Applied Micro, Broadcomm, AMD(да да), Cavium, Huawei, Nvidia.
У Intel есть лицензия на Arm32, есть ли она на Arm64 неизвестно, по крайней мере в открытых источниках я не нашел, но у них в линейке есть процессор Intel Movidius, а он на Arm64. Возможно ядра лицензированы, подробностей о нем мало. Процессор этой линейки ставился в Intel Neural Compute Stick.
Вообще, ARM как системе команд уже хрен знает сколько лет. Весь мобильный рынок на ней. Кое-кто экспериментирует с разработкой процессоров для более серьезных задач (Amazon, к примеру). Но это все совершенно не значит что интел или кто-то еще может пойти, взять эту систему команд и что-то внятное на ней изобразить. Архитектура достаточно удачная сама по себе, да. Но есть и другие, и даже открытые (OpenRISC). Что-то никому это особо не помогает делать какие-то особо быстрые и эффективные процессоры. Равно как и многолетняя разработка процессоров на ARM не помогает той же Qualcomm сделать такой-же быстрый и эффективный процессор, как M1.
Так дело же совершенно НЕ в наборе команд. Дело в том, как реализовано выполнение этих команд.

Дело в наборе команд. RISC при прочих равных всегда уделает CISC. Собственно и у Интела CISC уже давно аппаратно эмулируется поверх RISC‐ядра. Убираем слой эмуляции — получаем более холодные камни с большими возможностями для оптимиации компилятором.
Вопрос в том, какой оверхед на эту эмуляцию в процентах. Если 5%, то можно и забить на переписывание всего и вся.
Так оверхед не только в производительности, но и в энергопотреблении, поскольку этот слой работает на каждом такте процессора. И это сильно понижает максимальную планку быстродействия процессора. А у Apple тот же слой эмуляции сейчас перенесёт в comipile time по сути в виде Rosetta 2.
Дело в наборе команд. RISC при прочих равных всегда уделает CISC

Но никаких прочих равных нет :)


Как и нет никакой "эмуляции", которую можно взять и убрать.

Да, Intel уже отстал и по техпроцессу, что делает картину ещё более драматичной. В случае с x86, конечно, нельзя убрать, но есть ARM, где уже убрано.
Intel по техпроцессу отстал только у маркетологов, на деле же их 14нм+++ по плотности не намного хуже 7нм от tsmc.
youtu.be/1kQUXpZpLXI?t=782

А если в транзисторах на мм^2? :) А то у вас одни маркетологи других перебивают и всё.

Intel 10 nm and TSMC 7nm processes both produce dies with approx 90 million transistors per sq millimetre

Для 14+++ поищите данные сами.

На 50% меньше, как и положено. Даже в вашем ролике через 30 секунд этот график есть. А то, что 7нм TSMC и 10нм Интела более-менее эквивалентны — это широко известно.


Только разговор-то у нас о процессоре на 5нм и эти шаги являются существенным прогрессом, несмотря на всю сложность (комплексность) стоящих за ними изменений по разным параметрам, трудно сводимую к одной единственной цифре.


Поэтому сравнивать массовые процессоры Интел на 14+++ (да хоть двадцать плюсов) и 5нм Apple — трудно, между ними пропасть в технологиях, а не только в маркетинге.

Убираем слой эмуляции — получаем более холодные камни с большими возможностями для оптимиации компилятором.

Мсье теоретик? Где все эти "более холодные камни с большими возможностями по оптимизации" были, пока Интел по техпроцессам не отставал? :) x86 за время своего существования повыбивал самые разные "более эффективные" RISC-процессоры из разных ниш, так что объективная реальность несколько отличается от "сделаем без эмуляции — получим преимущество".

Где все эти «более холодные камни с большими возможностями по оптимизации» были, пока Интел по техпроцессам не отставал?

В телефонах и планшетах.

x86 за время своего существования повыбивал самые разные «более эффективные» RISC-процессоры из разных ниш

При этом с худшим техпроцессом чисто из‐за преимуществ x86 архитектуры, наверное. (нет)
В телефонах и планшетах.

Вы ещё стиральные машины забыли. Ещё раз — рынок мобильных процессоров, в отличие от рынка настольных и особенно серверных, низкомаржинальный. Есть некоторая разница между "проиграли технологически" и "не захотели сильно вкладываться из-за низкой нормы прибыли".


При этом с худшим техпроцессом чисто из‐за преимуществ x86 архитектуры, наверное.

Разумеется, нет, потому что внешняя архитектура команд с определенного момента вообще перестала играть существенную роль в производительности. О чем я вам и говорю.

А я говорю, что играет. Убираем CISC‐декодер, работающий на каждом такте → снижаем TDP → получаем возможность сделать более производительный процессор.

Не настолько. В CISC-декодер сложнее вносить изменения и он имеет больше пространства для нежелательных сайд-эффектов в силу сложности, но транзисторного бюджета и TDP он в товарных количествах не потребляет.


А вот то, что у него L1I 192kB и L1D 128kB и 12 MB shared L2 — вносит огромный вклад в производительность.

Но тогда почему у Intel не получилось в мобильные процессоры даже тогда, когда у них ещё было преимущество по техпроцессу?

Тот же АЛУ может какое‐то время не использоваться, и статическая память кеша не потребляет, пока в ней не меняются данные, а вот декодер должен отработать на каждом такте.

Но даже если модифицировать схему: убираем CISC‐декодер → снижаем сложность и избавляемся от сайд‐эффектов → упрощаем внесение изменений → делаем более производительный процессор.

Всё равно получается, что и таким образом архитектура набора команд играет существенную роль в производительности.

У них, как бы, довольно долго вполне получалось.
Тот же Haswell/Broadwell были крайне удачны.
Да и нельзя забывать, что M1 пока не поступили в массово в реальную эксплуатацию, и еще не понятно, какие у них по факту узкие места. Тот же RPi 4 на десктопе — не очень торт, а потребляет наравне с Atom.


Убрать декодер нельзя, ибо совместимость. Можно только добавить еще регистров и завести отдельный набор команд — но это новшество не будет востебовано еще долго и пока оно не будет востребовано, его обслуживание будет стоит транзисторного бюджета и tdp (даже если его немного совсем) которые можно было бы расходовать иначе.
Например, на раширение L1.


Так что это очень сложный вопрос даже на взгляд непрофессионала.

Убрать декодер нельзя, ибо совместимость

Это я про концептуальное «убрать», то есть перейти на RISC ISA, чтобы CISC‐декодер не требовался. Понятно, что в самих x86‐процессорах декодер не убрать, а вот перейти на ARM можно, который сразу RISC.

Ну, собственно, Apple это процесс и запустила. Посмотрим, взлетит или нет.

и статическая память кеша не потребляет, пока в ней не меняются данные

Внезапно, с подключением, токи утечки составляют сейчас чуть ли не основную долю потребления процессоров, а кеш, как самая большая часть — потребляет значительную часть их них :)

И всё же они пока достаточно малы, по сравнению с затратами на переключение КМОП‐схем, иначе уже невозможно было бы уменьшать техпроцесс.

Половина — это достаточно мало? :)
image


Хотя все такие картинки закончились лет десять назад, надо полагать тогда что-то произошло, что изменило тренды радикально? Слишком глубоко копать ради спора в комментариях.

Это суммарные утечки по всей микросхеме. При этом лишь малая часть вентилей переключается за такт, но они набирают вторую половину. Это значит, что вентиль в момент переключения расходует значительно больше энергии, чем в простое, иначе КМОП‐схемотехника была бы не нужна.

Какой процент транзисторов в среднем переключается за такт? (я правда навскидку не нашёл)

Без понятия какой процент, но понятно, что небольшой, иначе процессор бы перегрелся, либо смысла в КМОП бы не было, и можно было бы делать сверхбольшие n‐МОП схемы.

И это было бы замечательно, потому что можно делать очень быстрые n‐МОП транзисторы на германии, но из‐за высокого потребления в статике сверхобольшие интегральные схемы n‐МОП увы невозможны.

Декодер работает на каждом такте, если процессор что‐то делает. А вот АЛУ уже нужны не всегда. Регистры тоже простаивают, пока в них лежат промежуточные данные вычеслений. Кеш ещё реже работает.

Поэтому и тротлинг работает — уменьшение частоты существенно снижает энергопотребление.
А я говорю, что играет. Убираем CISC‐декодер, работающий на каждом такте → снижаем TDP

А вы не говорите, а маленький расчет сделайте — какую часть чипа занимает декодер и сколько потребляет энергии в сравнении с остальным. Вот тогда будет что-то похожее на предметный разговор.


Но тогда почему у Intel не получилось в мобильные процессоры

Я вам уже ответил, но вы проигнорировали — причины маркетинговые, а не технические. С технической точки зрения там всё прекрасно получалось.

А вы не говорите, а маленький расчет сделайте — какую часть чипа занимает декодер и сколько потребляет энергии в сравнении с остальным. Вот тогда будет что-то похожее на предметный разговор.

При этом вы почему‐то такой маленький расчёт не сделали, который показал бы, что не влияет.

Так что может влияет, а может и не влияет, но есть ещё одна гипотеза, по которой RISC позволяет сделать более производительные процессоры: habr.com/ru/post/528658/?reply_to=22333998#comment_22333328

Сколько вклад каждой из них посчитать, конечно, возможно, но у меня ресурсов для этого, к сожалению, недостаточно.
Конечно, но раз apple не стала пилить свой x86, а пошла на кардинальную смену набора команд и выбрала arm, значит архитектура решает, не так ли?

Apple делает ARM процессоры уже 17-лет, причем последние 10 лет на собственной микроархитектуре, так что ни на какую смену набора команд она не шла.
Весь грешный инжиниринг делается купленными на стороне руками и головами.

Простите, сотрудникам интел не платят, или что означает «купленными на стороне»?
повернуть в сторону и разработать нечто похожее для них большой проблемой не будет
Вы вообще представляете себе цикл разработки процессора с нуля? Вы понимаете, что от первых идей до релиза проходит 3-5 лет (в свете чего, кстати, хардварные косяки иногда исправляются через 1-2 поколения, а не сразу, ибо банально нельзя «повернуть в сторону» посреди процесса, не потеряв миллионы долларов, если не десятки-сотни оных), которые конкуренты на жопе не сидят, а тоже что-то делают? И это на знакомой архитектуре.

Нельзя просто взять и пересадить инженеров-хардварщиков, которые собаку съели на интеловском х86, на АРМ, и сказать «сделайте конфетку». Это так не работает. Это другие компетенции. Из тракториста не получится сразу сделать гонщика Формулы-1.
использовать его в своих x86-совместимых процессорах, потому как нет разницы, поверх чего будет работать транслятор команд.

Кроме того, что Эпл им его никогда не отдаст для использования в их процессорах?

А их никто и просить не будет. Потому что это ARM, который продается всем желающим, и эплу (слава всевышнему) не принадлежит. Или, думаете, у амд не хватит мозгов перевести готовое ядро на новейший техпроцесс и заказать его изготовление у той же TSMC?

Посмотрите внимательнее что именно продаёт ARM и что именно позволило Эплу добиться производительности своих процессоров — это разные вещи, никаких готовых ядер как у Эпла в продаже нет.

что именно продаёт ARM

Ядра продает.

что именно позволило Эплу добиться производительности своих процессоров

Самое главное, что удалось сделать эплу, — перекупить мощности TSMC по производству камней по лучшему техпроцессу. На 14 нм все было бы заметно грустнее.

ARM продает много всего. В том числе лицензии на набор команд и на архитектуру.
Тае вот. Ни Apple ни Qualcomm не покупали ядра. Они купили лицензии на архитектуру и разработали свои ядра.

Они купили лицензии на архитектуру и разработали свои ядра.

Отлично. И как из этого следует, что условная AMD не может сделать то же самое, раз набор микрокоманд определяет такую большую разницу, как тут пишут?

Если и пишут (но я не вижу где), то просто ошибаются, решает реализация микроархитектуры, а набор команд даёт в лучшем случае десяток процентов разницы (и то спорно).

Набор команд влияет на возможности реализации микроархитектуры. В Intel уже давно пришли к выводу, что проще сделать RISC‐ядро, а поверх него сделать аппаратный эмулятор x86. Так вот использование RISC архитектуры набора команд позволяет выбросить этот эмулятор, который работает на каждом такте, попутно давая больше возможностей для оптимизации компилятором.
Вы не разграничиваете RISC-ядро и RISC-процессор, а зря. Использование RISC архитектуры набора команд процессора раздувает код программы до совершенно избыточных размеров, а этот код нужно загружать из оперативной памяти в процессор в рантайме. И здесь как раз очень желательно, что бы он был покороче. А уже на процессоре декодер превратит его в набор упрощенных команд, которые можно будет исполнить. При этом превращения эти декодер делает асинхронно, и на длиной дистанции на быстродействие не влияет. Не согласны — попробуйте написать frontend-bound код под x86 архитектуру.
Использование RISC архитектуры набора команд процессора раздувает код программы до совершенно избыточных размеров

Это больше похоже на VLIW… где-то попадалась сравнительная диаграмма плотности кода: она для ARM/x86_64/RV64 примерно одинакова, но RISC, как правило, имеет компактную версию.
image
Ссылка на статью
Если, конечно, не брать за образец MIPS или Freescale.

Во-первых, архитектуру x86-64 не назовешь удачно спроектированной — она вынуждена поддерживать legacy-режимы работы; если я не ошибаюсь, прелести одно-двух байтных команд по большей части недоступны уже даже в 32-битном режиме, про 64-битный нечего и говорить. Во-вторых — знаю, мнение непопулярное, но ИМХО сейчас в ARM от RISC осталось немного больше, чем просто название.

Собственно, непонятно как


Использование RISC архитектуры набора команд процессора раздувает код программы до совершенно избыточных размеров

Армы да, имея RISC-основу они взяли некоторые черты CISC.

Если использовать лишь тривиальные команды, очевидно количество команд, нужных для кодирование алгоритма, будет больше, чем при использовании нетривиальных. При этом мы также будем вынуждены кодировать все команды одинаковым количеством байт, вместо того, что бы использовать меньше байт на популярные команды и больше на экзотические. Поэтому я считаю, что условно идеально спроектированный CISC выиграет у условно идеально спроектированного RISC'а в размере программы.

На практике в RISC реализуются разные сокращенные подмножества, а для CISC такое невозможно, так как он уже состоит из подмножеств. Причем, оптимальность изначальной нарезки бит в инструкциях определяет сложность дальнейшего расширения. А самое главное, нельзя просто взять и выкинуть некоторое подмножество (на самом деле иногда можно, но чтобы выкинуть что-то бесполезное сначала надо ввести что-то бесполезное, как было с командами мониторинга в Pentium, емнип, эволюционировавшими в префиксы AMD64).
Отчего CISC обречен пухнуть, а RISC — быть гибким и уменьшаться.

Не очень понял, о чем Вы. Что значит сокращенные подмножества? И почему выкинуть что-либо из CISC проблемнее чем из RISC?
сокращенные подмножества

Thumb, Thumb-2, RV64C, RV32C — вот это вот все.


почему выкинуть что-либо из CISC проблемнее чем из RISC

Ну вот смотрите: пилите вы свой идеальный передовой 16-битный процессор.


  • У вас есть некоторое количество базовых операций которые вам надо выполнять наиболее часть: загрузка, сложение/вычитание, сдвиг, условный переход, ротация возврат. Вы хотите сделать их как можно короче, одно байтовыми.
    Кроме этого, у вас еще может быть i8/i16 операнд и косвенная адресация — все это должно влезть в инструкцию. А еще надо адресовать регистровый файл. Допустим, он будет состоять из 32 байтовых GPR, которые объединяются попарно для 16-битных операций.
    CISC:
    Адресуя 32 регистра пятью битами, вы можете реализовать всего 2³=8 команд. Сложение, вычитание и сдвиг вправо и влево в знаковом и беззнаковом вариантах, ротация и условный переход — это уже 10!
    Ок, режем количество GPR до 8, освободим аж два бита для команд, потребуется всего три бита для кодирования регистра и можно сделать больше коротких однобайтовых инструкций. Теперь вы реализовали загрузки и сохранение и у вас есть даже задел на будущее в виде еще 16 (для простоты счета) свободных опкодов — круто!
    При этом короткие инструкции всегда неявно подразумевают работу с R0/R1R0.
    RISC:
    Ок, используем два байта для команды. Адресуем Op0 и Op1 младшими 10 бит для команд, требующих два операнда, для остальных используем Op1 как расширение опкода. Immed-операнд размещается следом за командой, расширеный до 16 бит.
    16-тибитные команды состоят из флага в 15 бите, 7 бит опкода (даже больше, чем у 8-мибитных) и двух нибблов для Op0 и Op1.

Результат:
Пока что системы команд обоих архитектур достаточно близки, и декодируются простой таблицей.
Какие смешные эти RISC, они на любую инструкцию тратят на байт, а то и три, больше! А ведь его из памяти прочитать еще надо!


  • Добавляем косвенный переход и индексную адресацию.
    CISC
    Оукей, у нас в условном переходе используется 4 бита под номер флажка, двойных регистров у нас всего 4 — это всего 8 опкодов.
    Черт, нам бы еще пару индексных регистров, а то ворочать массивы будет очень тормозно! Добавим еще опкоды… для всех операций, только теперь индексные… Нам нехватает опкодов — вводим двухбайтовую кодировку, пусть все опкоды 0xCx будут префиксами!
    RISC
    Вводит два новых опкода в 16-тибитную часть.

Результат
CISC: ладно, я все равно местами быстрее.


  • Добавляется FPU…
    CISC
    Так, ребята помните, какая жопа у нас случилась в прошлый раз? Давайте теперь не будем маяться дурью и сразу сделаем команды для FPU — префиксными.
    RISC
    Добавляет еще несколько опкодов.

Результат
На 8-мибитной шине CISC показывает небольшое преимущество, на 16-бит они идут ноздря в ноздрю.


  • Итак, парни, у нас новинка: 32 бита! У нас много работы!
    CISC
    Окей. Парни, во-первых, давайте расширимся: стыдно в наше-то время со всего 8 GPR ходить, сделаем их 16.
    Кроме того, у нас уже большой, сложный декодер, давайте не изобретать велосипед, а просто его переиспользуем. Отпрефиксим новые инструкции, у нас еще этих префиксов полдюжины! За работу!
    RISC
    Невозмутимо расширяет командное слово до 32 бит. И все GPR. Теперь можно адресовать одновременно 3 GPR одной командой.
    Добавляет условное исполнение.

Результаты:
CISC страдает на ветвлениях и переходах, но не подает виду.


  • Гипервизор …
  • SIMD
  • Виртуализация…
  • Еще SIMD
  • 64-бит

ну, вы же уже догадались, да?

Ну да, ну да, давайте спроектируем CISC в точности как x86-64, что бы унаследовать все его косяки. Ни в коем случае не утрамбовываем в один-два байта полезные инструкции, лучше запихнем туда операции над 8-16 битными операндами — вот будет счастье. Я понимаю, что в x86 чего только нет, но уж сферический процессор в вакууме можно же спроектировать хотя бы по современным меркам.
Вообще по этому поводу у меня была мысль ввести механизм эпох. По сути — что бы в специальном регистре можно было задавать разные режимы декодирования команд, и программы могли использовать такую упаковку, которая им по душе. Правда, не уверен, что зависимость декодирования от данных в регистрах может быть реализована без больших накладных расходов. Да и вообще, даже на x86 упереться во фронтенд могут не только лишь все, так что скорее всего оно того просто не стоит.

Это истории реальных RISC и CISC )


Во-первых, все свойственное CISC многообразие опкодов, структуры инструкций и регистров, оно не от хорошей жизни, а от кроилова, приводящего к сиюминутной выгоде — и попадалову в будущем.


Во-вторых, по мере развития CISC обратно эволюционирует в сторону RISC (увеличивает регистровый файл, лишает особенные регистры особенного статуса — что дополнительно приводит к росту сложности системы команд) а RISC приобретает некоторые черты CISC (у некоторых GPR появляются выделеные роли).


В результате через лет 20÷30 CISC вынужден поддерживать огромным, трудноотлаживаемым и труднооптимизируемым декодером все исторические наслоения наборов команд развесистого префиксного дерева, с самого своего появления — одна и та же ассемблерная мнемоника может быть реализована несколькими ассемблерными кодами, а современные компьютеры до сих пор стартуют в 16-битном режиме; в то время как RISC имеет простые и быстрые табличные декодеры для каждого поддерживаемого набора команд и волен не тащить с собой все легаси.


Идеальная система команд CISC, к которой стремится, например, x86 — это RISC, но отягощенный x86-legacy.

Это истории x86 и ARM (они кстати обе CISC, просто напоминаю).

Опять же, Вы привязываетесь к конкретным архитектурам, а я оцениваю CISC и RISC концептуально. Это не CISC, а x86 тащит легаси из неоптимально спроектированных команд, CISC сам по себе к этому не обязывает. И это в x86 нет упрощенных наборов команд с разными декодерами — в самой концепции CISC я не вижу на это никаких ограничений.

В общем, у Вас аргументация вида «когда-то придумали передавать данные по сети в виде цифрового сигнала, потом появился веб, и вот, спустя 30 лет, он как-то не очень подходит для современных задач — значит надо было передавать сигнал в аналоговом виде».
истории x86 и ARM … они кстати обе CISC

ARM (Advanced RISC Machine)


У них есть одно важное отличие: они выжили и распространились настолько, что стали конкурировать друг с другом.
И это отлично иллюстрирует разницу Complex и Reduced систем: они обе начиная с одного и того же ставят разные цели — и получают разные результаты.


Это не CISC, а x86 тащит легаси из неоптимально спроектированных команд

Они были крайне оптимально спроектированы и востребованы на момент разработки.
Сейчас те их фичи не востребованы, но продолжают висеть в legacy.


CISC сам по себе к этому не обязывает

Вы знаете, техника развивается и требования меняются.
В истории x86 было три поворотных момента, когда можно было все переиграть и сделать как у взрослых.


  • в 386, который ввел 32-бит, но использовался как быстрый 286
  • в 486, который получил RISC-ядро (наверное, от идеальности CISC, да? нельзя быть слишком идеальным)
  • в AMD64

Один раз — случайность, два раза — совпадение, три — уже система.
И этот выбор делали не комментаторы на хабре отнюдь


Просто вещи так устроены: либо вы делаете complex, но извлекаете прибыль сейчас, чтобы расплачиваться в будущем, либо KISS.


Если вы продумываете march&ISA на два шага вперед — вы делаете RISC, если вы извлекаете профит сейчас — у вас получится CISC. That's all.


В общем, у Вас аргументация вида

а вот это уже лежит на тонкой грани между wishful thinking и подменой…

ARM (Advanced RISC Machine)
Можно называть утку медведем, но она все равно будет выглядеть как утка и крякать как утка.
они выжили и распространились
Только вот x86 распространился на персоналках и серверах, что повлекло за собой проблему обратной совместимости, а ARM — на single-program девайсах и мобилках с JVM. Но проблемы с легаси на x86 разумеется исключительно из-за CISC.
получил RISC-ядро (наверное, от идеальности CISC, да? нельзя быть слишком идеальным)
Уже тоже не разграничиваете RISC-ядро и RISC-процессор? Я нигде не говорил, что нужно исполнять CISC-команды в том виде в каком они есть.
Если вы продумываете march&ISA на два шага вперед — вы делаете RISC, если вы извлекаете профит сейчас — у вас получится CISC
А если CISC с разными декодерами и возможностью переключаться от одного к другому?
а вот это уже лежит на тонкой грани между wishful thinking и подменой…
А натягивание ARM-совы на RISC-глобус — это другое.
Можно называть утку медведем, но она все равно будет выглядеть как утка и крякать как утка

Знаете


А натягивание ARM-совы на RISC-глобус — это другое

А AVR — тоже не RISC?
Вы заставляете этого цитировать самого себя:


по мере развития CISC обратно эволюционирует в сторону RISC (увеличивает регистровый файл, лишает особенные регистры особенного статуса — что дополнительно приводит к росту сложности системы команд) а RISC приобретает некоторые черты CISC (у некоторых GPR появляются выделеные роли)

Кроме того, вам всегда, независимо от микроархитектуры, необходимо иметь выделенный command counter, flags и stack pointer (если стек используется), data stack pointer (если есть стек данных, отдельный от стека адресов возврата); если используется сегментная модель памяти или изоляция приложений — то еще и регистры сегментов.
Кроме того, операции с неявным аккумулятором, который еще и может быть физически отдельным, для ускорения таких операций, подсоединенным прямо к ALU, но явно адресуемым как r0, добавляет, как это ни удивительно, производительности.
Разумеется, эти технические ньюансы накладывают свой отпечаток на ISA.


Поэтому какого-то там идеализированного полностью неспециалированного RISC в природе быть не может, так же как и идеально специализированного CISC.


Принципиальные отличия RISC — это большой регистровый файл равноправных регистров и простая регулярная система команд vs малое количество разнородных GPR и специальные регистры со специальными командами для обращения к ним.
И это различие — не догма, не божественное повеление, а условность, показавшаяся достаточно очевидной во время определения терминов.


А если CISC с разными декодерами и возможностью переключаться от одного к другому?

У вас уже — God Object, в виде декодера. Хотите добавить еще парочку?
Потому что первое C в CISC — это Complex. Сложно. Понимаете?
Complete оно станет тогда и только тогда, когда его перестанут производить.
Потому что тогда его перестанут дополнять.
Потому что полное не дополняется.


Что проще: реализовать пару альтернативных простых таблиц трансляции, или несколько God Objects?


Ладно еще реализовать, их же подерживать и развивать нужно


UPD:


Уже тоже не разграничиваете RISC-ядро и RISC-процессор?

А вы можете точно сказать, где лежит граница между RISC-ядром с CISC-декодером и RISC-процессором с CISC-сабсетом, если кроме CISC-декодера у них все остальное — одинаковое?

И это различие — не догма, не божественное повеление, а условность, показавшаяся достаточно очевидной во время определения терминов.
А, ну я оперирую терминами как они есть, а Вы подстраиваете их под ARM. Ладно, пусть будет так.
Что проще: реализовать пару альтернативных простых таблиц трансляции, или несколько God Objects?
Тут расчет на то, что от того, что God Object'ов несколько, они будут не такие уж и God.
А вы можете точно сказать, где лежит граница между RISC-ядром с CISC-декодером и RISC-процессором с CISC-сабсетом, если кроме CISC-декодера у них все остальное — одинаковое?
В моем понимании терминологии RISC-процессор с CISC-дополнениями — это уже CISC. То есть был такой строгий и тривиальный RISC, добавили сложные команды, добавили поддержку укороченных команд — все, стал CISC. Но, возможно, это действительно неправильное понимание. Хотя подстраивать термины под хотелки ARM — тоже выглядит странно.
Вы подстраиваете их под ARM. Ладно, пусть будет так.

Этот говорил об абстрактном RISC. RISCV тут подойдет ничуть не хуже, но у него история короче, и он не настолько известен.


Тут расчет на то, что от того, что God Object'ов несколько, они будут не такие уж и God.

А зачем вообще делать God Object?


То есть был такой строгий и тривиальный RISC, добавили сложные команды, добавили поддержку укороченных команд — все, стал CISC.

Эмм… то есть, даже наивная реализация гарвардской архитектуры и банальная оптимизация r0 — уже делает CISC?
Ну и ну и ну.
Это ж тогда Power и VLIW тогда — тоже CISC. И введение не то что FPU/SIMD, а даже стека и инструкции call/ret тоже делает CISC %)


Хотя подстраивать термины под хотелки ARM — тоже выглядит странно

Поэтому надо подогнать все под x86.
Разве наши слоны уже летают?

А зачем вообще делать God Object?
Я могу сказать для чего делать переменную длину команд — для оптимизации размера кода программы. А проблему того, что со временем одни команды становятся менее используемыми, а другие наоборот — решать введением нескольких типов декодеров, между которыми можно переключаться.
И введение не то что FPU/SIMD, а даже стека и инструкции call/ret тоже делает CISC %)
Э нет. FPU/SIMD/стек — имеют поддержку на уровне исполнительных блоков (ну или дополнительных кешей в случае со стеком). И команды эти нужны для того, что бы задействовать эти самые аппаратные возможности. А вот введение команд типа SSE-шных dpps и crc32, которые просто транслируются в набор элементарных математических инструкций — это уже CISC-элементы.
Поэтому надо подогнать все под x86.
Почему подгонять под x86? Он-то очевидно CISC по самое не хочу.
для оптимизации размера кода программы

Что очень актуально, пока вы работаете с 8-бит внешней шиной, менее актуально с 16 и совершенно неактуально с 32+.
И заодно приводит к проблемам при появлении кэша.
И требует сложного декодера.
Но позволяет урвать немного производительности, пока вы на 8/16-битной внешней шине.
И делается гораздо эффективнее RISC с сохранением всех их преимуществ.


(ну или дополнительных кешей в случае со стеком)

Нет, к кешам стэк не имеет никакого отношения.


А вот введение команд типа SSE-шных dpps и crc32

А что именно делает объединение часто используемых вместе команд в одну — CISC?
То так, если что, все математические операции эмулируются сложением, инверсией и сдвигом. Запретить RISC'ам MUL и FPU? Они же просто объединение длинной последовательности простых команд — CISC-элемент!


Почему подгонять под x86?

Вы последовательно подгоняете идеологическую (не доказательную) базу под "если в RISC есть хоть какие-то оптимизации, то это CISC". x86 просто характерный успешный представитель, ну и от RISC/CISC уже в глазах рябит. Можете читать как CISC.

Что очень актуально, пока вы работаете с 8-бит внешней шиной, менее актуально с 16 и совершенно неактуально с 32+.
Ну не знаю, мы точно не упремся в подгрузку кода с RAM на какой-нибудь простыне из арифметических инструкций на 0.1-0.2 такта каждая?
Нет, к кешам стэк не имеет никакого отношения.
Спутал с call/ret — в Intel'ах есть кеш точек возврата, который с ними взаимодействует.
То так, если что, все математические операции эмулируются сложением, инверсией и сдвигом. Запретить RISC'ам MUL и FPU?
Срочно запретить, если нет аппаратных умножителей чисел с плавающей точкой. Если есть — так же срочно разрешить.
Вы последовательно подгоняете идеологическую (не доказательную) базу под «если в RISC есть хоть какие-то оптимизации, то это CISC».
Тут смотря какие оптимизации. Если что-то вроде «ой а тут надо сделать набор инструкций уменьшенного размера» или «ну нарушим разок load/store принцип, и что с того» — то да, подгоняю.
Ну не знаю, мы точно не упремся в подгрузку кода с RAM на какой-нибудь простыне из арифметических инструкций на 0.1-0.2 такта каждая?

Как насчет 15-байтных инструкций? Это почти 4 двойных слова, или почти 8 инструкций RV64C.


Про подгрузку данных в какой-нибудь AVX можно вообще не вспоминать, там объемы будут еще больше.


в Intel'ах есть кеш точек возврата, который с ними взаимодействует

Это старая оптимизация гарвардских RISC — локальный буфер на несколько точек возврата. Подразумевается, что несколько возвратов подряд невозможны, поэтому небольшой буфер может хранить несколько последних точек, и отлаженно выпихивать их в стек/подтягивать обратно.


Срочно запретить, если нет аппаратных умножителей чисел с плавающей точкой. Если есть — так же срочно разрешить.

Ладно, а с перехватом не реализованных в данной версии инструкций и их эмуляцией что делать? А с микрокодом?


Если что-то вроде «ой а тут надо сделать набор инструкций уменьшенного размера»

Осталось убедить полмиллиона квалифицированных инжеренеров, разрабатывающих процессорные архитектуры, компиляторы и прочее, что ваше мнение единственно верное, ага.


UPD:
Кстати, а чем альтернативный набор команд отличается от команд FPU/SIMD, которые вы так любезно разрешили? В железе он реализован.

Давайте по пунктам:
Фиксированная длина машинных инструкций (например, 32 бита) и простой формат команды.
Ну то есть с момента появления Thumb ARM RISC'ом не является.
Специализированные команды для операций с памятью — чтения или записи. Операции вида Read-Modify-Write отсутствуют.
В целом ARM соблюдает это правило, но он ведь еще и atomic операции поддерживает, так?
Большое количество регистров общего назначения (32 и более)
Тут да, хотя по этому правилу многие архитектуры подойдут.
По четвертому ничего сказать не могу, пятое не очень понял — оно предполагает, что, к примеру, TLB должна быть реализована полностью софтварно? Вот это правило уже кандидат на объявление устаревшим.

Вот так, в моем понимании, и получается, что ARM — не RISC. Что я упускаю?
Ну то есть с момента появления Thumb ARM RISC'ом не является.

С момента появления RV32C и RV64C — RISCV перестал быть RISC?


Сокращенные наборы команд исполняются в отдельном режиме процессора, работающем с одной, отличной от дефолтной, таблицей трансляции команд. Команды из дефолтной таблицы вызывают UB.
В рамках текущего набора команд все струтура командного слова продолжает оставаться регулярной.
Разницы между поведением процессора даже меньше, чем между привилегированным и непривилегированным режимами. Просто другой Instruction Set.
Если про распихивание immed в случайные дырки, то это в Thumb артефакт, решающийся банальным ремультиплексированием, возможно хардварным.


но он ведь еще и atomic операции поддерживает, так?

Некоторые вещи обязаны быть atomic.
Скажем, рестартовать загрузку/выгрузку может быть непросто, если речь идет о прерывании, а не об исключении обработки виртуальной памяти.


По четвертому ничего сказать не могу
пятое не очень понял

Это пример для DEC Alpha.
Там еще везде используются "характерно", "типично", и т.д.
То есть, ни один из этих признаков не является обязательным.


TLB должна быть реализована полностью софтварно?

Это ж аппаратный буфер. Вот обработчик исключений может быть реализован не закрытым микрокодом, а открытым кодом, использующим дефолтный набор команд.


Англовики немного более точна:


  • Uniform instruction format, using single word with the opcode in the same bit positions for simpler decoding
    Регулярный формат машинного слова
  • All general purpose registers can be used equally as source/destination in all instructions, simplifying compiler design (floating point registers are often kept separate)
    Все GPR доступны любой команде.
  • Simple addressing modes with complex addressing performed by instruction sequences
    Тут не совсем понятно, насколько простые режимы имеются ввиду. Возможно base + disp, без множителя и без двойной косвенной адресации.
    В любом случае, это проблема компилятора, программист даже на C не будет видеть тонкостей адресации.
  • Few data types in hardware (no byte string or BCD, for example)
    AAA, AAD, AAM, REPSB и прочий зверинец.

Как-то так.

Блин, да чего вы спорите-то? Разделение RISC/CISC во многом политическое, оно придумано авторами RISC, чтобы позиционировать себя отдельно (и выше), дескать, вот у нас какая продуманная архитектура, идеализированная, из первых принципов и поэтому лучше вашей переусложнённой традиционной.


Но это разделение было актуально 35 лет назад и практически сразу же начало трещать по швам. С тех пор и от строго одинакового размера инструкций отказались (тот самый Thumb) и от "радикально" упрощённого набора инструкций (сколько там сотен мнемоник? Меньше 500 или больше? Как насчёт инструкций по выполнению раунда AES или SHA? So much reducing) и прямой доступ к памяти давно забыт, а команды внезапно транслируются в микрооперации, с другой стороны CISC обзавёлся упрощёнными ядрами под капотом, реализующими часть из принципов RISC.


В дополнение, сабжевый процессор Apple вообще оснащён и целым спектром собственных инструкций (для ускорения МЛ например) и GPU и DSP и нейросетевыми ускорителями и без них теряет значительную часть своей привлекательности. Так близко к дизайн-философии рисков :)


Короче, сводить невероятно обширное пространство параметров и решений современных процессоров к одной расплывчатой характеристике, актуальной давно и созданой чтобы создать отличие, там где его больше и нет — совершенно невозможно и не нужно.

Ну так, об этом каджит сказал уже пару раз, только другими словами )


UPD:
Не совсем.


С тех пор и от строго одинакового размера инструкций отказались

В спецификации Thumb — одинаковые регулярные инструкции. Ткните пальцем, где там по вашему что-то не так.


от "радикально" упрощённого набора инструкций

Это OISC, вырожденный случай.


So much reducing)

А теперь читаем определение в вики. Ссылки были выше.


В остальном да, вы примерно правы.

Использование RISC архитектуры набора команд процессора раздувает код программы до совершенно избыточных размеров

Не до совершенно избыточных, а лишь незначительно, и не раздувает, а сокращает.

Ну, там все сложно, но скорее да, чем нет.

ARM ядра продаёт, но почему-то эти ядра не побеждают процессоры Интел направо и налево, а используются во всяких "энергоэффективных" (читай медленных) устройствах.


5нм АМД конечно купит в следующем году, но производить там будет совсем не арм-процессоры. Потому что в быстрых процессорах Apple от ARM'a только система команд (да и то с собственными расширениями), а всё остальное придумано на месте и повторить это — тоже самое, что самому процессор с нуля разработать, готовые ядра арма там не конкурируют или расскажите почему другие 5нм процессоры не такие быстрые :)

тоже самое, что самому процессор с нуля разработать

А зачем тогда ARM вообще?

почему другие 5нм процессоры не такие быстрые

Это какие?
А зачем тогда ARM вообще?

У арма можно купить:


  • право на использование их системы команд (зачем? Если вдруг хочется иметь возможность запускать программы для арма, коих огромное количество и не хочется кроме процессора ещё и писать свои компиляторы и всех уговаривать на это перейти).
  • куски ядер — готовые блоки с разными функциями
  • полные дизайны ядер и готовых процессоров — бери и выпускай
  • услуги по разработке и интеграции всего этого и помощи с выпуском и т.д.

Это какие?

Snapdragon 875, Exynos 1080

У Apple лицензия на ARM почти безграничная, они там все переделать могут. Не забывайте что это apple соучредила с acorn на двоих саму ARM
Там показаны мобильные, в том числе очень близкие к десктопным, так ещё и XEON в случае iMac, которые уже в буквальном смысле десктопные. А на многих сайтах уже были сравнения, в том числе с Ryzen 5600X, который потребляет 65W, а мощности даёт в лучшем случае на 40% больше.
с каких єто пор XEON стал десктопным?
Ну, это серверный X86, однако, их часто даже под игры собирают. В рамках контекста это именно десктопный чип.
их часто даже под игры собирают

Разве что сильно Б/У, когда денег нет.
Нет, я в своё время «с нуля» под игры собирал систему на новом e1230 v2 т.к. он был чуть ли не в 2 раза дешевле i7 3770 при аналогичных характеристиках
И в каком году это было?
В 2015м дело было.
Знаю что с тех пор intel «закрутили гайки» и запретили тем же E3-12** v5 работать на desktop чипсетах, однако выпускают и «игровые» материнки под эти процессоры, так что собирают и современные системы на новых Xeon.
Тогда уже 3770 не был актуальным процессором.
«игровые» материнки под эти процессоры

Это не имеет особого смысла. В играх себя лучше показывают процы на 6 ядер, для игр NUMA это смертный приговор.
Это я всё к тому, что собирают же, на новом железе, я в том числе, насколько это целесообразно — другой вопрос :)

для игр NUMA это смертный приговор.

А речь про «двуголовые» материнки и не идет, обычные, с одним сокетом, так что как минимум чисто экономически определенный смысл есть.

e5-2620v3 — 6ядер/12 потоков, 3.2ггц стоит сейчас 15-20$, новая материнка к нему 65-80$. Единственный минус это что память ddr4 работает на 1866, зато можно брать любые самые дешевые плашки по 22-25$ за 8гб и ставить в 4х канал для компенсации низкой частоты. Производительности этой системы за глаза для 1080р гейминга на видюхах уровня 1070.
Он ещё и мобильный есть.
с каких єто пор XEON стал десктопным?
Эм, рабочие станции (считай рабочий декстоп) на ксеонах вообще-то всегда вроде нормой были.
С тех пор как китайцы наладили массовую продажу бу зеонов и производство дешевых материнок к ним. Сейчас в плане цена/производительность у платформы 2011v3 просто нет конкурентов.

Но речь естественно была о архитектуре.
Как с качеством у этих материнок?
У «топовых» хуананов на уровне основных брендовых среднего ценового диапазона, ну а модели попроще на уровне нижнего ценового. Во времена x79(lga2011) сначала было довольно много болячек, но их быстро правили и у текущих x99(lga2011-3) почти все хорошо. Из неприятных багов пожалуй остался только баг с датчиком температуры на некоторых платах. Но в любом случае эти комплекты того стоят, например 12ядерный/24поточный проц e5-2678v3 покупается за 80-90$, материнка тоже в районе 100. Может работать и с копеечной серверной ддр3 и с обычной ддр4 в четырехканале. Также есть двухпроцессорные мамки — в общем для рабочих задач можно собрать монстра за дешево.

Если тема интересует то могу посоветовать изучить тему на overclockers и пару ютуб каналов 1, 2

Спасибо!
Топовые камни только не ставьте. =)
Подсистема питания там весьма паршивая и из паршивых (есть у меня весьма серьёзные подозрения, что даже поддельные там мосфеты стоят) комплектующих стоит. Может в 20 году что-то они и поменяли, но раньше там питание было на грани.
В общем и целом эти материнские платы собираются из говна и палок, никакой реальной гарантии на них нет и быть не может, а значит сильно заморачиваться с надежностью китайцам не интересно. Там, как правило, нет никакого намеренного обмана, но и QA хромает на обе ноги.
С другой стороны, если уделить достаточно времени на исследование рынка этих материнских плат, то можно найти что-то подходящее и для топовых камней. Лично у меня 2680v2 на 10 ядер и 20 потоков уже два с половиной года работает на китайской материнской плате без каких-либо нареканий. Но это, конечно, не гарантирует, что у вас через год работы из области VRM не повалит дым. Впрочем, никто не застрахован, косяки вполне бывают и у классических десктопных производителей.

Нужно понимать, что любая затея с китайскими xeon-ами — это про соотношение цена\производительность, не цена\качество. Чем-то в итоге придется жертвовать.
Лично я планирую собирать переносную машинку для хранения и конвертации видео, и вполне буду снова рассматривать китайские железки для этих целей.

Я хочу собрать отцу рабочию станцию для фотошопа/нас/медиа сервак. Плюс удаленный докер сервер для себя. Никакого разгона, может даже наоборот понижения вольтажа. Сможет ли оно потянуть e5 2678 v3? Для меня 24 потока — главное достоинство в этой цене.

e5 2678 v3
Надеюсь, что мой ответ не посчитают рекламой сайта. Посмотрите вот здесь информацию. Там по материнским платам есть рекомендации, плюс особенности работы.
От себя могу добавить, что фотошоп любит быстрые ядра, а не большое их количество, поэтому в зависимости от искушенности пользователя могут быть проблемы. И играться с вольтажом вроде как нельзя на китайских платах, ни в какую сторону.
играться с вольтажом вроде как нельзя

Можно, но только не напрямую из биоса, а через его модификацию(весьма простую). Я например юзаю андервольтинг на -70mV на 2620v3, причем вместе с анлоком турбобуста, что позволяет процу постоянно под нагрузкой держать 3.2ггц по всем ядрам.

Стоит ли оно того, если какой-нибудь ryzen 7 2700 при 16 потоках будет быстрее вашего процессора, при этом доступен локально и с гарантией? Да, оно слегка дороже будет — но при этом экономичнее и тише в повседневной жизни.

Разница в цене минимум в 2 раза. Производительность на ядро у райзена выше, а в мультипотоке зависит от задач, tdp близкий и обоим процам с головой бесшумного и дешевого snowman mt6
Для топовых камней просто нужно брать не самые дешевые материнки, иначе будет перегреваться зона VRM и придется либо колхозить доп. обдув, либо довольствоваться стоковой производительностью проца и повышенным шансом смерти материнки. Посмотрите ютуб каналы с моего коммента выше, там есть тесты практически всех комбинацый процов-мамок.
А вы относитесь к меньшинству, которое успешно утилизирует >90% ресурсов десктопного x86, или просто любите в душевой терафлопсами меряться?
Намекаете на то, что большинству пользователей десктоп не нужен? Тут я согласен, но речь вроде бы о том, насколько процессор от Apple подобрался близко к продукции Intel и AMD.
И да, для моих задач высокая производительность весьма желательна.
Судя по текущим данным, в энергоэффективном сегменте m1 обошел и intel и amd, а в десктопном сегменте (imac, imac pro, mac pro) он еще не представлен.
По задачам, требующим высокой производительности — лично мне выгоднее переносить их в облака. Это снижает как саму стоимость вычислений так и временные затраты на администрирование.
Mac Mini вы в из десктопов выписали?
Тут я согласен, но речь вроде бы о том, насколько процессор от Apple подобрался близко к продукции Intel и AMD.

Я бы сказал что их «слабенький» начальный процессор на 15W очень так не слабо подобрался к продукции двух гигантов. И это начальный процессор, а обещали еще полноценный процессор, для тех, кому не только видео в браузере смотреть с ультрабука. Если они запихнут туда 12-16 своих мощных ядер вместо 4 в текущем чипе, и сделают нормальное количество оперативки, вот это будет мощно.
Невозможно сделать процессор одновременно и с высокой производительностью, и с малым энергопотреблением. Физику не обманешь.
А теперь факты: процессор сравнительно легко наращивается вширь, до тех пор пока он не начинает превосходить свой тепловой бюджет. Процессор также можно разгонять, хоть это и менее эффективно (дает нелинейный прирост). Т.е. имея быстрое и энергоэффективное ядро мы точно можем сделать быстрый процессор с множеством таких ядер. Собственно, в M1 как раз то самое быстрое энергоэффективное ядро.
Это хорошо, только транзисторный бюджет текущего 4бига+4смала уже сравним с 8/16 + крутой видик в комплекте. Это означает, что нарастить ядра то можно, но чип получится ещё крупнее и дороже, плюс проблемы оптимизации доступа к кешу и т.д., и т.п.
Вон, интелы уже тоже согласились, что чиплеты сейчас самое оптимальное и готовят свои серверные чиплеты.
Текущий транзисторный бюджет тратится на: 4 big/4 little ядра, 8 GPU ядер, neural engine, и то, что раньше выносилось в T1 (secure enclave, encryption, вот это вот всё). Little ядра имеют смысл только в носимой электронике (кажется, их добавили в mac mini просто чтобы не делать два разных чипа), дублировать T1 смысла нет, хз насчет NE. С GPU не понятно — либо apple будут прикручивать AMD-шные дискретки (тогда транзисторный бюджет они не тратят; плюс бонусом eGPU), либо будут масштабировать свою видюху. Видюхи, кстати, тоже масштабируются линейно, пока не упираются в тот же TDP или шину/кеш. Думаю, что если apple выберут вариант масштабировать свою видюху, им рано или поздно придется выносить её в отдельную микросхему, даже если внутри того же SoC. Думаю, до чиплетов дойдет уже ближе к mac pro-ншым процам, которые вероятно будут представлены последними.
Little ядра имеют смысл только в носимой электронике (кажется, их добавили в mac mini просто чтобы не делать два разных чипа),
Скорее для простоя в минимальном состоянии, когда смысла нет крутить биги.
Текущий транзисторный бюджет тратится на:
или на 8 больших ядер с потоками, контроллер памяти и 45% на видик в коробке, из основных.
Ничего не замечаете? Да, энергопотребление скорей всего там выше, но и производительность видика — не сравнима.
И это уже в продаже и дешевле есть, жаль не в качестве ПК — я б взял.
Хотя сливы про «Windows Mode» для коробки ходили, это был бы сильный ответный ход от МС)
Видюхи, кстати, тоже масштабируются линейно, пока не упираются в тот же TDP или шину/кеш.
Так у амд основная проблема уже давно в оперативке для видика, в коробке они скоростную и рядом распаяли не просто так. Если б можно было легко продать производителям распайку дорогих чипов у проца с заметным удорожанием всех чипов — они б так и сделали. Но ведь не купят. Хотя может Эпл изменит тренд, ведь скорость до памяти сейчас одно из узких мест и за счёт этого считай прирост нехилый можно получить.
Скорее для простоя в минимальном состоянии, когда смысла нет крутить биги.
ну это mac mini же, то, что в нём крутятся big ядра потребляя на целых пару ватт больше, это вообще не проблема для стационарного компьютера.
И это (xbox) уже в продаже и дешевле есть, жаль не в качестве ПК — я б взял.
еще раз — консоли продаются в минус и окупаются за счет подписок и наценок, суммарная стоимость для среднего пользователя получается порядка $1000, если не больше. По крайней мере сравнимый ПК вы даже за $1000 не соберете
Ничего не замечаете? Да, энергопотребление скорей всего там выше, но и производительность видика — не сравнима.
в M1 графика 2.6 tflops с 8 ядрами, в коробке — 12 tflops на 52 ядрах.
Если б можно было легко продать производителям распайку дорогих чипов у проца с заметным удорожанием всех чипов — они б так и сделали
Кстати вот здесь видно как они интересно спаковали чип. Кажется, проблем расширения памяти быть не должно.
в M1 графика 2.6 tflops с 8 ядрами, в коробке — 12 tflops на 52 ядрах.
ещё раз, 15,5 млрд против 16 млрд.
Увеличьте количество бигядер в 2 раза и нарастите видик до уровня амд.
выше 20 млрд только ради видика, выше 25 — если ещё 4 бигядра?
Почти в два раза кристалл больше размером, больше брака, больше цены.
процессор сравнительно легко наращивается вширь? Ну да, только вот у интелов не получается, у амд за несколько заходов получилось. Там же мелочь, всего лишь примитивная шина общения всего этого между собой...
и окупаются за счет подписок и наценок,
То есть под все эпловские девайсы подписки будут стоить 0 и наценки в эплсторе будут 0%? )))
Кстати вот здесь видно как они интересно спаковали чип. Кажется, проблем расширения памяти быть не должно.
тут проблема не в расширении, а что производители типа асуса или hp могли не пойти на покупку таких вариантов. сейчас могут пойти повторяя эпл.
в этом плане эпл молодцы
Увеличьте количество бигядер в 2 раза и нарастите видик до уровня амд.
а еще уберите little ядра за ненадобностью в стационарных решениях
Почти в два раза кристалл больше размером, больше брака, больше цены.
я же не утверждаю что им не придется перенимать чиплетный подход
процессор сравнительно легко наращивается вширь? Ну да, только вот у интелов не получается
кажется, intel сейчас уперся в TDP а не в число ядер.
у амд за несколько заходов получилось
ну да, в 2017, в сотрудничестве с той же foundry что и apple…
а еще уберите little ядра за ненадобностью в стационарных решениях

Intel с вами не согласен, потому свои будущие десктопные процы пилит с little ядрами.
а еще уберите little ядра за ненадобностью в стационарных решениях
То есть Эпл старались, старались, а вы лучше их понимаете как надо делать?
кажется, intel сейчас уперся в TDP а не в число ядер.
да нет, именно что в ядра на своих 10нм процах. 4/8 могут, а выше — нет. Они могли бы как zen1 склеить декстопы и выкатить, нооооо
ну да, в 2017, в сотрудничестве с той же foundry что и apple…
фандури печёт чипы. а вот разработку оных делают сами. теперь поглядите отличия чипов зен, зен+, зен2 и зен3.

PS. суммарная стоимость консоли Xbox series X — 1400 баксов с подпиской на 5 лет, как вы посчитали.
Макмини с 16 гигами и 1 тб без подписки с играми и мощного видика для игр — 1300$
У вас отлично получается наглядно показывать почему макмини это прорыв )))
То есть Эпл старались, старались, а вы лучше их понимаете как надо делать?
little ядра нужны для экономии энергии, которая в стационарных решениях не является камнем преткновения.
да нет, именно что в ядра на своих 10нм процах. 4/8 могут, а выше — нет
даже если они уперлись в ядра, TDP до 265 Вт для десктопного проца это тоже многовато, не находите?
У вас отлично получается наглядно показывать почему макмини это прорыв )))
а я и не говорил что mini — прорыв, лишь M1 как таковой, да и то больше в мобильном сегменте. Более того, это был бы скорее плохой продукт, если бы мобильный чип apple не оказался настолько хорошим (в некоторых типовых задачах), чтобы комплектовать им стационарник. А утверждаю я лишь то, что обладая технологией производства M1 apple вполне способны представить достойные решения и в других сегментах.

А дальше вы цепляетесь абсолютно за всё за что можете. И mini с консолью по цене сравнили, и air с игровым ноутом, и до числа транзисторов докопались, и до нейронки, и терафлопсов в GPU мало, и тип памяти не тот — абсолютно до всего. Только конечно же опустили пару совершенно незначительных нюансов — десятикратная разница в энергопотреблении, фиктивность цены, разный сегмент у продуктов… но это же не важно, верно? Как там быстро коробка видосы монтирует да код компилит?
little ядра нужны для экономии энергии, которая в стационарных решениях не является камнем преткновения.
Ещё раз, вы лучше эпла значете зачем они это делают?
даже если они уперлись в ядра, TDP до 265 Вт для десктопного проца это тоже многовато, не находите?
на 14+++.
А вам про 10 нм, которые у них мобильные. И i7 там — максимум 4/8, а не 8/16, как у конкурентов. Но тдп и скорость отличные.
Только конечно же опустили пару совершенно незначительных нюансов — десятикратная разница в энергопотреблении, фиктивность цены, разный сегмент у продуктов… но это же не важно, верно?
О, вы ж сверху утверждали, что в декстопах это не важно?
Как там быстро коробка видосы монтирует да код компилит?
Я уже вам отвечал, что если будет windows mode (да, даже если это будет через подписку на игры за 15$) — то коробка станет вообще отличным решением и заодно узнаем, как быстро она код компилит и видосы монтирует
Ещё раз, вы лучше эпла значете зачем они это делают?
а что, надо быть гением чтобы понять что они просто запихали в мак мини такой же процессор как и в ноутбуки? Я думал это можно предположить из названия проца.
Но тдп и скорость отличные.
не такие уж и отличные, но это и не принципиально. Мы, кажется, по второму кругу идем. Если бы у intel не было проблем с yield'ом на 10nm, мы бы эти 10nm во всей линейке процов увидели еще несколько лет назад.
О, вы ж сверху утверждали, что в декстопах это не важно?
так вас это и применимо к ноутбуку не смутило. Там, правда, «всего» в 5 раз.
Я уже вам отвечал, что если будет windows mode (да, даже если это будет через подписку на игры за 15$) — то коробка станет вообще отличным решением и заодно узнаем, как быстро она код компилит и видосы монтирует
чтобы ввести windows mode майкам придется поменять модель распространения xbox.
а что, надо быть гением чтобы понять что они просто запихали в мак мини такой же процессор как и в ноутбуки? Я думал это можно предположить из названия проца.

Что здесь удивительного? Производить несколько разных процессоров дорого.
а что, надо быть гением чтобы понять что они просто запихали в мак мини такой же процессор как и в ноутбуки?
Это вы про то, что максимальную энергоэффективность форсят? Например, если для показа видео хватит и 4 малых ядер, на кой чёрт задействовать большие?
не такие уж и отличные.
Эм, их 10 нм процы вполне себе на ядро уделывали же свои декстопные, о чем вы? с ноутным тдп.
так вас это и применимо к ноутбуку не смутило. Там, правда, «всего» в 5 раз.
правда не в пять, а в два когда коробка при этом свой видик на полную гоняет, а макмини не могёт в подобную видео производительность. Ну то есть 160-165 у xbox series x при игре в Dirt 5 в режиме 120 Гц при 4K. макмини в 33 уложится или у вас опять половина ядер в голове отвалилась?
Или вы про то, что в процессорах тдп проца в ноуте в 20 ватт в 5 раз ниже тдп 25 или даже 45 ватт?
Это вы про то, что максимальную энергоэффективность форсят? Например, если для показа видео хватит и 4 малых ядер, на кой чёрт задействовать большие?
на кой черт вообще делать мелкие ядра в стационарниках? Там не стоит задача вычислить с минимальным энергопотреблением, там надо лишь уложиться в лимит.
Эм, их 10 нм процы вполне себе на ядро уделывали же свои декстопные, о чем вы? с ноутным тдп.
1185G7 разгоняется примерно до 50 Вт.
правда не в пять
… а в 10, у M1 TDP 10-18W, а у коробки 200 Вт.
в режиме 120 Гц при 4K
это маркетинговое название режима «нет ограничения в 60 FPS», на самом деле даже 60 не гарантируется. Спору нет, это всё еще круто, в сравнении с mini, я и не говорю и не говорил что mini так может. Я утверждал лишь что apple могли бы сделать сопоставимый продукт, а сравнивать коробку с air'ом, а потом с mini начали вы.
Или вы про то, что в процессорах тдп проца в ноуте в 20 ватт в 5 раз ниже тдп 25 или даже 45 ватт?
18 Вт против 45 в 4800H плюс 50 в 1650. Заметьте: я предлагал сравнивать с ноутами на мобильном 4800U, на 4800H с dgpu переключились вы.

Как вы там сказали? «Ворота едут»?
… а в 10, у M1 TDP 10-18W, а у коробки 200 Вт.
То есть ещё раз, ваш аргумент: у чипа м1 тдп 10 ватт, а у всего иксбокса 165 в реальном тесте, значит в 10 раз?
Браво. это уже днище аргументов
это маркетинговое название режима «нет ограничения в 60 FPS», на самом деле даже 60 не гарантируется.
Люди играли в игру и получили потребление. Тут вы начинаете рассказывать, что они играют не правильно и вообще не могли таких цифр получить?
Я утверждал лишь что apple могли бы сделать сопоставимый продукт
Не могли. При цене в 3 коробки продать получится только вам. Правда за цену в 3 коробки будет всего 8 гигов и 256 ссд, но это же не важно!
Заметьте: я предлагал сравнивать с ноутами на мобильном 4800U, на 4800H с dgpu переключились вы.
и я вам даже ответил почему, только вы раз за разом отказываетесь читать что вам пишут, что ж с этим поделать.
Как вы там сказали? «Ворота едут»?
у вас — постоянно. Вон, чип с всем девайсом сравниваете.
Или отсылаете на ТДП «Board Design».
Так «номинальная мощность» нового макмини 150 заявлена. Эпл врут?
То есть ещё раз, ваш аргумент: у чипа м1 тдп 10 ватт, а у всего иксбокса 165 в реальном тесте, значит в 10 раз?
вот только M1 это SoC с CPU, GPU и RAM — основными потребителями электроэнергии в коробке.
Люди играли в игру и получили потребление. Тут вы начинаете рассказывать, что они играют не правильно и вообще не могли таких цифр получить?
я лишь для вашей просвещенности привел факт, подтверждающий, что консоли в очередной раз делают ровно то же самое, что они делают уже десятилетиями — выдают примерно половину заявленной производительности.
Не могли. При цене в 3 коробки продать получится только вам.
это ваши личные спекуляции, основанные на едва релевантных данных. Которые вы пытаетесь выдать за факты, попутно подменяя все понятия, которые вам неудобны в рамках спора.
и я вам даже ответил почему, только вы раз за разом отказываетесь читать что вам пишут, что ж с этим поделать.

— давайте сравнивать устройства на мобильных чипах между собой
— я же написал что я буду сравнивать что хочу и с чем хочу, но вы же не читаете что вам пишут! А коробка дешевле air'а, ололо

Как с вами аргументированно спорить вообще?
Так «номинальная мощность» нового макмини 150 заявлена. Эпл врут?
потому что она у intel версии 150 Вт

вот только M1 это SoC с CPU, GPU и RAM — основными потребителями электроэнергии в коробке.
150 ватт у макмини заявленные — это отлично
я лишь для вашей просвещенности привел факт, подтверждающий, что консоли в очередной раз делают ровно то же самое, что они делают уже десятилетиями — выдают примерно половину заявленной производительности.
Это вы написали по анализу ТДП?
Это уже не лопата, вы на дно экскаватор доставили...
это ваши личные спекуляции, основанные на едва релевантных данных. Которые вы пытаетесь выдать за факты,
Хм, макмини с текущим чипом и дешевой оперативкой, а так же меньшим объемом этой самой оперативы и четвертью по объему ссдшником — в два раза дороже коробки. Макмини с куртым чипом, опупенным видиком, 16 гигами гддр6x и терабайтным ссд — дешевле коробки будет, по любому, я так и понял
попутно подменяя все понятия
Да-да, 90 тысяч дешевле 45. 8 гигов и 256 жесткий лучше 16 и терабайта, видик в 2,4 порвёт 12 терфоповый, и стоить это будет по любому дешевле аналогов-<которых>-нет
в два раза дороже коробки.

А какой смысл сравнивать стоимость с устройством, себестоимости стоимость которого даже не известна, но по косвенным данным (правда кое что есть только по соньке, которая +- на том же железе) она практически равна продажной стоимости, а по совокупным расходам консоли вообще в минус продаются (что подтверждает анализ отчетов от той же Sony для предыдущих консолей)?
Цель продажи консоли — заработать не на ней, а на комиссиях с подписок и продажи игр. Если бы у Apple была такая же структура дохода, то макбук бы стоил 299 долларов, но заставлял вас покупать приложения на каждый чих. И браузер был бы платным, да. И софт сторонний тоже запускать было бы нельзя вот прям совсем. В общем — экономика несколько по другому работает.
суммарная стоимость для среднего пользователя получается порядка $1000, если не больше

Это для кого они столько стоят?
это он исходил из 15$ подписки на 5 лет)
Или, быть может, они пойдут по пути установки нескольких M1. По крайней мере с экономической точки зрения это выглядит весьма заманчиво.

Да, доступ к памяти соседнего чипа будет медленнее, но вряд ли медленнее, чем доступ к отдельной оперативке v Intel‐маках.
Это ужасное решение. Либо надо как у амд — отдельный котроллер общения с оперативкой для двух чиплетов. Но это сожрёт процентов 10 производительности. В вашем варианте сожрутся все 30.
Посмотрите разницу 4800H, у которого чип монолитный, но он задушен по tdp и имеет меньший кэш, и 3700x у которого чип вынесенный при том, что архитектура самих ядер zen2 — десять процентов в пользу декстопного, и то не везде…
Как вариант в мощных маках ставить мощный проц «типа M2», где вся поверхность чипа это только процы и ставить «Mg», где только графическая подсистема, даже можно со своей RAM а не общей как в M1…

Но это просто мысли в слух
Ну вариантов много, но в этом и косяк. Когда те же интел или амд выпускают по сути дела одно и тоже, сортируя по «браку» и «качеству» ядер, эпл себя поставила в ситуацию, когда их M2 должен быть совершенно другим продуктом, то есть им нужно всё переделать, чтоб выпустить что-то большее…
Ну вроде в Air за 999$ на одно графическое ядро меньше чем в Air pf 1249$.
То есть какое то разнооьразие все же присутствует. Правда в названии чипа у Apple это не как не отражается, может позже добавят типа M1.1 M1.2
Это ужасное решение. Либо надо как у амд — отдельный котроллер общения с оперативкой для двух чиплетов. Но это сожрёт процентов 10 производительности. В вашем варианте сожрутся все 30.

30 % по сравнению с чем и почему?

Но даже если так, то это ж всё равно позволит наращивать производительность, при этом выпуская один и тот же чип, а не делая совершенно другой продукт.
30 % по сравнению с чем и почему?
От той, что может выдать монолитный чип.
Почему — потому что вы просто делаете по сути двухсокетную мамку, просто распаянную и близко друг от друга. Данные между кэшами и оперативкой как будут бегать между двумя кристаллами? вот нужно процессу не 16, а 20 гигов и?

Надо лицензировать IF?

Так она ж между CCD и контроллером памяти находится. А тут её как без изменения чипов добавить?
А если переделывать чип, то тогда да, что-то подобное придумывать придётся для увеличения всего.

Ну да, логично.


С другой стороны, для пробного комочка — результат вполне впечатляющий. А дальше, если пойдет, можно будет уже и сделать все как у взрослых, имея базу-то.

Ну концептуально я это представляю так, что один процессор может обращаться к памяти другого примерно так же, как если бы процессор обращался просто к чипу памяти. При этом чип сразу сможет и актуальные данные из кеша отправить.

Понятно, что здесь есть накладные издержки по сравнению с просто большим по площади аналогичным кристаллом. Но выпуск кристалла с большей площадью тоже связан с издержками и проблемами.

А тут её как без изменения чипов добавить?
А если переделывать чип, то тогда да, что-то подобное придумывать придётся для увеличения всего.

И тут же дело в том, что всё необходимое вполне может быть уже добавлено в чип.
Это так не работает. Тут будет что-то типа NUMA, то есть обращение к соседней памяти через другой процессор. Там мноо подводных камней, как с задержками, так и с общей пропускной способностью связующей шины.
И я не думаю, что у M1 вообще есть шина для межпроцессорного взаимодействия.
Тут будет что-то типа NUMA, то есть обращение к соседней памяти через другой процессор.

Вот именно это я и имел в виду. Вот прям неизбежно будет медленнее, чем обращение просто к чипу памяти на таком же расстоянии? Или от реализации зависит?

И я не думаю, что у M1 вообще есть шина для межпроцессорного взаимодействия.

Может нет, а может и есть. Документации к M1 у нас то нет.
Вот прям неизбежно будет медленнее, чем обращение просто к чипу памяти на таком же расстоянии?

Конечно. Встаёт вопрос о синхронизации, так как у нас теперь есть два контроллера памяти.
Может нет, а может и есть. Документации к M1 у нас то нет.

Такая шина это куча неиспользуемых на текущих устройствах контактов, потраченный впустую транзисторный бюджет. Никто такое не делает «про запас».
Такая шина это куча неиспользуемых на текущих устройствах контактов, потраченный впустую транзисторный бюджет. Никто такое не делает «про запас».

А куча разных процессоров — это потраченный долларовый бюджет. Когда бракованное ядро отключается, то тоже вроде как впустую потраченный транзисторный бюджет выходит, но так дешевле получается.
Отключение бракованных ядер как раз в плюс, иначе пришлось бы кристалл выкидывать вообще. А тут фигня, которая вообще не будет использоваться ближайшие пару лет.
Почему через пару лет? Следующие компьютеры или весной, или осенью покажут.
Выкатят небось средний сегмент, топы и рабочие станции выйдут нескоро, там ещё софт адаптировать нужно.
Ну так и средний сегмент должен быть более производительный и с бо́льшим объёмом оперативной памяти, чтобы он мог конкурировать с младшим сегментом.
Ну так там и будет M2 какой-нибудь, или M1+. Уверен на 100% в отсутствии интерфейса для межпроцессорного взаимодействия у M1.
Может быть. Не так долго осталось ждать, чтобы узнать как там у Apple задумано.

А он и не нужен. M1 для того, чтобы объединить платформы и запустить процесс переползания на новую платформу пользователей буков и десктопов.


Как появится интерес менее массовых пользователей — так будет повод выкатить новое.

вот нужно процессу не 16, а 20 гигов и?

И автор процесса пишет NUMA-aware-код. Процессоры с разными латентностями доступа к памяти в зависимости от ядра доступны на рынке уже лет 10 для десктопа и лет 20 (если не больше — смотря как считать) для серверов.

Что-то я реальной задачи не увидел ни одной кроме времени компиляции, которая тестировалась непонятно как.
Где кодирование видео? Производительность на ватт в различных задачах? Тепловыделение реальное? Да хотя бы игры в конце концов?
С кодированием видео слишком печально будет для десктопов. Оно же там у Apple аппаратное.
Тут даже айфон может обгонять десктопы
Так и на декстопах в видках кодирование давно есть. Не устраивает качество, кодируют на процах.
Декодировать то на встроенных понятно, что лучше.
не только у Apple, у меня не новый телефон на эксинос, пробовал монтировать видео 4k 60fps HDR10 на нем, и был впечатлен как он легко с этим справляется, в том числе с конвертацией в другое разрешение и формат, с эффектами.

Это и понятно, все смартфоны сейчас ориентированы на медиа контент, и процессоры у них соответствующие. В тех же мессенджерах когда видео передаешь оно на лету конвертируется, сжимается. Запись 4к 60FPS HDR тоже надо кодировать на лету чтобы место сэкономить
У ARM процов колличество регистров больше чем у x86.
По данным Wiki (Целочисленных регистров/FP регистров):
x86-64 — 16/16
ARM 64-bit — 31/32
Кстате именно по этому эмуляция x86 на ARM проходит более хорошо (быстро) нежели наоборот.

А ещё все SSE/AVX регистры посчитайте, да ещё переименование регистров и тому подобное. Если бы было достаточно просто накидать регистров, чтобы увеличить производительность — что мешало бы так сделать интелу и амд? :)

Переименование регистров не позволяет адресовать больше регистров.
FPU/MMX/SSE/AVX ∉ GPR
Все это есть и у ARM.

Всё так, но и чего? У x86 меньше регистров и поэтому ARM работает быстрее? Это чрезвычайно упрощённый и потому неверный подход к микроархитектуре :)


Забавно, как все с умным видом бросились обсуждать (да и всегда это делают в таких разговорах) видимые и поэтому понятные простому программисту аспекты — сколько регистров лучше, какая система команд совершеннее. При этом совершенно игнорируя все важные детали реализации — ни одного упоминания бранч предикторов например (а для широкого ядра и медленной памяти даже 1% промахов может давать десяток процентов производительности разницы), ни префетчеров, ни того, что там там кеша L1 в четыре раза больше, чем у топового интела (а L2 — в 24!) и память быстрее в полтора раза. Но нет, всё дело в том, что в микроархитектуре регистров общего назначения вдвое больше.

Это вы бросились считать регистры, смешав в кучу коней и людей.

Тогда для чего же нужно переименование, если не для этого?) Оно как раз заменяет архитектурные регистры на микроархитектурные и позволяет адресовать больше, чем доступно архитектурных. На линейный участок это не повлияет, а вот на независимые вычисления — ещё как.

Разница как между линейной ram и переключаемыми банками.


У вас на современной архитектуре всегда есть регистровый файл. Часть его доступна явно: это архитектурные регистры. Их количество влияет на возможности оптимизации использования памяти компилятором, некоторые вычисления при малом количестве доступных регистров или недостаточной их разрядности потребуют сохранения промежуточных результатов в память. И сохранить, в общем случае, GPR в SIMD вы не можете, потому что SIMD делает свои вычисления, возможно даже завязанные на другой поток — а это penalty.


Теневые регистры — остаток регистрового файла — менее быстры в обращении, потому как их использование предполагает смену маппинга и, фактически, работает через аппаратный хук.
То есть, при недостатке регистров в общем случае вы должны еще где-то найти регистр или два свободных, чтобы загрузить в них адрес ячейки памяти для сохранения временного значения, что лишает компилятор уже трех регистров в сумме.
И даже если запушить регистр в стек (лучше чтобы при этом был отдельный data-stack, но это еще минус один GPR), это обращение к медленной внешней памяти, которое, в общем случае, непредсказуемо по penalty.
С большим количеством адресуемых регистров эта проблема возникает существенно реже.


А теперь если еще вспомнить, что половина x86-GPR сохраняет специализацию (у ARM их, на самом деле, примерно столько же) то увеличение адресуемой части в два раза дает компилятору втрое больше регистров для маневра.

Лишьбы маньячило не захотел >1 прохода, с перекрученными настройками.
или, спецверсию кодека, типа для аниме :)

Да оно у всех уже аппаратное, в типичном десктопе так ещё и с запасом кодеров/декодеров: и в процессоре есть (всякое intel quick sync), и в видеокартах дополнительных (причём и отдельные чипы и на основных ядрах ускорять можно)

Никто не мешает задействовать тот же NVENC, и оставить аппаратный кодировщик Apple далеко позади. Страдает качество, чего на телефонах, конечно, не видно, но для профессиональной работы аппаратные кодировщики не годятся.
NVEnc заметно уступает в качестве кодирования обычным процам, было бы весьма интересно увидеть сравнение с яблочным решением.
NVEnc заметно уступает в качестве кодирования обычным процам
Как и любой потребительский аппаратный кодировщик. Чуда не случится. Потребительские кодировщики жертвуют точностью в пользу скорости. Есть серьезные аппаратные кодировщики, которые не уступают программным в качестве, а даже их превосходят (см. Main report (Objective comparison, FullHD videos) summary), но я в живую не видел ни одного, и даже не знаю, где и за какие деньги их покупают.
Справедливости ради, стоит сказать что одно ядро zen3 ест до 20 ватт при одиночной нагрузке, и ватт 6 в 16 ядернике при многопоточной нагрузке, ну т.е. не сильно большей ядра ARM процессоров.
Цифры уж слишком хороши, арм при эмуляции х86 не отстает, а местам и опережает оный.
Чудеса.
Чудеса.

Да нет там никаких чудес, есть быстрая память 4666/5000 на чипе, против 2400/2666 у интела.
И есть кучка специализированных чипов через которые бенч гоняет свою логику типа брура картинки или детектирования лица, единственный реальный тест компиляция маленького проекта, как только перестанет влазить в быстрые 16гиг памяти на чипе то будет беда.

В общем то тупой маркетинг и показуха, ну и возможно струдничество с авторами бенчмарка, чтобы завернуть вызовы на спец модули ЦПУ вместо обычных молотилок влоб.

Интересно бы было увидеть результаты того же самого х265 кодирования софтом на кастомных настройках чтобы встроенный екнодер/декодер отпал, или компиляцию огромного проекта где надо 64гиг озу, вот это было бы релевантно.
Так есть же цайнбенч же, и там в РАЗЫ хуже.

Не знаю, где вы там нашли "в РАЗЫ хуже". Вполне на уровне и с Intel и AMD. (UPD: в том же классе устройств, конечно)
Комментарии о самом Cinebench написал ниже

этап первый: отрицание
Пока под эти процессоры не будет windows — это нишевый продукт, Intel и AMD могут вообще не беспокоится. Вы может и не ярый фанат (хотя по-моему таки да), но ваши потребности явно весьма специфичны, и отличаются от потребностей среднестатистического пользователя ПК.

Выиграет от этого покупатель в любом случае.

Покупатель в любом случае проиграет.
Беспокоиться лучше все же заранее, потому что потом будет просто поздно. Телефонный рынок в Интел упустили полностью, потому что не побеспокоились заранее.

И с системой команд x86 надо все же что-то делать, ведь даже Интель внутри уже давно не x86, а стоимость хардварной поддержки старины все выше и выше, и вот сейчас яблочные демонстрируют, насколько. Если очень надо запускать винду — уже имеет смысл делать это в виртуалке под софтварным транслятором. И очень скоро так будут делать вообще все.
Беспокоиться лучше все же заранее, потому что потом будет просто поздно. Телефонный рынок в Интел упустили полностью, потому что не побеспокоились заранее.

Они ещё годами сливали на него 20-30 миллионов и продавали в убыток, пока не утомились кота за уши тянуть. Там лет шесть подряд был убыток, но они каждый год писали, что вот сегодня эффективнее на 15% и быстрее аж на 5%. Так победим!
Кстати, Windows 10 уже заранили в Parallels под M1.
заранили

Копьями что ли?
Я еще два года назад «заранил» Windows 10 на ARM в qemu ради интереса. И знаете, не очень как-то…
На каком железе? Тут у нас M1 чуть ли не самый быстрый ARM процессор на сегодняшний день. Да и Rosetta тоже выглядит как не самый медленный транслятор.
Самый быстрый ARM‐процессор, и чуть ли не самый быстрый процессор.

Скорость трасляции в общем‐то не важна, а вот скорость эмуляции ещё как. Поэтому QEMU и не годится.
Кстати в голову пришёл безумный тест — запустить Windows 10 в qemu для х86 (чтобы запустилась через Rosetta) и сравнить с Windows 10 при эмуляции х86 с помощью самого qemu. Конечно, если такой финт с Rosetta прокатит вообще )
Мои конкретно потребности: 2 внешних экрана (тут M1 сливает пока), возможность монтировать видео (мой MBP 13 2015 после цветокора выдает 2-3 fps, для примера, а 4К без цветокора в Premier Pro 7-9 fps), пару IDE от Jetbrains с тяжелыми проектами (5+ Гб), всякие Azure Studio, немного Atom, Chrome табов на 50, месенджеры, зум, скайп, excel, word, powerpoint. Docker иногда ранится локально. Потому под мои нужды M1 подошел бы, если бы поддержка нескольких мониторов…
Докеру ещё вроде много пилить под Apple Silicon…
Быть может в будущем. М1 больше про экономию заряда сохраняя относительно нормальную производительность. 2 экрана, монт видео, пара IDE, хром и мессенджеры это скорее более проф направление и для него выкатят другой чип с большим количеством производительных ядер. Однако даже М1 очень крут для первого поколения и для тех кому нужна лайтовая машинка для повседневных задач.
Более того, не только Windows, а ещё и весь сторонний софт портировать. Да, тот, что с закрытыми исходниками.
Учитывая запас по скорости и энергопотреблению, портировать то по сути не обязательно. Даже с потерями на трансляцию все работает достаточно быстро, что собственно показал M1.
Сам Windows давно портирован, собирается и выпускается под ARM.
Динамическая трансляция для x86 приложений в активной разработке и выкатывается уже в ноябре по Windows Insider:
We are excited about the momentum we are seeing from app partners embracing Windows 10 on ARM, taking advantage… of Qualcomm Snapdragon processors.… we will soon release a native Microsoft Teams client optimized for Windows 10 on ARM. We will also expand support for running x64 apps, with x64 emulation starting to roll out to the Windows Insider Program in November.

… Сам Windows давно портирован, собирается и выпускается под ARM.
Динамическая трансляция для x86 приложений в активной разработке...
или выберут проверенную платформу для своего софта — surface duo как пример :)
тут кючевое слово emulation . Подход отлчается от эплского translation. Я не спец, но скорее всего разница в том что Майкрософт эмулируют х86 коммандами арм, а эпл транслируют код самого приложения из х86\х64 в арм и из за этого меньше потеря производительности
Ошибся, вот тут говорят что они берут куски кода(скорее инструкций) и компилируют их в арм х64

docs.microsoft.com/en-us/windows/uwp/porting/apps-on-arm-x86-emulation

Динамическая трансляция для x86 приложений в активной разработке и выкатывается уже в ноябре по Windows Insider:

Скорее вы имели ввиду x64, ибо эмуляция х86 работает с первого Surface Pro X (Хотя пользователи жалуются на проблемы с производительностью того же фотошопа)

Это проблемы закрытого софта. Открытый никуда не нужно портировать, он и так собирается под полдюжины архитектур.

Деньги даёт закрытый софт.

Так если у открытого софта есть деньги на компиляцию в несколько архитектур, то у закрытого, по идее, и подавно найдутся?
Вот знает ли такое слово конечный выгодоприобретатель — тот еще вопрос…

А у покупателей найдутся покупать и оплачивать новые версии софта? Куча людей/компаний покупает нужный им софт один раз и пользуется потом годами.

Ну на новый мак-то вместо б/у E495 с двумя батареями по втрое меньшей цене — нашлись же.

Нашлись, но это не значит, что это одни и те же деньги/люди/рынки.

Стоп-стоп-стоп.
Покупать бука на M1 и покупатель софта для него — разные люди? %)


Если да — то это уже чертов сюр.
Если нет — то коли купил себе трехтонную тачилу с V12 — изволь и сорок литров на сотню оплатить.

отличаются от потребностей среднестатистического пользователя ПК

Довольно странный посыл. «Среднестатическому» пользователю ПК по сути ПК и не нужен, телефона\планшета (чаще всего iPad) хватит.
Все, что делает «среднестатистический» пользователь — браузер, социалочки, документики, игрушки казуальные — новый чип делает лучше, чем существующие. Лучше — это всмысле так же быстро или быстрее и при этом компьютер меньше просит розетку.
То есть сам по себе ПК — уже давно именно что нишевый продукт. Большинство людей пользуются другими устройствами.
Какими-то «специфичными» потребностями относительно общего рынка обладают не так много категорий пользователей — программисты, инженеры различные, ученые. Процент их от общего количества пользователей при этом ничтожен.
Просто для понимания — количество программистов в мире оценивается в менее чем в 28 миллионов на текущий момент с ростом до 30 миллионов к 25 году и до 45 миллионов к 30-му.
Количество же проданных только ноутбуков в 2019 году оценивается в 261.2 миллиона с тенденцией к падению.
Даже если представить, что ученых и инженеров, которые реально работают со специфичным софтом на ноутбуках (что совершенно нетипичный кейс, для этого есть рабочие станции), столько же, сколько и вообще всех в мире программистов (то есть 56 миллионов всего) и если представить что все эти «специфичные» люди покупают ноутбук каждый год (что конечно же не так), то все равно они будут составлять лишь 20% от ежегодных покупателей ноутбуков.
Вот только ученых (вообще всех) в мире меньше чем программистов, ученых в RnD по оценкам WorldBank вообще только полтора миллиона, так что с шансом процентик еще и поменьше будет. А если вспомнить, что ноутбук покупается обычно на 2-3 года, то процент покупателей с «особенными» запросами, которые теоретически не может реализовать маубук на arm — упадет менее чем до 7%.
Далеко не все инженеры в CADах сидят, а python и прочее популярное в научно-инженерной среде и на arm прекрасно работает.
В общем — думается вы ошибаетесь.
Потребности «среднестатического» пользователя закрываются машинками от Apple на ARM более чем, даже с избытком. По сути, именно проблемы там сейчас только с одной категорией софта — виртуализацией x86, которая нужна по сути ничтожному проценту пользователей.

Покупатель в любом случае проиграет.

Ага, бедный-несчастный, у него ноутбук начал уверенно жить под нагрузкой дольше рабочего дня, за него начали просить меньше, чем раньше, новый виток конкуренции начался, который приведет к «быстрее, выше, дешевле», а он все равно проиграет.
P.S. Кстати — Windows под Arm уже давно есть. Surface не первый год на рынке, процессоры там от Qualcomm. Главная его проблема в том, что там нет аналога Rosetta, а значит количество софта ограничено. Вот только ее аналог обещают выкатить вот вот, что очень сильно поменяет картину. Так что беспокоиться еще как стоит. Я не думаю что Qualcomm не сможет сделать процессор, по скорости равный M1, который в свою очередь даже в режиме трансляции в x86 и пенальти по производительности порядка 30% из-за этого все равно быстрее low/middle линеек мобильных процов от Intel и AMD.
Какими-то «специфичными» потребностями относительно общего рынка обладают не так много категорий пользователей — программисты, инженеры различные, ученые. Процент их от общего количества пользователей при этом ничтожен.

Этот если считать, что «особыми» потребностями обладают все пользователи из этих категорий. Большей части разработчиков для работы достаточно браузера, текстового редактора и ssh клиента.
Подразумевается, что «большая часть» — веб?
вспомнилось «физики затратные, вечно дорогое оборудование просят, математики вот зато какие молодцы, просят только бумагу, карандаши и ластики. А философы еще экономнее, им даже ластики не нужны»

Удаленная разработка очень болезненной получается лично в моей практике. Всякие IDE удобнее на локальной же машине держать.

Под эти процессоры уже есть MacOS, если я правильно понимаю. Так что первый шаг уже сделан. Всё-таки экосистема не карликовая.
Вот только без доступа к winapi смысла в ней — ноль. Запускать электроноподобные поделки из маркета можно на чем угодно, ядро windows тут не является чем-то незаменимым.
x86 под арм уже научились запускать. x64 пообещали, хотя я не понял, как они с интелом и его трясущими патентами юристами договорились…
Дело не в наборе команд CPU, а в том, что на Windows/ARM у пользователя нет возможности скомпилировать и запустить нормальный нейтивный EXE. Только убогие поделки, распространяемые через их маркет.
Дело не в наборе команд CPU, а в том, что на Windows/ARM у пользователя нет возможности скомпилировать и запустить нормальный нейтивный EXE.
Вы прослушали человека, который не читает то, что ему пишут. Ну ёпрст… вы описываете winRT.
18 год, начало…
Почитайте свою ссылку.

Заголовок спойлера
Новая Windows 10 ARM может запускать приложения x86 посредством эмуляции, что делает всю платформу более полезной. Приложения в Windows Store по-прежнему будут работать лучше, потому что большинство из них поддерживает ARM без эмуляции, но тем не менее окружение стало намного богаче. Впрочем, есть и довольно существенные ограничения.


Нейтивные EXE, скомпилированные для ARM, запускать все равно нельзя. Вероятно, для всяких Adobe даже сделают исключение, но обычный пользователь подпись для своей программы не получит даже за деньги.
Как только вы довольны своими результатами, вы можете отправить свое приложение ARM64 UWP C++ или .NEY в магазин Microsoft Store. Также компания предлагает Desktop Bridge для упаковки бинарных файлов ARM64 в пакеты, которые могут быть представлены в магазин. Вы также можете просто разметить свое приложение / установщик ARM64 Win32 на своем собственном веб-сайте, не отправляя его в магазин
Новость 18-го года...
Ну, мс с 10-кой и единой системой долго кота за хвост тянули, это да, про то, что они уже и 64 хотят эмулировать я тоже ещё месяц назад не знал, на хабре глаза открыли) я то думал, что интел этой инициативе кислород перекрыл…
Знаете, я тут ещё узнал, что на форумах уже есть инструкции как вроде бы даже Windows RT 8.1 в сюрфейсах пользователи обновляют до Windows 10 ARM32 15035.
А я ещё тогда считал, что майковцы ошиблись, надо было в своё время сделать так, чтоб их винду можно было ставить на любые андроидные девайсы (не обязательно лицензионно, просто что бы пользователи могли), это могло бы им помочь с удержанием и захватом доли и сейчас бы они имели куда лучший прогресс на рынке…
А я ещё тогда считал, что майковцы ошиблись, надо было в своё время сделать так, чтоб их винду можно было ставить на любые андроидные девайсы
вся современная история microsoft состоит из ретроспективно упущенных возможностей
вся современная история microsoft состоит из ретроспективно упущенных возможностей

Не забывайте, что речь идёт о компании с 1.6Трлн долларов капитализации и возможно они каждую "упущенную возможность" чем-то другим компенсировали. Или, если перефразировать, возможно, что займись они "упущенными возможностями" у них не хватало бы ресурсов на то, что сейчас является "схваченными" возможностями :)

10-ка на миллиарде устройств. МС раз за разом всё ошибается и ошибается, а вендекопец, о неизбежности которого так долго говорили большевики так никак и не происходит…
И сейчас у Microsoft почти всё готово, так что вендекапец опять отменяется. Ну разве что потеряют долю на пару десятков процентов, пока Qualcomm будет осиливать процессор, аналогичный M‐линейке от Apple.

А вот интелокапец уже буквально перед глазами.
винду можно было ставить на любые андроидные девайсы

Э, как лихо! А драйвера где брать? Если бы все было так просто…
Возможность поставить != возможность на ней работать полноценно.
На андроиды сообщество тоже ставило новые не всегда имея драйверы. Желающие то оставались. Сейчас вот на некоторые винфоны тоже вон 10-ку умудряются накатить…
Возможность поставить != возможность на ней работать полноценно.

Так неполноценно тоже не выйдет. Даже подсветку экрана (не говоря уже про само изображение) включить нечем будет.

На андроиды сообщество тоже ставило новые не всегда имея драйверы.

Одно дело выковырять ko-файлы из родной прошивки и просто подбросить их в свою, и совсем другое — написать с нуля драйвер для windows, не имея ничего, кроме бинарного модуля ядра linux.

Сейчас вот на некоторые винфоны тоже вон 10-ку умудряются накатить

Это возможно именно потому, что уже есть драйвера для ядра windows, которые можно взять из стокового rom и просто подбросить новой системе.

Короче, сравнительно простой «фанатский» апгрейд возможен только в пределах одного семейства ОС.
Так неполноценно тоже не выйдет. Даже подсветку экрана (не говоря уже про само изображение) включить нечем будет.
Так девайсы в принципе были достаточно разнообразны, чтоб тырить из одного в другой
Это возможно именно потому, что уже есть драйвера для ядра windows, которые можно взять из стокового rom и просто подбросить новой системе.
так делались же винфоны на тех же процах и с теми же чипами, что и андроидные.
так делались же винфоны на тех же процах и с теми же чипами, что и андроидные.

Делались, конечно, но с другой стороны даже один и тот же андроидный девайс запросто мог идти в нескольких ревизиях с несовместимыми железками (сам сталкивался с неработающим экраном другого типа на казалось бы такой же модели).

Да и количество винфонов было слишком мало, даже если расколупать все существующие прошивки, то комплект драйверов будет очень уж неполным.

Она же со всем совместимая и драйвера всегда подо все есть? ;)

Вы не путаете WinAPI с чем-то другим? По ссылке первая же статья — «как скомпилировать ваше C++ Win32 приложение под ARM».
Ну, может быть…
Если так, то все нормально, вернули, наконец, то, что было еще Windows CE :)

И, кстати, интересно, а бинарники, собранные для WinCE/WinMo заработают?

Неа. Там и набор инструкций другой и системный API. И вообще все другое кроме PE заголовка, наверное.

Там и набор инструкций другой

Как же? Тот же ARM, тогда, правда, он был без hf, но его наличие в современных процессорах ничем не должно помешать.

и системный API

То есть Win32API таки зарубили? Или как еще это понимать? Ведь WinCE работал с подмножеством обычного winapi.
Как же? Тот же ARM, тогда, правда, он был без hf, но его наличие в современных процессорах ничем не должно помешать.

Ну я не думаю что девайсы с winCE выпускались на armv8. Конечно, в режиме aarch32 оно должно заработать, если ядро его поддерживает и будут все нужные либы для aarch32.

То есть Win32API таки зарубили? Или как еще это понимать? Ведь WinCE работал с подмножеством обычного winapi.

Мне вот что-то кажется что winapi на winCE был не подмножеством, а скорее сделан по образу и подобию. Но могу ошибаться, конечно.
все нужные либы для aarch32

ИМХО это единственное, что может серьезно помешать. По командам совместимость должна быть полной.

Мне вот что-то кажется что winapi на winCE был не подмножеством, а скорее сделан по образу и подобию

Я написал пару программ под WinMo в свое время. Весь API не проверял, но писал ровно с теми же знаниями, что и под x86. Помню, не нашел функцию WaitMessage. Ну и полное отсутствие однобайтовых A-функций, само собой. В остальном код, полный api-вызовов, собрался и заработал без правок.
Ну, думаю как раз среднестатистический пользователь ПК будет доволен. Большенство приложений работают и запускаются через розетту(тот же офис), браузер оптимизирован под проц и проблем быть не должно, батарейка держит долго. Для обычных пользователей (к примеру моим родителям, друзьям которые далеки от техники)этого более чем достаточно и метод «Plug & Play» для них как раз что нужно. Тут можно сказать что есть альтернативы дешевле на винде просто для доков и браузинга, но это спорно, ибо очень возможно что там будет компромис, типа корпус из пластика или просто тяжелее, будет греться больше, будет меньше заряд держать и т.д. А ведь для обычных пользователей важна компактность, долгий заряд и чтобы запускались базовые приложения
А surface X по вашему на чем работает?

В Surface Pro X совсем другие чипы от Qualcomm. У них с M1 общая только базовая система команд.

И там есть видовс, уже на той же системе комманд что и эпл.

А всё остальное — другое. Прям начиная с загрузчика, NVMe контроллера совмещённого с Secure Enclave и системы управления питанием, через свой собственный GPU к уникальным сопроцессорам для ML и Image processing.
Для всего этого кто-то должен сесть и написать драйвера, и я почему-то уверен, что эппл этим заниматься не будет.

ИМХО, глобально мир точно не рухнет. Пока у Intel и AMD нет конкуренции на уровне обычной домохозяйки-школьника и на уровне серверных решений. У Intel забрали то, что до этого сами же и дали.
Я оцениваю долгосрочные риски. У Intel сегмент Client Computing превышает на 50% сегмент Datacenters. В сегменте Client и DC активно долю отжирал AMD, а теперь отжирать будет с ARM Apple, а когда остальные присоединяться для low-end segment, то станет совсем туго. При этом у Intel нет технологий на данный момент конкурентносопосбных.



Вот распределение доли Intel/AMD.


А вот наглядное сравнение как и в серверном железе они проигрывают сражение.



Между прочим, мы сами в закупках перешли на сервера на базе AMD, потому что они производительнее и дешевле. Отказываемся от Xeon.
у Intel и AMD нет конкуренции на уровне обычной домохозяйки-школьника

Если за серверные решения я с вами согласен, то на счет школьников и домохозяек не особо.
Совсем дешевых устройств мало (пожалуй только хромбуки могут составить конкуренцию дешевым x86 ноутбукам), но вот в средней и высокой ценовой категории все сильно неоднозначно. Мало того, что весьма большая доля пользователей вообще пользуется телефоном\планшетом как основным устройством, так еще и их задачи прекрасно ложатся на ноутбук с очень долгим временем жизни, где браузер, офис и условный фотошоп прекрасно работают. И казуальные игрушки для домохозяек, и даже фортнайт для школьников.
При стоимости базового эира (которого с избытком хватит для их задач) на M1 для школьника в 900 долларов и для домохозяки в тысячу — это весьма неплохое предложение. Ноутов с таким времением жизни за эти деньги практически нет (что важно для школьника\студента), равно как и сама платформа Apple удобна для домохозяйки, если у нее уже есть iPhone (а он с большой вероятностью у нее есть). Тут еще и приложения универсальные подвезли, через полгодика на маках будет доступно все то, что доступно как минимум на iPad.
Ну то есть да, в дешевом нискомаржинальном сегменте властвует AMD/Intel, но вот в самый вкусный сегмент — middle/high зашла Apple со своим «за те же деньги, но лучше, 20 часов работы, единая подписка, привычные приложения, а еще можно в один клик фоточку перенести с айфона на комп».

Ну это при условии, что школьнику (ну, почему сразу школьнику) не нужен комп (десктоп с достаточной производительностью GPU), чтобы играть в игрушки (не проводил статистических исследований, но, кажется, большинство хотят игровые компы и играть в игрушки).

не нужен комп (десктоп с достаточной производительностью GPU), чтобы играть в игрушки

Статистика продаж игр говорит, что главная игровая платформа сейчас — мобилки, а главная игровая ниша — разнообразные мобильные дрочильни многопользовательские игры вроде фортнайта и ему подобных.
Я кстати без осуждения говорю, просто статистика.
Вот в целом данные по рынку игр:
Consoles account for 30% of the 2019 global gaming market at $45.3 billion.
PCs fall slightly behind with 24% market share or $35.3 billion.
Mobile, which we’ll discuss shortly, represents the biggest market with 46% share or $68.2 billion.3

Так что судя по всему не особо нужен, а если даже и нужен (представим, что доля у школьников между платформами такая же, как и общая, что не так, т.к. денег у них меньше, а значит покупать дорогие игровые компы, которые стоят как топовый iPhone + консолька последнего поколения на сдачу возможностей у них меньше), то только каждому четвертому.
Вот в целом данные по рынку игр:
Только теперь нужно подтвердить, что вот эти 46% мобильного не те же из 30% консольного или 24% ПКшного. Вот консоли и пк пересекаются слабее, скорей всего. А мобильный vs стационарный не подразумевает наличие только одной платформы.
Ах да, текущий мак мини за 90к при этом в играх примерно получается сравним с коробкой серии S, которая стоит 27к и уж точно проиграет топовым приставкам…
Так никто же не говорил что макмини — игровая машинка. Речь шла вообще о PC-гейминге в любом его проявлении, ну то есть между выбором купить условный макбук и играть на других платформах и купить десктоп\игровой ноут с нормальной мощной карточкой и играть на нем в варианте школьника.
В целом, если ты взрослый дяденька\тетенька с деньгами, или школьник с состоятельными родителями, никто не мешает тебе одновременно иметь и мак для документов, и игровой комп с 3080, и пару приставок для эксклюзивов. Вопрос то именно в приоритетах.
Сугубо по моим ощущениям и наблюдением за нынешними школьниками, игровой комп им не особо и нужен. Хитовый мультиплеер на мобилках, остальное есть на консоли. Статистика вроде +- об этом и говорит.
В целом, если ты взрослый дяденька\тетенька с деньгами, или школьник с состоятельными родителями, никто не мешает тебе одновременно иметь и мак для документов, и игровой комп с 3080
а зачем два компа?
Статистика вроде +- об этом и говорит.
да нет, она про деньги обычно. Где зарабатывают больше. Ну в мобилках за счёт доения денег больше. А вот по количеству игроков речи нет
а зачем два компа?

"- А зачем им два телевизора?"
Задачи у них разные. У меня вот два личных компа. Жирный десктоп с 64 гб памяти, парой ТБ SSDшек, стареньким, но вполне еще бодреньким зионом и 2070 для игрушек и тяжелой работы с Linux+Windows in KVM и старенький MacBook Pro 13" 15 года, который я беру тогда, когда мне нужен терминал с браузером и я не за рабочим столом или еду куда-то. Просто разные задачи и оптимальный под них инструмент.
да нет, она про деньги обычно. Где зарабатывают больше. Ну в мобилках за счёт доения денег больше. А вот по количеству игроков речи нет

Ну тут статистика весьма мутная, я в целом согласен. Вот инфа от PC Gamers по рынку США:

If you extrapolate the computer percentage against the 67% total figure, that means roughly 35% of those in the U.S. game on PC. NPD rep Mat Piscatella says that PC gaming, for the purposes of this survey, means anything played on computers, likely including browser and social games. Still, games are games, even when you’re not tweaking settings to push your GPU to the limit.

IGN пишет несколько иначе:
1.5 billion, or 48% of global video game consumers, are PC game consumers. It's important to note, however, that «this includes some overlap with gamers that also use console systems and mobile devices.»
а главная игровая ниша — разнообразные мобильные дрочильни многопользовательские игры вроде фортнайта и ему подобных.

Так вы уж определитесь, дрочильни или Фортнайт. Потому что есть дрочильни, а есть фортнайт, и это как бы разные игровые ниши.
А в чём разница? Повсеместный pay2win кажись там везде почти.
В ПК-нише p2w распространён разве что в корейских MMO, в большинстве же других игр (хотя могут быть и исключения) за деньги покупается лишь косметика всякая, да бустеры опыта, чтоб качаться быстрее (не «лучше/больше», а именно «быстрее»)…
Так я про мобильные, там во всяких фри либо покупай кристалы/голду/выдохи пэжэ, либо задрачивайся по 12 часов в сутки, чтобы тебя выносили не все «донателлы», а только самые нищие.

Так, ну давайте пример pay2win в Fortnite, раз разницы нет)

В-баксы могут использованы для приобретения таких предметов, как экипировки, кирки, обёртки, эмоции и боевые пропуска.

Это всё косметика?
А за что минус человеку? Да, это всё косметика. То, что JerleShannara об этом спрашивает, показывает только, что, как и ожидалось, в вопросе он не разбирается.
Ну минусы тут за что только не прилетают, но этот вероятно за отсутствие подробностей, конкретики, оснований, слишком краткий ответ.
Я понимаю, что это действительно может быть мотивацией человека, поставившего минус, но тогда этот человек не очень умный. Каких подробностей? Каких оснований? Это был простой вопрос: всё ли в списке является косметикой. Ответ: да. Чтобы доказать всеобщность, нужно найти ссылки на описания всех перечисленных вещей и написать обоснование, почему каждая из них является косметикой. Чтобы доказать обратное – нужно найти всего лишь один элемент, который косметикой не является. Вы серьёзно думаете, что нужно делать первое, а не второе? Потому что я первым заниматься точно не буду, и никому не советую.
В общем, тут классическое «я Пастернака не читал, но осуждаю». Это как говорить, что Хабр – экстремистский ресурс. На вопрос, почему – привести список 100 статей с вопросом: «Они все неэкстремистские?». Вместо того, чтобы указать на конкретные признаки экстремизма в конкретной статье. И что, по абзацам их разбирать?
Тут есть даже категории «минусовщиков»: «не понимаю, потому минус» и «не знаю что ответить, потому вот тебе», «ты не именитый учёный, чтобы такое говорить, держи -».
Так что я ничему не удивляюсь, а лишь написал о самых вероятных причинах.
Безусловно, не имел цели спорить лично с Вами («Вы серьёзно думаете...» – не самая удачная формулировка, извиняюсь) :) Скорее просто выказываю негодование. Такое, увы, действительно сплошь и рядом.
А обсуждение отрицательных оценок ведёт к их появлению у спорщиков. Это тоже сплошь и рядом. :-)
Это да :) Но, во-первых, я не просто обсуждаю оценку. Я, собственно, гласно делаю то, что кто-то негласно пытался сделать минусом – вызываю на диалог противоположную сторону, указывая на некорректную мотивацию их действий. Человеку не просто поставили минус. Человеку поставили минус за правильный ответ. И кто-то (возможно, тот же человек) поставил плюс за некорректный вопрос.
Ну а во-вторых, не переживать же из-за виртуальных плюсиков :)
Вызов бесполезен и тоже ведёт к затыканию рта. Мне уже прилетело, теперь один коммент в 5 минут.
Если и напишут в ответ то с доп. аккаунта, чтобы не потерять возможность ставить другим оценки, сказав какую нибудь дикую глупость.
По карме и её кривости не проехался только ленивый.
Вы конечно сильно срезали углы беря в расчет американскую цену без налогов. С налогами и другими сборами (в РФ еще курс валюты) выходит что цена базового air ~1300. За такие деньги можно собрать хороший игровой пк или 2 неплохих ноута.
А за цену Tesla можно купить БелАЗ или два неплохих Камаза.
Или 2 хороших BMW, да.
С налогами и другими сборами (в РФ еще курс валюты) выходит что цена базового air ~1300

Ну, если говорить и том, что происходит в РФ, калькуляция выйдет еще веселее, но давайте.
За такие деньги можно собрать хороший игровой пк или 2 неплохих ноута.

Нет и нет. 1300 долларов — это 100.000 рублей. 2 неплохихи ноута даже близко не стоят по 50к каждый.
Более того, хоть как-то стравнимая по качеству материалов и эксплуатационным характеристикам машинка от Lenovo серии Thinkpad по стоимости легко перешагивает сотку. И еще и фиг достанешь, я не так давно пробовал, как раз в РФ. Есть исключение в виде L серии, которая дешевле, но лучше никогда не сравнивать ее и макбук 1к1 на столе. Они просто из разных миров по качеству «всего». За 50к сейчас в России можно купить или кучку пластика, которая будет работать без розетки часа два и греться как утюг, или где-то за 70 «игровой» ноут от Asus или того же Lenovo в средних комплектациях в варианте «замена стационарнику». При том, что там тоже проблемы со временем жизни от батарейки, общим качеством и т.д. Они кстати все тоже не про апгрейд, а для такой машинки это важно. Можно с уверенностью сказать, что эир будет делать все то же самое, что он делает сейчас, еще года 3-4 как минимум. А вот «игровые» ноутбуки обычно за пару лет превращаются в тыкву. Хотя кому как, если для киберспортивных игрушек, то и подольше проживет, там требования обычно ниже. Если система охлождения не деградирует и оно само по себе не развалится по какой-то причине, а то есть у меня нехороший опыт с дешевыми ноутами про чисто механический износ.
А на счет хорошего игрового компа за сотку… это будет сложно. Но давайте попробуем прикинуть сколько обойдется именно системник, который потащит QHD на high/ultra хотя бы сейчас и в ближайшие пару лет без переферии вроде монитора. Про 4к за сотку можно смело забыть. Ну то есть что-то будет работать, что-то нет, но в целом целевым разрешением это назвать нельзя.
25к за Ryzen 3700x (пятой серии в продаже в РФ еще нет, но не думаю что 5600 будет стоить дешевле);
54к за RTX 3070 (представим что его можно купить по этой цене);
11к за материнку на B550, по низу рынка фактически;
10к за две плашки хорошей памяти, если быстрой — то 2х8, если средненькой, то 2х16;
4к за обычный дешманский корпус, но черт с ним;
5к за блок питания, тоже не самый топовый, но от приличной фирмы;
10к за 1tb SSD, тоже почти по низу рынка, что маловато по объему, но минимально для игрового компа сойдет.
Итого — 119к. И ужиматься толком некуда. В сотку по сути поместится только апгрейд-комплект проц+память+видюшка+мать, и то при большом везении. Ну или это будет уже не «хороший игровой комп», а комп из рекламы эльдорадо, кажется, которые «два ядра, два гига», а на выходе пшик:)
Так-то да, но вот в отличии от приставки или ноута, в комп можно добить еще 2 плашки памяти. Или поменять видеокарту. Грубо говоря, проц-мать-память легко переживает 2-3 поколения видеокарт.
Так-то да, но вот в отличии от приставки или ноута, в комп можно добить еще 2 плашки памяти.
В ноуты леново с 4800h можно поставить две планки так-то, я в какой-то теме про эпл уже человеку скидывал ссылки на оные)
За 160 можно взять ноут с 3700x и 2070 (https://eurocom.com/ec/configure(2,463,0)NightskyARX15)
Наверняка игровой системник должен быть прилично дешевле

Б.у. ноут на вторичке тоже будет дешево — правда это лотерея, с везением насколько его ушатали.
За 160 можно взять ноут с 3700x и 2070 (https://eurocom.com/ec/configure(2,463,0)NightskyARX15)
Наверняка игровой системник должен быть прилично дешевле

Ну не все так просто. Там B450 чипсет, 2 тысячи долларов стоит комплектация с одноканальной 8Гб памятью и HDD, да и 2070 это все таки предыдущее поколение. Если с такими расчетами то да, будет дешевле. Хотя вот у меня 2070 и не сказать чтобы она прям уж быстрая, 4к вообще чаще всего не может на настройках выше среднего, 1080 на ультах всегда, да. 1440p да, скорее всего будет достаточно хорошо, но у меня 4к дисплей, так что или 4к, или 1080.
Нет и нет. 1300 долларов — это 100.000 рублей. 2 неплохихи ноута даже близко не стоят по 50к каждый.
Ок, они стоят 70, если видик нннадо. без него дешевле есть хорошие модели.
или где-то за 70 «игровой» ноут от Asus или того же Lenovo в средних комплектациях в варианте «замена стационарнику».
4800h с 16гб/512гб, 1650ti/4 гб.
с 2060s/6гб пока чего-то в районе сотки, конечно. но их и недовезли считай пока.
За 50к сейчас в России можно купить или кучку пластика, которая будет работать без розетки часа два и греться как утюг
парочку xiaomi c 4500U. 4600u недалеко ушли.
Итого — 119к. И ужиматься толком некуда. В сотку по сути поместится только апгрейд-комплект проц+память+видюшка+мать, и то при большом везении. Ну или это будет уже не «хороший игровой комп», а комп из рекламы эльдорадо, кажется, которые «два ядра, два гига», а на выходе пшик:)
в начальном эире 16 или даже более того 32 гигов и 1 тб ссд?
а то срезаем мать до 520 или 450 чипсета и 512 ссд и ещё тысяч до 7 экономим. Берём за 4к не дешманский корпус, а нормальный.
Потом по какой-нибудь акции, которые периодически в сетевых проходят, берём со скидкой часть железа и экономим ещё процентов так 5 — при условии что бежать надо не прямо сейчас) В итоге получаем плюс-минус 100-110к с возможностью нарастить в любой момент…