Открыть список
Как стать автором
Обновить

Комментарии 171

Забавно, что Apple вернулись к идее использования RISC процессора, с которого они и начинали.
А еще они, оказывается, еще в 1986 году пытались создать свой процессор, но, как я понял, дальше разработки спецификаций не продвинулись.
Всё циклично )
Строго говоря, это не RISC, просто другой набор команд для компилятора, как у ARM и x86.

Абривиатура ARM расшифровывается как Advanced RISC Machine.

Дизайн — RISC, хотя и у многоядерных x86 разбивка на micro-ops — тот же RISC. Сейчас разница между архитектурами смазалась, остался только дизайн чипа и порядок лицензирования.

Кстати, у меня вопрос. Большие RISC-процессоры с конвейеризацией, реордерингом и спекулятивным выполнением оперируют непосредственно инструкциями системы команды, или тоже разбивают их на более мелкие uOps?

в том и дело, что все разбивают на атомарные операции, а они примерно одинаковы для разных архитектрур
Ключевая разница между RISC и CISC по-прежнему на своём месте. CISC-процессоры умеют в качестве операндов использовать данные из ОЗУ, RISC-процессоры, несмотря на навороченность своих наборов команд — нет.

Прямого доступа к памяти ни там ни там все равно нет.
Фактически, наличие инструкций, оперирующих напрямую с памятью позволяет сэкономить только на количестве этих самих инструкций в программе. Но это не обязательно означает увеличение производительности.

Изначальная разница этих процов была в том, что пока RISC предоставляют лишь базовые функции для вычислений, CISC перекладывал программные стандарты на архитектуру, из-за чего «сравнить строки» можно было командой длинной в пару байт. Потому код на CISC процах мог быть вплоть до 8 раз меньше по объёму ценой увеличения кристала или задержек. Зачем это было нужно? Тогда была очень дорогая память и почти все «первые успешные» процессоры были CISC.

ЗЫ- Сейчас же можно реализовать CISC процессор и сделать его мега эффективным в плане плотности кода\скорости вычислений, но это потребует адских затрат на исследования, чем никто заниматься не будет. Работает, не трож xD
то есть, я могу установить Win10 на смартфон?

Я правильно понимаю бенчмарки, что задача которая будет выполнятся на топовом аймаке один час при максимальной загрузке, на айфоне будет выполнятся два часа с копейками и это в случае полной многоядерности, а в случае одногопоточности, то там разница будет на уровне погрешности?

Правда для этого iPhone нужно будет рюпоместить в морозилку и воткнуть в розетку...

Можно утопить в сухой воде.
Ну или в обычной, но деионизованной.
Наверное (с) Масяня
А вот без розетки точно никак.
Символично опубликовано в 9:41

А если по теме — интригует, но это все еще синтетика

кстати говоря, читаю частые споры о возможных проблемах с контейнеризацией и виртуализацией, но по сути тот же raspberry pi же на том же arm, но докер там вполне работает(по поводу виртуализации не знаю)

Докер под линуксом вообще никак не зависит от архитектуры процессора. Это чисто софтовое решение.


С другой стороны ARMv8 поддерживает аппаратную виртуализацию. На АРМах нормально работают и Xen и KVM и более нишевые гипервизоры типа greenhills.

Нет, зависит. Образа нужно искать под соответствующую архитекутуру, так как либы нативные внутри контейнеров хранятся. А под arm дефицит образов в наличии, много чего нет

Ну это как бы очевидно. Кому-то может прийти в голову ставить софт собранный под другую архитектуру?


Тут же нет разницы, завернут этот софт в контейнер, или ставится каким-то другим образом.

но по сути тот же raspberry pi же на том же arm, но докер там вполне работает

Работает со специальными образами, собранными под его архитектуру. С "обычными" образами не работает. Поэтому я пока не представляю, как будет происходить разработка на этих новых маках в компаниях, где используются контейнеры: поддержка отдельной инфраструктуры — это довольно напряжно.

Я имею довольно мало опыта работы с докером. Там образы не тегируются типом архитектуры, под которую они собраны? Это странно, учитывая что в пакетных менеджерах это есть из покон веков.

Кроме того, производительность компьютеров на М1 выше, чем у любого другого Mac.

Согласно тесту, M1 имеет базовую частоту 3,2 ГГц. MacBook Air с 8 ГБ ОЗУ демонстрирует в одноядерном режиме результат 1687 и в многоядерном — 7433

Spoiler header
image
А где вы последний скрин взяли? В оригинале его нет.
Интересно еще почему air обошел mini и pro… я бы ожидал обратной ситуации, или хотя бы на равных.
Кроме того, производительность компьютеров на М1 выше, чем у любого другого Mac.

s/Mac/MacBook/
Не понял что имели в виду.
Это отсылка к sed и замене слов в тексте.
Имел в виду, что в оригинале автор говорит, что MacBook Air на M1 по производительности в multi-core режиме превосходит все другие модели MacBook, а в одноядерном — вообще все Mac.
Где-то в другом месте все может быть, но здесь вполне конкретно "любого другого Mac"

Ну вот если заменить Mac на MacBook то выражение становится истинным, на это комментарий и намекает.

А какие собственно претензии?
Да обрезали на картинке iMac (27-inch Retina Early 2019), потому что не дотягивают до уровня Core i9.
А все остальные процессоры уже не 8-ядерные, какой смысл с ними сравнивать?

Нужно смотреть какая у M1 Pro будет масштабируемость ядер и частота.
Сейчас у Intel с этим проблемы: 10-ядерный Core i7-10910 и 12-ядерный Xeon W-3235 еще обходят M1 по относительной производительности, а вот остальным уже приходится занижать частоту.
Если в M1 Pro будет 16 или не дай бог 32 ядра в топ-3 станет меньше места для Intel.
А какие собственно претензии?
Да обрезали на картинке iMac (27-inch Retina Early 2019), потому что не дотягивают до уровня Core i9.
А все остальные процессоры уже не 8-ядерные, какой смысл с ними сравнивать?

Давайте и для Вас зацитирую еще раз:
Кроме того, производительность компьютеров на М1 выше, чем у любого другого Mac.
О сейчас там оборот еще покруче,
MacBook Air превосходит все предыдущие iOS-устройства.

Это проблема перевода, в оригинальной статье говорится про однопоточную производительность
In comparison to Macs, the single-core performance is better than any other available Mac

Вы приводите картинку multi-core performance, вы или штаны наденьте или крестик снимите.
Ну да, на других сайтах может и нормально написано, только я на сайте хабра нахожусь и обсуждаю статью на хабре.
Ну и да, «производительность компьютера» это, внезапно, производительность всех его ядер, если их больше 1 конечно.

"Производительность компьютера" вообще сложная метрика.
Какой-нибудь Xeon Phi с 80 ядрами показывал крайне впечатляющие результаты в параллельных векторизированных вычислениях, тогда как для ежедневной работы его использовать было больно — ядра там урезанные низкопроизводительные Intel Atom.

Интересно еще почему air обошел mini и pro

Потому что geekbench слегка специфично высчитывает многопоточную производительность :) В нём одноядерный однопоточный проц, может оказаться быстрее 4х ядерного на той же архитектуре, но с более низкой частотой :D + Тест очень чувствителен к размеру кеша.


  • бентч умеет юзать специализированные модули arm платформ, например Neural Engine :)
бентч умеет юзать специализированные модули arm платформ, например Neural Engine :)

Тогда вообще читерство, там половина суббенчмарков — это всякая обработка графики и прочее детектирование лиц. С таким же успехом, можно измерять производительность "процессора" в комплекте с RTX3090 :)

С точки зрения user experience всё честно. Открывает котиков быстрее? Быстрее :)
А так как это SoC то и тестировать всё в комплекте можно :) Так то да, задача трассировки будет быстрее на RTX3090 чем на M1, но RTX это отдельный чип :) Вот такой вот маркетинг.


PS: Кстати вот результат M1 https://browser.geekbench.com/v5/cpu/4648107

Интересно еще почему air обошел mini и pro… я бы ожидал обратной ситуации, или хотя бы на равных.

Как оказалось, просто мало тестов провели и разброс слишком большой видимо был, на текущий день на сайте написано:
MacBook Pro (13-inch Late 2020) Apple M1 @ 3.2 GHz (8 cores) — 7416
MacBook Air (Late 2020) Apple M1 @ 3.2 GHz (8 cores) — 7055
вот это больше похоже на правду.

Интересно, конечно же, какая будет настоящая производительность ПО, ведь по началу всё будет запускаться через эмулятор x86-64 -> arm


А уже потом разработчики каждой программы должны будут выпустить специальные ARM-версии своего софта под новые Mac.


А ведь apple уже переводила mac с ibm на intel, надеюсь arm приживётся.
В предвкушении, как через несколько (десятков) лет будут запускаться одни и те же приложения на Desctop / Notebook / Mobile и все будут радоваться и танцевать :D

вроде как по опыту девкита там процентов 10, но с тех пор розетту могли еще немного подпилить. По сути разница розетты и нативного исполнения будет в том, что x86 проц транслирует x86 во внутренний RISC хардварно на лету, а розетта — софтварно, перед исполнением программы.

Разве не при инсталляции? Ну, там, где это возможно, конечно:


“Rosetta 2 can convert an application right at installation time, effectively creating an ARM-optimized version of the app before you’ve opened it. (It can also translate on the fly for apps that can’t be translated ahead of time, such as browser, Java, and Javascript processes, or if it encounters other new code that wasn’t translated at install time.)” (https://www.theverge.com/21304182/apple-arm-mac-rosetta-2-emulation-app-converter-explainer)

Если судить по Geekbench, то разница примерно в 1.5-2 раза (2400 vs 4500), если не память не изменяет. Это для DTK

В предвкушении, как через несколько (десятков) лет будут запускаться одни и те же приложения на Desctop / Notebook / Mobile и все будут радоваться и танцевать :D

Все будут плакать и колоться мобильными приложениями на ПК.

Когда выпустят десктопные розничные arm процессы. Часть десктоптого софта перепишут под arm, часть (в большинстве legacy) будет работать под эмулятором.
В общем-то тоже самое написал, что и apple сейчас планирует. Посмотрим, что из этого получится. Сейчас это только догадки.

Ставлю 100ку, что они займут (возможно)средний и бюджетный по скорости\энергоэфективности + деловые и компактные 100%, а топовые решения всё ещё будут на х86 гонять ибо пока производительность на ядро у типичных «топовых» арм ниже чем у i9.
Могу ошибаться насчёт «производительности на ядро», но из тех что лицензирует ARM ни одно выше i5 пока не прыгнуло, если сравнивать поколения в пределе одного года, как я знаю.
Но зато можно взять микроскоп и посмотреть, что же Apple там наваяла, чтобы прыгнуть выше, что какой‐нибудь Samsung или Qualcomm и сделают.
По производительности новый чип M1 примерно соответствует 4-х ядерному Intel Tiger Lake. Вот результаты: browser.geekbench.com/v5/cpu/compare/4651916?baseline=4486182

Intel работал на немного более низкой частоте — 2.99ГГц против 3.20ГГц у М1.

Основное преимущество в баллах достигается за счет Gaussian Blur, Face Detection, Horizon Detection, и Ray Tracing. Вероятно, это заслуга специализированного ускорителя Neural Engine. Насколько это нужно на ноутбуке и насколько тест Geekbench отображает реальное состояние вещей — это вопрос открытый.

Да, это отличный результат, но чуда не произошло.

И с памятью накосячили — топ 16 максимум… Еще и дилемму поставили обновляться на Big Sur с каталины на интеле или остаться на каталине. С их виртуализацией в Big Sur совсем непонятно как отразиться на скорости работы приложений без оптимизации на Arm.

Я почти месяц на Big Sur (начинал с беты, чистая установка, MBP 2017 15"), по ощущениям всё быстрее, чем на Каталине, Сафари вообще огонь.
как вам дизайн, зашел? я тоже бету ставил, как то он стал хуже имхо
Ощущение, что он стал двигаться в сторону тач-интерфейса. Потому что я не понимаю зачем такие большие контролы для мышки.
В большие контролы мышкой тоже проще попадать — закон Фиттса.
Ну какие-то рамки приличия у роста размера контролов должны же быть? Если кто-то пожалуется, что руками в перчатках не попадает в контрол, а снимать холодно, что кнопки придётся ещё увеличивать?
Люди годами оттачивают мастерство владения мышкой, сначала в шутерах, потом в рабочем ПО и покупают мыши на 4k dpi ИМХО не для того, чтобы любоваться кнопками на четверть экрана.
В macOS, конечно же, нет никаких кнопок на четверть экрана.
В тулбаре кнопки совсем немного увеличились. Куда больше сэкономили, убрав бесполезный заголовок окна.
убрав бесполезный заголовок окна

Вернул его в FF, привык к интерфейсу 3.6, считаю его лучшим.
Мне зашло всё, кроме новых иконок приложений.
Ну в общем то классика маркетингового буллшита для эпл. Берем одну характеристику, делаем для нее железный ускоритель, сравниваем с универсальным решением и продаем. И плевать что специализированный ускоритель в рабочих задачах будет проставивать. Главное что технику уже купили, денежка пришла, а тот кто сам купил сам пусть и страдает.
Основное преимущество в баллах достигается за счет Gaussian Blur, Face Detection, Horizon Detection, и Ray Tracing
какая-то очень странная формулировка, из неё можно подумать словно M1 превосходит tiger lake только в нейронках. Вон человек выше так и подумал. А на деле tiger lake заметно обходит M1 только в AES-XTS, и по большинству весьма повседневных статей он тоже заметно уступает — Navigation (~50%), HTML5 (~30%), Text/PDF Rendering (~10/20%), Clang (~15%)*. И не забывайте, что M1 будет доступен широкой публике через неделю, а tiger lake пока существует только в виде пары референсных ноутов в руках обзорщиков, то есть на полки магазинов доедет к весне.

* Проценты актуальны для однопоточки, но соотношение примерно такое же и для многопоточки.
Маленькое уточнение, тесты в основном используют рендер, а значит вообще не факт что их выполнять будет процессор лично, а не встройка. Так что я допускаю что часть тестов была выполнена с помощью от встроенной графики, а часть с помощью спец ускорителей, а вот в чистой математике которую может выполнять цпу (AES-XTS) он ожидаемо сел в лужу и довольно сильно. Так что в реальной жизни я полагаю это будет аналог хромбука, красиво, но кроме браузера ничего не тянет.

К тому же tiger lake u мобильный чип, а в статье написано что M1 по бенчам аж i9-9980HK в прошке нагибает, хотя даже в сравнении с мобильными чипами его производительность под огромным вопросом.
а вот в чистой математике которую может выполнять цпу (AES-XTS) он ожидаемо сел в лужу и довольно сильно
так он и в intel'ях хардварно реализован, и в M1, можете например глянуть как соотносится M1 против того же 9980HK, касательно конкретно AES-XTS.

По сути, вы хотите игнорировать задачи, которые хардварно ускорены у apple, но не хотите игнорировать задачи, которые хардварно ускорены у intel. Предвзято получается, не находите?
кроме браузера ничего не тянет

браузеры и все эти электроны сегодня очень жручие, это одна из самых тяжёлых повседневных задач

Это просто констатация факта.

Такой высокий балл был достигнут во многом благодаря задачам машинного обучения, трассировки лучей и навигации. Вполне возможно, что многие из этих задач использовали отдельные сопроцессоры вроде Neural Engine.

Да, это все круто, но нужно ли это все делать на процессоре, если та же дискретная видеокарта от nVidia, например, справляется с этим всем в сотни раз быстрее просто потому что там тысячи вычислительных блоков и оптимизированный софт. Аналогичная ситуация с кодированием и декодированием видео.

Отдельный вопрос — это как в М1 реализована виртуализация (если она там вообще есть). Если там нельзя будет нормально использовать Docker, то все становится сильно печально.

Что касается ноутбуков на Tiger Lake, то они давно уже продаются. Моделей очень много: начиная с Dell XPS 13 9310 и Razer Blade Stealth 13, и заканчивая всякими там Acer и Asus.

Также я очень жду мобильных процессоров на Zen3. Новая архитектура выглядят очень многообещающе: browser.geekbench.com/v5/cpu/compare/4653057?baseline=4651916
Да, это все круто, но нужно ли это все делать на процессоре, если та же дискретная видеокарта от nVidia, например, справляется с этим всем в сотни раз быстрее просто потому что там тысячи вычислительных блоков и оптимизированный софт. Аналогичная ситуация с кодированием и декодированием видео.

А откуда в ультрабуке или просто маленьком ноутбуке взять дискретную видеокарту с тысячами вычислительных блоков?
p.s. Мне, к примеру, очень интересно какой камень они покажут для производительных моделей(то, что показали сейчас, это для ультрабуков, ноутбуков самого начального уровня и мини-PC)

Бенчмарки всегда тестируют очень специальные области.


Сравните время компиляции ядра, например. Там одновременно будет и IO, и скорость выполнения syscall'ов (что важно IRL), и память, и процессор.

Зато для несведущего потребителя это хороший повод сломя ног бежать за новыми компами, на что и расчитанно делать такие бенчмарки и форсить подобные новости из каждого утюга.

Я думаю(надеюсь) для 16 прошки они сделают м2, где будет в два раза больше ядер, оперативки 32+ и возможность подключения внешней видяхи.
Вопрос без сарказма: а у NVidia или AMD есть драйвера (под любую ОС) под ARM?

У NVidia есть дрова для последних серий GeForce под Linux aarch64.

Драйвера под линукс, если они нормально написаны будут работать и под ARM. Да и под любой другой архитектурой.

Интересно, что я не так сказал?


Я как бы не первый день занимаюсь эмбеддедом именно на arm64. Нет разницы под какую архитектуру компилировать драйвер. Драйверу интересно устройство с которым он общается, а не процессор на котором он работает. Ядро довольно успешно абстрагирует от драйвера те вещи, которые ему не нужны.


Или вы решили что речь идёт о проприетарных блобах от нвидии? Так опять же: если нвидия нормально написала свои драйвера, то у неё не будет проблем со сборкой их под арм.

Это будет боль, если выпустят весной. Для тех кто купил себе 16 в этом году.

Скорее всего. Транзисторный бюджет/место на чипе М1 еще сильно занято встроенной памятью на 16ГБ.
На взрослых чипах память вероятно будет отдельной и можно на чип установить больше блоков для вычислений.
eGPU всё… даже с сайта эпыл выпилили совместимость с теми, что раньше были «сертифицированы»…
Это всё прекрасно, но на М1 не будет в ближайшее время eGPU.
Ну пока что ещё можно взять на интеле — ещё несколько лет будут актуальны. А дальше да, eGPU всё. Но я думаю, что потом вернут.
все 16-дюймовые модели MacBook Pro 2019 года, включая 10-е поколение на Intel Core i9

Ошибочка. В прошке 16" процессоры 9-го, а не 10-го поколения.
MacBook Air с 8 ГБ ОЗУ демонстрирует в одноядерном режиме результат 1687 и в многоядерном — 7433

Я тут посмотрелЬ, новые райзены
Single-Core Score — 1796, Multi-Core Score — 18975


А так, надо ждать реальных рабочих тестов.

Только запустил гикбенч на своем десктопе с Intel Core i7-9700K. Одно ядро — 1044, мультиядро — 6077.


Что-то грустно стало, но с другой стороны есть у меня MacBook Pro (13-inch Mid 2019), который выдает 1098 / 4172 попугая, но проект компилирует в три раза медленнее (при более быстрой ssd), а тесты запускает настолько медленее, что они банально падают по таймауту. Наверное, потому что юнит-тесты занимаются тестированием, а не размытием по гаусу...


Да и черт бы с тестами, десктоп бесконечно более отзывчивый, вкладки переключает быстрее, и вообще, я могу включить в вскод сколько угодно плагинов и оно будет работать, когда на макбуке включение eslint плагина делает его просто невозможным для использования. Попугаи такие попугаи. (Хотя последнее скорее связано с оперативкой)

Есть ощущение, что эта статья возможно создала хабраэффект на гикбенче :)
Какой-то слабый у Вас 9700K, его средний однопоточный результат — 1290 баллов.

Это все очень интересно… для специалистов.


Но как обычному юзеру хотелось бы посмотреть на результаты в реальных задачах -офис, фотошоп, архивирование, распознавание текста, научные расчеты. В общем в типичном наборе при тестировании процессоров.

Посмотрите, когда до обзорщиков доедут железки :)

GeekBench хорошо работает на железе Apple и испольщует большинство его аппаратных фич.
Чего не скажешь об х86. Линус Торвальдс еще давно высказывался по поводу этой проблемы.


Сревнивать результаты этого бенчмарка между платформами не безопасно, потому что он оценивает разные вещи на разных платформах, иногда присутствующие в одной и отсутствующие в другой, а не только сырую возможность CPU дробить числа.


https://www.reddit.com/r/hardware/comments/6hnm4a/are_arm_and_x86_benchmark_results_comparable/
https://www.reddit.com/r/hardware/comments/b2ell1/if_you_think_geekbench_is_accurate_for_cross_cpu/

а как вы думаете, что важнее реальному пользователю — как быстро у него выполняются его повседневные задачи или каким способом это быстродействие достигнуто? Так-то FPU это тоже аппаратный ускоритель. Вот гикбенч берет набор каких-то более-менее реальных задач и их и замеряет. Единственная претензия к гикбенчу — его набор задач сомнительно коррелирует с набором задач конкретного пользователя. Опять же, если у вас есть хорошие примеры CPU-bound задач, которые меньше зависят от IO/RAM (иначе мы будем измерять не CPU), которые нужны большинству пользователей, то думаю разработчики geekbench могут попробовать их включить.

Так пусть используют AVX-512 везде, где это можно, а не SSE2 из двухтысячного.
Тогда можно будет говорить о хоть каком-то сравнениия "как быстро у него выполняются его повседневные задачи".


Опять же, если у вас есть хорошие примеры CPU-bound задач, которые меньше зависят от IO/RAM (иначе мы будем измерять не CPU), которые нужны большинству пользователей, то думаю разработчики geekbench могут попробовать их включить.

Думаю разработчики не дураки и сами все знают. Но быть на первых строках новостей с точки зрения бизнеса гораздо выгоднее, чем придумывать честный межплатформенный бенчмарк.

Завтра в повседневных задачах изменятся алгоритмы и ваши ускорители перестанут работать, железка сразу станет отстоем?
Ну, например, ютуб перейдёт на новый кодек.
Ну, например, ютуб перейдёт на новый кодек.

Плохой кейс для маков и телефонов. Вот будет av1 codec и приехали. Современные десктопы его на проце вывезут, вопрос на счёт мобилок и apple открытый.

Мобилки то ладно, их меняют каждые 2-3 года. А вот ноуты/декстопы реже и там подобное печально.

Почему только CPU-bound? Производительность и отзывчивость в реальных задачах зависит от многих факторов, таких, как работа памяти. И микроархитектурная оптимизация работы с памятью и кэша, например, всякие хитрые префетчеры, могут повысить производительность в разных задачах. И эти блоки занимают место на кристалле и выделяют тепло.

Только вот пользователю важно быстродействие, достигнутое именно на повседневных задачах, а не на маркетинговых тестах.
придется отвечать сразу на несколько комментов, прошу прощения
Так пусть используют AVX-512 везде, где это можно, а не SSE2 из двухтысячного.
а что, гикбенч не использует AVX-512?
Думаю разработчики не дураки и сами все знают. Но быть на первых строках новостей с точки зрения бизнеса гораздо выгоднее, чем придумывать честный межплатформенный бенчмарк.
этот этап сейчас проходит userbenchmark. С одной стороны, его хорошо SEO-шнули, с другой, его пинают все кому не лень. В долгосрочной перспективе такие бенчмарки отмирают. Например, antutu работает и на iOS, и на android, но выполняет разный код, выдает совершенно разных попугаев (с преференцией андроиду), и если лет 5-7 назад его упоминали часто, то сейчас про него и вспомнит то не каждый.
Завтра в повседневных задачах изменятся алгоритмы и ваши ускорители перестанут работать, железка сразу станет отстоем?
Смысл использовать новый алгоритм без ускорения, если старый с ускорением быстрее? Обычно для таких случаев делают fallback'и. Как, например, с AVX.
Почему только CPU-bound? Производительность и отзывчивость в реальных задачах зависит от многих факторов, таких, как работа памяти.
а мы хотим измерять быстродействие устройства или, скажем, процессора? Я бы не хотел чтобы мой бенчмарк процессора на деле отражал быстродействие SSD.
Только вот пользователю важно быстродействие, достигнутое именно на повседневных задачах, а не на маркетинговых тестах.
именно поэтому важно чтобы бенчмарк отражал работу в реальных задачах. О чем я и написал.
Смысл использовать новый алгоритм без ускорения, если старый с ускорением быстрее?

Те же кодеки для видео могут жать лучше, вот и весь смысл.
Смысл использовать новый алгоритм без ускорения, если старый с ускорением быстрее? Обычно для таких случаев делают fallback'и. Как, например, с AVX.
Потому что новые железки умеют, а на отстой 3-х летний уже можно не смотреть, ага.
Почему только CPU-bound? Производительность и отзывчивость в реальных задачах зависит от многих факторов, таких, как работа памяти.

а мы хотим измерять быстродействие устройства или, скажем, процессора? Я бы не хотел чтобы мой бенчмарк процессора на деле отражал быстродействие SSD.

Как минимум, речь идет о подсистеме памяти. Memory-bound задач очень, очень много, а память существенно медленнее CPU. Поэтому то, как процессор оптимизирует работу с памятью (кэши, префетчинг, реордеринг, параллельные запросы итп итд), может существенно влять на производительность. Глупо это не учитывать. Да, я понимаю, что сама ОЗУ может быть с разной частотой и латентностью. Щито поделать.


На IO-bound задачи тоже можно смотреть. Например, на задержки и скорость обмена по PCIe шине. Потому что работа контроллера PCIe, как он общается с памятью и с ядром — это микроарихеткутрные детали, и от них может зависеть производительность в определенных задачах. Особенно с учетом того, что практически все устройства, которые не являются ядром, так или иначе сидят на PCI(e) шинах (втч внутренних). Во всяком случае, в интелах.

Сказать что я в шоке не сказать ничего). На непрофильных ресурсах люди обсосали эту чудоновость по полной. А тут комменты как с форума домохозяек. Это точно Хабр?)
Вы намекаете, что Хабр уже не торт? )

Мы домохозяева, что за сексизм?!

Какой TDP у всех процов что повыше?
там топ одноядерных бенчмарков состоит из разогнанных в край процов. Грубо говоря, топ1 занимает ryzen 5900x с его 2181 баллами, но если глянуть во все результаты 5900X, то мы увидим большинство в диапазоне 1600-1750. Иными словами то, что кто-то смог разогнать проц под жидким азотом, ни разу не значит, что он так же будет работать у вас.
Я лишь главным образом хотел сказать, что Apple очень туманно и расплывчато рассказывает о своей производительности, рассказывая о «3.5x большей скорости чем популярные Windows laptop-ы».

Я лично поверю в скорость Apple Silicone только когда увижу Android Studio собирающую проект на Apple железе быстрее чем на «аналогичном» Intel / AMD
Я лишь главным образом хотел сказать, что Apple очень туманно и расплывчато рассказывает о своей производительности, рассказывая о «3.5x большей скорости чем популярные Windows laptop-ы».

Справедливости ради, как упомянули выше, windows laptop-ы не работают на разогнанных на жидком азоте десктопных процессорах, особенно ультрабуки и всякие небольшие ноутбуки.
Да и в целом говорить о каком-то месте в этом списке странно, учитывая что большую часть его занимают попытки разгонов одних и тех же процессоров от одних и тех же людей, с таким же успехом там и миллион однотипных попыток одних и тех же людей могло быть с разницей в 1 очко.
Я лишь главным образом хотел сказать, что Apple очень туманно и расплывчато рассказывает о своей производительности, рассказывая о «3.5x большей скорости чем популярные Windows laptop-ы»
давайте на секунду предположим, что самые популярные windows ноутбуки это что-то среднее между macbook air и pro. Ведь apple также утверждает, что M1-макбуки шустрее предшественников в 3.5/3 раза соответственно, ну, как минимум в некоторых задачах.
Я лично поверю в скорость Apple Silicone только когда увижу Android Studio собирающую проект на Apple железе быстрее чем на «аналогичном» Intel / AMD
ну вы можете А. поверить результату гикбенча (той части теста, которая «clang», +15% относительно i7-1185G7) Б. подождать пока они выйдут В. пытаться делать эрудированные догадки.

Мне кажется apple представили отличный процессор, но и чуда не произошло. И тут нет никакого противоречия — компания, которая занимается разработкой процессоров (пусть и не с нуля) порядка 10 лет явно может выжать профит из 5нм литографии, зашитой в проц памяти и ARM-архитектуры. И если завтра AMD скажет что они выпустят zen3-SoC с RDNA2 графикой, вшитой памятью и на 5нм техпроцессе, я тоже буду более чем уверен в конкурентоспособности такого чипа.

Если взять менее популярный Cinebench R23 то результаты не впечатляющие, но все равно хорошие.


Core i9-9980HK не обгоняет и держится на уровне современных ноутбучных процов.


Другое дело — энергоэффективность, похоже, лучше.

А откуда этот скриншот?
Если посмотреть на частоты, создаётся впечатление, что процессор троттлился во время теста. Для Macbook Air с пассивным охлаждением это может быть очень хорошим, результатом, совсем другое дело, если это MacMini/Macbook Pro.


Upd: Посмотрев спецификации A12Z, почти уверен, что здесь тестировали именно Apple DTK, а не новые компьютеры с Apple M1.

Примечательно, что Tiger Lake со схожим TDP в 15W набирает почти в полтора раза больше баллов — 1382 против 987 у Apple.

1) Tiger Lake в Turbo-boost ест куда больше объявленного TDP. Поэтому результаты могут сильно зависеть от вида нагрузки.
2) В таблице не новый M1, а двухлетний A12Z.
3) Стоит учитывать, что у Apple это энергопотребление всего пакета, вместе с памятью.

1. А откуда у вас данные сколько потребляет М1? На презентации разве что по графику можно строить какие-то догадки.
2. Почему вы так решили?
3. Apple не привела ни одной цифры, а вы уже сделали выводы, что неназванная цифра — это весь пакет с памятью :)
  1. Anandtech измерял потребляемую мощность предыдущих чипов, сравнительная интерполяция A12->A12Z и A14->M1 даёт примерно 12-15 Вт пикового потребления. Цифра спекулятивная, поэтому я её и не упоминал до этого.
  2. Потому что показанные частоты отличаются от M1, зато совпадают с A12Z. Ну и приблизительное распределение результатов хорошо согласуется. С другой стороны, считать, что это действительно результаты M1, нет вообще ни одной причины, кроме анонимного скриншота с подписью.
  3. Опять же anandtech при измерении потребляемой мощности всегда это подчёркивает.
1. А что они собрались интерполировать, если М1 — это совершенно иной чип да ещё и с кучей дополнительных контроллеров и памятью в комплекте?
2. У A12Z максимальная частота — 2.49 ГГц, а на скриншоте — 2.3 ГГц. Так себе совпадение.
3. У Anandtech нет системы на М1 чипе с TB контроллером, памятью, и прочими Neural Engine. Что они измеряли?

В общем, такое.
  1. Он не совершенно иной. Ядра и частоты там те же, что в A14, как и практически вся обвязка. Thunderbolt добавили, производительных ядер 4 вместо 2, да память увеличили. Этим как раз и объясняется увеличение с 7 Вт в A14 до предполагаемых 15 Вт в M1.
  2. В однопотоке максимальная частота A12Z — 2.5 GHz, в многопотоке при задействовании всех ядер — 2.3 GHz. Именно эти цифры мы видим в описании процессора, чуть выше гистограммы.
  3. Память и прочие Neural Engine были в A12, A12X и A14, которые они тщательно изучали. Ещё раз повторюсь, что цифра в 15 Вт — спекулятивная, но это хороший educated guess для чипа, почти все составлящие которого известны и измерены. Я буду крайне удивлён если мы увидим полный TDP близкий даже к 20 Вт — там просто нечему столько потреблять.
1. Там один контроллер TB4 может несколько ватт потянуть, не говоря уже о PCIE и прочих контроллерах. Помимо этого частоты там явно выше чем на мобильном А14. Ну и на 13" PRO не просто так установили активное охлаждение.

2. Там 2.49 Ghz при загрузке всех ядер. Значение в 2.3 ГГц вообще нигде не фигурирует.

Кстати, крайне рекомендую все же найти время и почитать комментарии под упомянутой вами статье на Anandtech.
  1. А может и не потянуть, мы этого не знаем совсем. В любом случае, потребление Thunderbolt контроллера не очень важно, в сравнении энергоэффективности CPU.
    Если судить по отчётам geekbench, то частоты там отличаются минимально. 3.0 ГГц на A14 в iPhone 12, 3.04 ГГц в Mac Mini и 3.2 ГГц в макбуках.
    А активное охлаждение конечно не просто так. Даже 15 ватт надо отводить, пассивное охлаждение не поможет при долговременной нагрузке (собственно, ожидается, что Macbook Air будет троттлиться).
  2. Полная таблица частот A12X.

Там очень много комментариев, в том числе от людей, которые вообще мало в чём понимают. Если есть конкретные интересные факты, лучше делитесь здесь.

Вы приводите таблицу с частотами для A12X, но изначально мы говорили о A12Z.

Вы, конечно же, можете фантазировать сколько угодно на тему производительности и энергопотребления, но стоит все же посмотреть на реальные результаты.

Одно дело — это обнаружение лица, навигация и прочие размывки картинок, и совершенно иное — это реальные приложения и сервисы. Apple уже не раз уличали в манипуляциях и подмене фактов. Я не удивлюсь, если и здесь будет такая же история.
Вы приводите таблицу с частотами для A12X, но изначально мы говорили о A12Z.

Серьёзно? Это тот же самый чип, единственное отличие между ними — одно отключенное GPU ядро в X. Вероятно, из-за плохого yield в начале производства.
Частоты и производительность CPU абсолютно идентичны, поэтому про него никто не писал подробных разборов.


Вы, конечно же, можете фантазировать сколько угодно на тему производительности и энергопотребления, но стоит все же посмотреть на реальные результаты.

Я не понимаю тогда, в чём ваш поинт-то? Напомню, мы начали с того, что вы бенчмарк не того CPU сравнили с Intel-процессором неопределённого энергопотребления.


Apple уже не раз уличали в манипуляциях и подмене фактов. Я не удивлюсь, если и здесь будет такая же история.

Не надо подменять контекст, в этой ветке вообще не говорили ни о каких заявлениях Apple, только о независимых тестах.

Самое забавное, что выше нигде не упоминали что сравнивали именно М1.

Человек выложил какой-то результат с форума, я просто констатировал, что Tiger Lake показывает в полтора раза больше баллов, а вы почему-то решили, что это именно А12Z и все мы неправы.

При этом все ваши рассуждения строятся на том, что в теории A12X должен быть аналогичен A12Z, хотя никаких точных подтверждений этому нет.

Дальше вы начали ссылаться на результаты Anandtech, которые что-то там интерполировали и сделали далеко идущие выводы касаемо энергопотребления, хотя это в принципе некорректно.

Вот это и называется манипуляции и подмена понятий. Apple, кстати, так же делает на своих презентациях.
Самое забавное, что выше нигде не упоминали что сравнивали именно М1.

Комментарий верхнего уровня в теме про новый чип с результатами бенчмарка — конечно никакой связи.


При этом все ваши рассуждения строятся на том, что в теории A12X должен быть аналогичен A12Z, хотя никаких точных подтверждений этому нет.

Если вы хоть немного отвлечётесь от болтовни и загуглите, то найдёте, что их разглядывали под электронным микроскопом, и это один и тот же чип.


Дальше вы начали ссылаться на результаты Anandtech, которые что-то там интерполировали и сделали далеко идущие выводы касаемо энергопотребления, хотя это в принципе некорректно.

Я в каждом предположении про энергопотребление делал оговорку, что это оценка на основе предыдущих чипов на той же архитектуре, и она не точная, надо ждать замеров.


Вот это и называется манипуляции и подмена понятий. Apple, кстати, так же делает на своих презентациях.

Манипуляцией здесь занимаетесь именно вы:


Примечательно, что Tiger Lake со схожим TDP в 15W набирает почти в полтора раза больше баллов — 1382 против 987 у Apple.

Приняли анонимный скриншот с форума за тест нового процессора (хотя на том форуме почти сразу все согласились, что это тест DTK), взяли бумажный TDP от Intel, предположили энергопотребление M1 и приравняли их, после чего сделали глубокомысленные выводы.

Обратите внимание, я нигде не говорил что на том скриншоте Tiger Lake сравнивается именно с М1. Помимо этого у меня тоже нет оснований утверждать что там именно A12Z.

Вам, судя по всему, это обстоятельство никак не мешает. Мне не хочется опять рассказывать почему интерполяция здесь совсем не применима.

Что касается TDP, то у 1165G7 он может варьироваться от 12 до 28 Вт + он может повышаться выше этого значения на некоторое время (28 секунд по умолчанию).

Что-то схожее скорее-всего есть и у Apple. Не зря ведь они приводили данные коротких тестов.
Обратите внимание, я нигде не говорил что на том скриншоте Tiger Lake сравнивается именно с М1.

Обратите внимание, под каким постом мы ведём обсуждение. Если вы не сказали явно, что сравниваете с каким-то другим чипом, единственное, что может предположить читающий — что сравнивается с M1.


Помимо этого у меня тоже нет оснований утверждать что там именно A12Z.

Если сможете назвать какой-то ещё чип от Apple, обладающий частотами, указанными на скриншоте, и запускающий macOS — я перестану утверждать, что это A12Z.


Что касается TDP, то у 1165G7 он может варьироваться от 12 до 28 Вт + он может повышаться выше этого значения на некоторое время (28 секунд по умолчанию).

До 50+ Вт может повышаться, даже в версии на 15 Вт. Поэтому я говорю, что приводить TDP от Intel некорректно в сравнении энергоэффективности.


Что-то схожее скорее-всего есть и у Apple. Не зря ведь они приводили данные коротких тестов.

В ядрах Apple нет турбо-буста. A14 в iPhone 12 показывает 1600+ баллов в Geekbench Single-core при пиковом потреблении всего пакета в 5 Вт и максимальной частоте, соответствующей заявленной — 3 ГГц.


Не зря ведь они приводили данные коротких тестов.

Рекламные материалы обсуждать бессмысленно, поэтому не стоит их даже упоминать.

Человек выложил какой-то результат с форума, я просто констатировал, что Tiger Lake показывает в полтора раза больше баллов, а вы почему-то решили, что это именно А12Z и все мы неправы.
не могу утверждать наверняка, но насколько я помню, это бенчмарк DTK, который всплыл где-то в августе-сентябре. Причем это x64 версия cinebench, т.е. запущенная через rosetta2.
При этом все ваши рассуждения строятся на том, что в теории A12X должен быть аналогичен A12Z, хотя никаких точных подтверждений этому нет.
вас не смущает что A12X и A12Z сравнимы в пределах погрешности в бенчмарках, а M1 уделывает оба на порядки?
Дальше вы начали ссылаться на результаты Anandtech, которые что-то там интерполировали и сделали далеко идущие выводы касаемо энергопотребления, хотя это в принципе некорректно.
тем не менее у вас есть факт, предоставленный самими intel: при энергопотреблении 15W 1165-й может выдавать частоту 1.8 GHz, а на скрине 2.8.
Вот это и называется манипуляции и подмена понятий. Apple, кстати, так же делает на своих презентациях.
конкретно здесь манипулируете и подменяете понятия только вы
при энергопотреблении 15W 1165-й может выдавать частоту 1.8 GHz, а на скрине 2.8.

Справедливости ради, цифра для сравнения взята из второй строки, где у i7-1165G7 частота указана 1.69 GHz.
Другое дело, что без профиля нагрузки и графика реальной частоты с турбо-бустом, о энергопотреблении нельзя утверждать ничего.

Процессор получился довольно интересный, как по мне. Более того для тех машинок MB Air, MBPro 13 — получилось неплохое комбо со встроенной графикой — тут Интел отдыхает


В OpenCL результаты соответствуют больше дискретной графике, нежели встройке.
Apple Silicon выдает 18656 попугаев Apple M1 GPU
На моем MacBook Pro 16"


  • дискретная графика AMD Radeon Pro 5300M Compute Engine выдает 25759 попугаев
  • интегрированная Intel® UHD Graphics 630 выдает всего 5339 попугаев
Встроенный в Tiger Lake видеочип Intel Xe Graphics набирает в среднем 15438 баллов: browser.geekbench.com/opencl-benchmarks

Для М1 это очень хороший результат, но если требуется производительность, то альтернатив дискретной видеокарте нет. Та же обычная 2060 набирает в 4 раза больше.

Tiger Lake в Mac еще нет, я сравнивал с текущим доступным и это пока что максимум UHD 630 — и по сравнению с ними M1 GPU выглядит очень солидно. Ведь те машинки Air и Про 13" всегда шли на встроенной графике. Для старших же моделей — вероятно Apple выкатит что то иное в следующем году или подключит ту же дискретную графику.

А может использует связку из нескольких M1.
Да, они представят свою дискретную видеокарту. Я сильно сомневаюсь, что там будет поддержка видеокарт AMD и тем более nVidia.
там много «если». Для поддержки eGPU хоть от AMD, хоть от nvidia, нужна как минимум поддержка PCI over thunderbolt и драйвера от производителя видеокарт. А т.к. apple всё равно нуждается в видеокартах*, дальше два варианта: либо они рожают мощные видюхи сами, либо они прикручивают AMD-шные. Второй вариант кажется мне более вероятным — если бы apple разрабатывали флагманскую видюху, об этом бы уже были утечки; а они всё еще планируют до 2022 полностью перейти на ARM. В общем, ждем, где-то в течение полугода всё должно проясниться.

* и дело даже не только в профессионалах — по слухам, apple начали активно вкладываться в развитие своих игровых направлений.
Утечки уже были.

Что касается игр, то здесь все не так радужно. Да, многие игры с iPad и iPhone будут работать и на М1, но они рассчитаны в первую очередь на мобильные устройства и сенсорный ввод.

Многие полноценные ААА-игры изначально рассчитаны на использование x86 архитектуры, которая применяется на консолях от Sony и Microsoft, не говоря уже о ПК.
было время, когда и консоли были на powerPC. Ну а то, что консоли x86, вот прям ни разу не значит, что код между ПК и консолью свободно переносим. Ну и пользовательский ввод тоже варьируется, взять те же порты ПК/консоль.

По сути, игры пишут под конкретные таргеты, плюс минус договоры об эксклюзивности. Насколько профитно писать AAA тайтлы под apple сейчас? Не шибко, потому и не пишут. Но apple в них вкладывается, опять же, если верить утечкам. Есть например спекуляции что следующий apple tv будет совмещать функции игровой консоли, по крайней мере на продукт уровня xbox series S apple точно способны, сейчас в mac mini железо посильнее будет.

Я не могу утверждать что у них получится развить это направление, но имо всё не так однозначно.
Ну а то, что консоли x86, вот прям ни разу не значит, что код между ПК и консолью свободно переносим
иксбокс смотрит на это утверждение с непониманием
Ну и пользовательский ввод тоже варьируется, взять те же порты ПК/консоль.
на иксбоксе текущем вроде клава с мышой поддерживаются, не?
сейчас в mac mini железо посильнее будет.
угу, по бенчам в просмотре видео? Или по ддр4 в качестве оперативки?
Или по многопоточной производительности?
иксбокс смотрит на это утверждение с непониманием
это только в теории. На практике игроделам всё равно приходится учитывать разницу между ПК и коробкой. Как минимум из-за динамической подгрузки текстур и HDD у многих владельцев ПК.
на иксбоксе текущем вроде клава с мышой поддерживаются, не?
но основным методом ввода тем не менее считается контроллер. Хотя мой изначальный аргумент несколько в другом — метод ввода не являются каким-то фундаментальным ограничением при переносе игры на другую платформу
угу, по бенчам в просмотре видео? Или по ддр4 в качестве оперативки?
Или по многопоточной производительности?
вы же понимаете что в консолях стоит что-то типа зарезанного по энергопотреблению ryzen 3300x, а не 5950x? Вот с ddr4 внутри soc или ddr6 конечно вопрос актуальный, это да.
На практике игроделам всё равно приходится учитывать разницу между ПК и коробкой.

Эта разница кажется совсем незначительной рядом с отличиями между платформами Windows/DirectX и macOS/Metal.


А если говорить о производительности, то графические чипы в консолях последнего поколения значительно превосходит всё, что мы знаем о GPU от Apple даже из оптимистичных утечек, и по голой мощности и по функциональности.
А интегрировать сторонний GPU с Unified Memory и стримингом с SSD так, как это работает в PS5, боюсь нереально.

Эта разница кажется совсем незначительной рядом с отличиями между платформами Windows/DirectX и macOS/Metal.
ну у sony например там далеко не windows/directx, и портируют же.
А если говорить о производительности, то графические чипы в консолях последнего поколения значительно превосходит всё, что мы знаем о GPU от Apple даже из оптимистичных утечек, и по голой мощности и по функциональности.
я кажется пропустил утечки конкретно про видюху от apple. Можете дать ссылку? Потому что например в xbox series S достаточно слабая видюха, уровня консоли предыдущего поколения, т.е. сравнимая мб с 1060.
А интегрировать сторонний GPU с Unified Memory и стримингом с SSD так, как это работает в PS5, боюсь нереально.
ну sony/MS же сделали
ну у sony например там далеко не windows/directx, и портируют же.

Так и между XBox-PC тоже портируют. Вопрос в трудозатратах и потенциальной выгоде.


я кажется пропустил утечки конкретно про видюху от apple. Можете дать ссылку?

https://www.extremetech.com/computing/314466-apple-reportedly-prepping-new-self-built-imac-gpu-for-2h-2021
Ссылок с подробностями не нахожу, хотя был уверен, что читал, сорри.


Потому что например в xbox series S достаточно слабая видюха

Смотрят-то все на XBox Series X.


ну sony/MS же сделали

Там и CPU и GPU от AMD. Они давно делают APU с общей памятью, плюс под большой заказ сделали отдельную платформу.
Мне даже представить страшно, сколько всего нужно сделать, чтобы CPU от Apple и GPU от AMD (к примеру), смогли работать сообща с одним пулом памяти.

вы же понимаете что в консолях стоит что-то типа зарезанного по энергопотреблению ryzen 3300x, а не 5950x? Вот с ddr4 внутри soc или ddr6 конечно вопрос актуальный, это да.
3300X — это 4/8 потоков. Странно, я точно помню, что обещали 8/16 c 3,6/3,8 ГГц, что выше, чем базовая у 4900H.
И видик на 12,5 Тфлопс. Сколько там у М1? 2,6 вроде как или я что путаю?
Ну вот почему-то у вас вся аргументация такого же уровня.
3300X — это 4/8 потоков. Странно, я точно помню, что обещали 8/16 c 3,6/3,8 ГГц, что выше, чем базовая у 4900H.
ryzen 4xxx это ноутбучные процы. Десктопный аналог zen2 проца, вероятно, будет 3700x — 8/16, 3600+ МГц. Что едва ли имеет существенное значение — в однопоточке M1 всё равно сильнее, а многопоточки ему хватит.
И видик на 12,5 Тфлопс.
поэтому я и упоминал xbox series S когда говорил о видюхе. В S-ке 4 tflops, меньше, чем у ps4 pro. По сути, разрабам сейчас придется адаптировать игры под S (т.к. она из-за дешевизны будет пользоваться спросом).
Сколько там у М1? 2,6 вроде как или я что путаю?
а вас не смущает что tflops разных производителей как-то плоховато соотносятся? Например, и у 5700XT, и у RTX2080 по 10 tflops.
Ну вот почему-то у вас вся аргументация такого же уровня.
Ну подумаешь, забыл что там не 4/8 а 8/16. Почему у вас вечно такая подача аргументации, что даже если согласен, всё равно плюнуть хочется?
Ну подумаешь, забыл что там не 4/8 а 8/16. Почему у вас вечно такая подача аргументации, что даже если согласен, всё равно плюнуть хочется?
В зеркало часто смотритесь?
Ибо вы так передергиваете, а когда вас ловят, то виноваты окружающие.
ryzen 4xxx это ноутбучные процы. Десктопный аналог zen2 проца, вероятно, будет 3700x
Ноутбучные были модернизированы в стороны зен3, если что.
а многопоточки ему хватит.
а, ну да. 4 больших ядра + 4 маленьких против потоков 16 — это норма, народу больше и не надо.
По сути, разрабам сейчас придется адаптировать игры под S
Не придётся. Они снизят качество картинки. Только получается, что новый чип смог догнать производительность чипов какого года, не подскажете?
Ноутбучные были модернизированы в стороны зен3, если что.
чет гугл говорит zen 2 в 4xxx. Может, как-то поясните?
а, ну да. 4 больших ядра + 4 маленьких против потоков 16 — это норма, народу больше и не надо.
назовите игру которая упрется в многопоточную производительность например 10300-ого.
Только получается, что новый чип смог догнать производительность чипов какого года, не подскажете?
Назовите чип, который в теплопакете порядка 25W набирает большую одноядерную или многоядерную производительность.
чет гугл говорит zen 2 в 4xxx. Может, как-то поясните?
Там zen2, но так как это монолитный чип, то были переработки всего и на выходе 15 ваттный 4800U уже оказался сильнее большинства интелов с нормальной ватностью.
назовите игру которая упрется в многопоточную производительность например 10300-ого.
Подъехали рассказы, что играм больше 7700 не нужно (аналог 10300). Да уж, регулярные тестирования от нормальных обзорщиков этот несвежый миф давно развеяли.
Вы не просто достигли дна в своих передергиваниях, вы начали копать глубже.
Назовите чип, который в теплопакете порядка 25W набирает большую одноядерную или многоядерную производительность.
4800U в многоядер даже в вашем любимом Geekbench 5.
А одноядерную на меньшем количестве ядер действительно проще разгонять, на чем и строиться данный подлог.
И это у амд память не распаяна на чипе. В этом плане рассказы, как M1 для игорёк крут по сравнению с несвежими или не топовыми вараинтами только и остается что писать. Особенно, если цену сравнить.
Но производители ноутов пока не готовы закупать подобные чипы в ноутбуки, особенно с учетом, что поставить какой-нибудь 4900H и видик помощнее явно стоит дешевле.
Подъехали рассказы, что играм больше 7700 не нужно (аналог 10300). Да уж, регулярные тестирования от нормальных обзорщиков этот несвежый миф давно развеяли.
дело в том, что я смотрю эти «регулярные тестирования», и вижу одну и ту же картину: игры упираются именно в однопоток. Тот же 10900K показывает себя хуже 10600K с точки зрения FPS в средней игре, а разница там по сути в числе ядер, в пользу первого. Вот у M1 с однопотоком всё нормально.
4800U в многоядер даже в вашем любимом Geekbench 5.
а он в режиме многоядерного буста потребляет 25W?
А одноядерную на меньшем количестве ядер действительно проще разгонять, на чем и строиться данный подлог.
но у M1 нет буста…
И это у амд память не распаяна на чипе
ну, intel уже давно хочет распаивать (lakefield), скоро и AMD начнут. Распаяют — посмотрим.
Особенно, если цену сравнить.… явно стоит дешевле.
цену чего и чего? M1 против 4800U+графики? У вас есть инсайд почем нынче каждый из них? Плюс, 4800U + графика + внешняя RAM как бы побольше жрут, это на потребительских качествах ноутов тоже сказывается.
цену чего и чего? M1 против
XBOX в продаже, которую он типа опередил. Что s, что x. Бггг.
ну, intel уже давно хочет распаивать (lakefield), скоро и AMD начнут.
коробка и плойка вам в осознание. причём ещё прошлые.
но у M1 нет буста…
Ага, там переключение между слабыми и сильными ядрами? Да уж, порвали так порвали.
Плюс, 4800U + графика + внешняя RAM как бы побольше жрут, это на потребительских качествах ноутов тоже сказывается.
Угу, но доступны в ноутах за 50% от цены эира.
игры упираются именно в однопоток. Тот же 10900K показывает себя хуже 10600K с точки зрения FPS в средней игре, а разница там по сути в числе ядер, в пользу первого.
О, уже не 10300, а 6/12. Ворота двигаются. Осталось упомянуть, что таки даже 6/12 10-го поколения всё равно в тестируемых проигрывает, кроме вариантов, когда все лыжники пришли единовременно из-за лавины.
а он в режиме многоядерного буста потребляет 25W?
а сколько M1 потребляет в реальности под нагрузкой 100% в течении часа?
Угу, но доступны в ноутах за 50% от цены эира.
например? А еще вы пытаетесь парировать аргумент про энергопотребление ценой — слегка ортогональным параметром.
коробка и плойка вам в осознание. причём ещё прошлые.
те, которые весьма посредственные? На нынешнем xbox SX память кажется отдельно, мб я неправильно смотрю? На плойке так же, только память на обратной стороне материнки.
О, уже не 10300, а 6/12. Ворота двигаются. Осталось упомянуть, что таки даже 6/12 10-го поколения всё равно в тестируемых проигрывает, кроме вариантов, когда все лыжники пришли единовременно из-за лавины.
так они в одноядерной производительности немного разные.
а сколько M1 потребляет в реальности под нагрузкой 100% в течении часа?
через пару дней замерят наверняка. А сегодня можно судить как минимум из того, что там нет буста.
например?
4800H + 1650Ti тысяч 80 прям от балды нашёл. то бишь в 1,5 раза найти можно.
А еще вы пытаетесь парировать аргумент про энергопотребление ценой — слегка ортогональным параметром.
В чем это? Что M1 что подобные чипы при желании охватить сразу весь спектр объема оперативки стоить будут намного дороже, чем купить простой проц и простую оперативку отдельно?
Или про то, что производительность железки за минимум 120к вы сравниваете с производительностью приставки за сколько там… менее 30к и на фоне её начинаете говорить про производительность?
те, которые весьма посредственные? На нынешнем xbox SX память кажется отдельно, мб я неправильно смотрю?
но при этом там умудряются гддр6. Но согласен, не на на той же подложке, а рядышком и на большей частоте.
Любой каприз за ваши деньги, правда железка получится золотой, скорей всего.
так они в одноядерной производительности немного разные.
Настолько, что даже разгон не помогает?
А сегодня можно судить как минимум из того, что там нет буста.
ну можете буст отключить, кто вам мешает, ещё и даунвольтнуть и получить чуть ниже производительность.
Ну так, отсутствие буста, это не плюс.
4800H + 1650Ti тысяч 80 прям от балды нашёл. то бишь в 1,5 раза найти можно.
ну air от 100кр, то бишь $1000. То есть даже не в полтора раза, а на 20%. А утверждали про «вдвое». Как вы там сказали? «Ворота двигаются»? Или таки можете предоставить пример $500 ноута с 4800U + dgpu?
Или про то, что производительность железки за минимум 120к вы сравниваете с производительностью приставки за сколько там… менее 30к и на фоне её начинаете говорить про производительность?
во-первых, если уж и сравнивать приставку с каким-то маком, то с mac mini. Во-вторых, приставки дешевые из-за модели распространения — их стоимость отбивается за счет подписок и накрутки цен на игры.
но при этом там умудряются гддр6. Но согласен, не на на той же подложке, а рядышком и на большей частоте.
«гддр6» там скорее необходимость, т.к. это память для графики. Было бы лучше если бы apple запихали ddr6 в m1? Наверно да. Насколько?
Настолько, что даже разгон не помогает?
еще раз: у вас процессоры разных линеек имеют разную одноядерную производительность, которая и определяет последние единицы процентов разницы в FPS. Банально из-за silicon lottery шанс что лучшее ядро из четырех будет шустрее лучшего ядра из 10 минимален.
ну можете буст отключить, кто вам мешает, ещё и даунвольтнуть и получить чуть ниже производительность.
«чуть ниже», ага. Какие там частоты 1185G7 а. при заявленном TDP и б. при разгоне?
ну air от 100кр, то бишь $1000. То есть даже не в полтора раза, а на 20%.
8 гигов 256 против 16 512?
То есть даже не в полтора раза, а на 20%.
В полтора. До вашего урезания ядер в два раза мне всё равно далеко.
Или таки можете предоставить пример $500 ноута с 4800U + dgpu?
4800H + 1650 — от 70к. Те же 16/512.
Да, выбор в РФ скудный
во-первых, если уж и сравнивать приставку с каким-то маком, то с mac mini.
8 гигов максимум, 256 жесткий, 75к. Отличный не конкурент даже старому поколению приставок, по вашим же словам, что видик в оных сравним с новым в оном.
«гддр6» там скорее необходимость, т.к. это память для графики. Было бы лучше если бы apple запихали ddr6 в m1? Наверно да. Насколько?
А, и людям не надо больше 4 ядер, и оперативка скоростная не нужна и прочие выверты оправданий попытке сравнения и заявлений о крутой игровой производительности. Гддр6 там ради игровой производительности, про которую вы заявили, что данный проц типа крут. А сейчас начинаются виляния.
еще раз: у вас процессоры разных линеек имеют разную одноядерную производительность, которая и определяет последние единицы процентов разницы в FPS. Банально из-за silicon lottery шанс что лучшее ядро из четырех будет шустрее лучшего ядра из 10 минимален.
Это про то, что i5 вроде K серии — это отключение ядер у i9?
«чуть ниже», ага. Какие там частоты 1185G7 а. при заявленном TDP и б. при разгоне?
то есть аргументы про амд пытаются бить аргументами про интел? Бггг.
У амд, кстати, достаточно часто даунвольтинг проца ведёт к улучшению одноядерной производительности. Стандартный механизм. Очень полезный именно что в долговременной работе. Поэтому на часовых нагрузках перегревы из-за лишнего буста одного ядра могут повлиять хуже, чем равномерная работа с меньшими температурами. Внезапно, да?
8 гигов 256 против 16 512?
А я прошу от вас выбирать 16/512?
4800H + 1650 — от 70к. Те же 16/512.
Да, выбор в РФ скудный
какая модель то?
8 гигов максимум, 256 жесткий, 75к.
максимум 16 гигов всё-таки
Гддр6 там ради игровой производительности, про которую вы заявили, что данный проц типа крут. А сейчас начинаются виляния.
не начиналось никаких виляний. Я задал простой и четкий вопрос: «насколько?». Не можете ответить — не знаете — не спорьте.
Это про то, что i5 вроде K серии — это отключение ядер у i9?
а я это утверждал? Или это как-то коррелирует с сабжем?
то есть аргументы про амд пытаются бить аргументами про интел? Бггг.
1185G7 здесь для примера, можете привести аналогичные цифры для 4800U или любого другого чипа который в вашем миропредставлении является конкурентом M1.
Поэтому на часовых нагрузках перегревы из-за лишнего буста одного ядра могут повлиять хуже, чем равномерная работа с меньшими температурами. Внезапно, да?
да, но этому эффекту M1 не подвержен, по очевидным причинам. Вы можете взять любой ноутбучный процессор, в режиме энергопотребления до 25W, и сравнить его с M1? Или все ваши доводы — чистые спекуляции, основанные на нерелевантных нюансах?
А я прошу от вас выбирать 16/512?
Ах да, я забыл, мы про игры, им не нужно ни оперативки обычной, ни места на жестком диске, ни скоростной оперативки и вообще 640кб хватит.
максимум 16 гигов всё-таки
Возможно, с этим эплом фиг найдёшь
а я это утверждал? Или это как-то коррелирует с сабжем?
С тем, что вы там распинались про ядра в разных процах и шансе на более клевое и прочее, попутно исподволь пытаясь подвести, что +100мгц на ядро даёт такую заметную прибавку, что аж страшно становится.
1185G7 здесь для примера, можете привести аналогичные цифры для 4800U
То есть сами придумали, сами обиделись, а я должен приводить?
да, но этому эффекту M1 не подвержен, по очевидным причинам.
Тротлить он то же не умеет, я понял. Зато сколько рассказов по 25 типа реальных ватт, угу. А они там точно реальные, а то, вдруг, окажется, что нет?
Вы можете взять любой ноутбучный процессор, в режиме энергопотребления до 25W
Так вперёд. Берёте гугл и начинаете… ах да, есть проблема — у вас кроме как оценчоки в одном бенчмарке, в котором 16 ядер ии могли затесаться в производительность одного ядра — и нет ничего.
Тогда как амд и на 15 ваттах, и на 25 ваттах тестировался, да и вообще, у него задаётся производителем от 12 до 28 ватт.
Ах да, я забыл, мы про игры, им не нужно ни оперативки обычной, ни места на жестком диске, ни скоростной оперативки и вообще 640кб хватит.
еще раз. Вы заверили что процессор M1 дорогой, аргументировав это сравнением консолей с macbook air, причем по цене, после чего пытаетесь доказать что macbook air вдвое дороже другого ноутбука с 4800U+dgpu, и потом критикуете меня! за то что я попросил вас указать эту модель ноутбука! потому что она имеет больше памяти и диска! А я всё это время даже не знаю какой ноутбук вы сравниваете! Черт подери, ладно, 13" MBA с 16/512 стоит $1400, что за модель, которая по вашим заверениям «4800H + 1650 — от 70к. Те же 16/512.»? И вообще я про 4800U спрашивал, H это 45-ваттный чип.

И еще обвиняете меня в неконсистентности. Да я если где и путаюсь, так это в лабиринтах ваших псевдологических/демагогических переходов
что вы там распинались про ядра в разных процах и шансе на более клевое и прочее, попутно исподволь пытаясь подвести, что +100мгц на ядро даёт такую заметную прибавку, что аж страшно становится.
я хочу чтобы вы сами нашли и своими глазами посмотрели как соотносятся частоты и TDP разных x86 процов. Потому что ваша аргументация сводится к тому что M1 проигрывает каким-то там процам, заклоченным на 45-50W, но выдать пытаетесь за результат при референсных 15-25W.
Тогда как амд и на 15 ваттах, и на 25 ваттах тестировался, да и вообще, у него задаётся производителем от 12 до 28 ватт.
тестировался — да. А вы ознакомились с результатами этого тестирования? Собственно, этим я вас и прошу заняться
Вы заверили что процессор M1 дорогой, аргументировав это сравнением консолей с macbook air
и на макминях тоже, что харакетрно, причем имеющих намного худшие параметры при заведомо большей цене. ну так что, нашли 16 гигов на сайте эпл в россии у макминей? а то мне цена интересна.
после чего пытаетесь доказать что macbook air вдвое дороже другого ноутбука с 4800U+dgpu
и приводил в пример 4800H c 1650, которые ещё дороже ибо производительней. 4800u в РФ вообще только один нашёл, а зарубежные сайты не мониторю.
а я если где и путаюсь, так это в
том месте, где процессору в приставке урезали ядер и процессоров в два раза и это тоже я виноват, по любому.
я хочу чтобы вы сами нашли и своими глазами посмотрели как соотносятся частоты и TDP разных x86 процов.
тестирование 4800U с тдп 15 и 25 ватт вполне себе есть в гугле при минимальном напряжении пальцев
А вы ознакомились с результатами этого тестирования?
Да, отличные результаты в РЕАЛЬНЫХ играх. Нагибали более ваттных соперников отлично.
Потому что ваша аргументация сводится к тому что M1
Неа, это вы заявили в духе, что М1 порвал всех и для игр топчик. Правда видик там на уровне прошлого поколения консолей, оперативки для игр быстрой нет, а самая дешевая конфига имеет 8 гигов суммарно для гпу и цпу, минимальный жесткий диск, куда даже современную игрушку если и поставишь, то для второй место не останется и стоит это всё как чугунный мост
Ах да, добью, на 5 нм весь этот чип имеет транзисторный бюджет в 16 млрд транзисторов. Аж с 4 крупными ядрами и 4 мелкими (но как вы их нагрузите вместе?).
Окей, сколько же транзисторов в сердце Xbox Series X?
Ну вы поняли, да? 8/16 и чуть-чуть топовый видик для почти честного 4к гейминга. 15,3 млрд.
Нейронка вас спасёт?
и на макминях тоже, что харакетрно, причем имеющих намного худшие параметры при заведомо большей цене
но при чем тут макбук то?
ну так что, нашли 16 гигов на сайте эпл в россии у макминей? а то мне цена интересна
Store. В россии недоступен по предзаказу, скорее всего станет доступен завтра, но посчитать цену очень легко — доллар нынче стоит 100 рублей.
и приводил в пример 4800H c 1650, которые ещё дороже ибо производительней. 4800u в РФ вообще только один нашёл, а зарубежные сайты не мониторю.
ну какие же они, эти ноутбуки-то?
тестирование 4800U с тдп 15 и 25 ватт вполне себе есть в гугле при минимальном напряжении пальцев
Ладно, сами смотреть не хотите, придется тыкать носом. Вот некоторая коллекция бенчмарков, из них можем примерно оценить что на 15W 4800U набирает примерно на 15% меньше чем при 25W в CPU-bound задачах. Теперь берем наше сравнение (выбрал 4800U со счетом побольше, предположительно там и TDP повыше, верно?) и отнимаем от 4800U 15% в многопоточке. Прекрасно смотрится, да?
Неа, это вы заявили в духе, что М1 порвал всех и для игр топчик.
Заявил я всё-таки не это, а «по крайней мере на продукт уровня xbox series S apple точно способны, сейчас в mac mini железо посильнее будет». Признаю, во второй части я не прав, но это не отменяет первую.
Ах да, добью, на 5 нм весь этот чип имеет транзисторный бюджет в 16 млрд транзисторов.
и в чем суть выпада? «Хаха apple лохи потратили на фичи которых нет в других процах сколько-то там транзисторов»?
Нейронка вас спасёт?
не знаю, может быть
но при чем тут макбук то?
аргумент был про то, что данный чип весьма дорогой и продукция на нём заметно дороже будет.
Store. В россии недоступен по предзаказу, скорее всего станет доступен завтра, но посчитать цену очень легко — доллар нынче стоит 100 рублей.
Ну вот и вы прекрасно посчитаете сравнимую с xbox кофигурацию и можете выдать ответ по стоимость/производительность.
ну какие же они, эти ноутбуки-то?
асусы и хп.
Ладно, сами смотреть не хотите, придется тыкать носом.
ткнитесь сами. может наконец-то дойдёт
на 15W 4800U набирает примерно на 15% меньше чем при 25W в CPU-bound задачах.
То есть при потреблении на 2/5 ниже получаем производительность на 1/6,5?
Прекрасно смотрится, да?
Для того, что потребляет на 2/5 ниже* Серьезно?
Признаю, во второй части я не прав, но это не отменяет первую.
а первая про баллы, которые у вас для игр нет, а есть только для набора задач пользователей.
и в чем суть выпада? «Хаха apple лохи потратили на фичи которых нет в других процах сколько-то там транзисторов»?
смотрите на цену коробки. на производительность. на цену коробки. на производительность. а потом на цену коробки серии С, с которой по вашим же словам сопоставим макмини на этом порвавшем в одно ядро всех.
Так вот, вы за одинаковый транзисторный бюджет получили всего лишь 4 ядра и 4 полуядра и видик уровня прошлого поколения консолей.
Это победа, я считаю.
Зато с нейронкой!
аргумент был про то, что данный чип весьма дорогой и продукция на нём заметно дороже будет.
т.е. вы судите о цене чипа по цене устройства?
Ну вот и вы прекрасно посчитаете сравнимую с xbox кофигурацию и можете выдать ответ по стоимость/производительность.
берете xbox за $500, добавляете подписку за $15/мес (а без неё коробка весьма грустная), экстраполируете на 5 лет и получаете ~$1000 (с учетом двух лет подписки в комплекте).
асусы и хп.
Ну вот нашел я единственный 4800U ноут в россии, 77 кр, никакой дискретки, 8 гигов, и никакие не два раза, от силы полтора.
То есть при потреблении на 2/5 ниже получаем производительность на 1/6,5?
то есть при номинальном TDP получаем меньшую производительность, чем тот же M1, что я и пытаюсь объяснить.
Так вот, вы за одинаковый транзисторный бюджет получили всего лишь 4 ядра и 4 полуядра и видик уровня прошлого поколения консолей.
Это победа, я считаю.
Зато с нейронкой!
с каких пор я за технику расплачиваюсь транзисторами? С каких пор вообще транзисторный бюджет должен волновать кого-то кроме разработчиков чипов?
т.е. вы судите о цене чипа по цене устройства?
Ну так ведь за технику вы расплачиваетесь деньгами, не так ли? А то по ценам вы судить не хотите, транизсторные бюджеты тоже стали не интересны, как показали какой ценой победили.
берете xbox за $500, добавляете подписку за $15/мес (а без неё коробка весьма грустная), экстраполируете на 5 лет и получаете ~$1000 (с учетом двух лет подписки в комплекте).
То есть ещё раз. за 5 лет я по вашим словам отдам 109к (1400$ если ваши циферки посчитать) по текущим ценам за коробку и смогу наслаждаться кучей игр по подписке. Тогда как за макмини, который в 2 раза беднейшей комплектации и по оперативке, и по ссд, и по видику — стоит 75к и не позволяет играть, как на топовой коробочку, да и игры под него надо так же покупать — по вашему мне обойдётся в эти 5 лет дешевле? А 16 гигов + 1 тб обойдутся в 1300$
Слушайте, вы меня сейчас реально почти уговорили взять xbox! А ведь у него ещё джостик в комплекте!
то есть при номинальном TDP получаем меньшую производительность, чем тот же M1, что я и пытаюсь объяснить.
номинальный 25, у м1 тоже 25. чегось?
Ну вот нашел я единственный 4800U ноут в россии

и приводил в пример 4800H c 1650, которые ещё дороже ибо производительней. 4800u в РФ вообще только один нашёл, а зарубежные сайты не мониторю.
Интересно, что же могло пойти не так…
То есть ещё раз. за 5 лет я по вашим словам отдам 109к (1400$ если ваши циферки посчитать) по текущим ценам за коробку и смогу наслаждаться кучей игр по подписке
там то ли год то ли два бесплатно идет. Учтите только, что подписка хоть и позволяет играть в «кучу игр», свежие тайтлы придется покупать. Со скидкой конечно.

Давайте еще раз, что я пытаюсь доказать. Имея технологию коробки мак мини не представишь. А имея технологию макмини, коробку можно сделать.
номинальный 25, у м1 тоже 25. чегось?
у M1 10-18 Вт
Интересно, что же могло пойти не так…
и приводил в пример 4800H c 1650, которые ещё дороже ибо производительней
Итого: я прошу представить ноут с 4800U+dgpu который «вдвое дешевле» чем air за $1000, вы упоминаете какой-то там ноут с 4800H+dgpu за 74кр. Ладно, если сильно натянуть, взять конфигурацию air'а за $1400, можно сказать что да, по цене даже почти вдвое. Но скажите, вы сами готовы порекомендовать хоть кому-то такой ноутбук?
Давайте еще раз, что я пытаюсь доказать. Имея технологию коробки мак мини не представишь. А имея технологию макмини, коробку можно сделать.
А я вам раз за разом указываю обратно.
Коробка уже считай тот же макмини, в котором ОС запретили другие приложения гонять (и то не факт, что не изменится это). А вверху ваши рассуждения по которым даже с подписками на игры коробка дешевле аналогичного только условно макмини — это наглядно показывают. Потому что для прочего ему нужен новый чип для работы с видиком покруче (внешних видиков нет и через тандерболт тоже), либо новый чип, в который впендюрить видик в 4,5 раза круче. А аналогичен он будет по памяти и объему ссд.
А коробка уже есть и продаётся в такой конфиге и позволяет гонять игры уже сейчас.
Причём сделать на zen3 её так же не проблема, хотя скорей всего забацают на условном zen4.
о скажите, вы сами готовы порекомендовать хоть кому-то такой ноутбук?
А чего бы нет? Это леновка легион 5, леново что-то там 3. Леново не плохие ноуты делает.
Есть ещё ХП и асус в около такие же цены.
я прошу представить ноут с 4800U+dgpu который «вдвое дешевле» чем air за $1000
Ноуп, чем аналогичный по начинке ноут от эпл. По количеству гигов, ссд, а не устаревшим на пару лет объемами ссд и ддр.
Это не говоря о том, что они ещё и расширяемые. То есть 4800h тот же 64 гига поддерживает в принципе и по два жестких в них может стоять. Не распаянных, угу.
wiki считает что 8 ядер и у xbox (https://en.wikipedia.org/wiki/Xbox_Series_X_and_Series_S#Comparison), и у ps5 (https://en.wikipedia.org/wiki/PlayStation_5#Hardware) частоты у xbox повыше — 3.8/3.6 и ps5 3.6

Если в итоге производительность будет соответствовать заявленной, получится, что люди, купившие Мак в этом году на чипе Интел, немного облажались.

<sarcasm> Это безотносительно того какая производительность будет у новых чипов </sarcasm>
Вопросы:

А как он при этом греется и как быстро исчерпывается аккумулятор?
И сколько при этом стоит.

А вы сами то ходили по ссылкам? Да, чуда не стоит ждать — CISC‐процессор сливает RISC‐процессору, как и ожидалось.
Ходил, и? Во первых не коректно сравнивать разные техпроцесы, во вторых кому сливает? ноутбучным камням!!! Вы из какого леса вышли? В чем выиграшь будет весь софт что уже нативный есть, или вы думаете AVX2 или AVX512 Розетта 2 будет эмулировать(транслировать) на такой же производительности? RISC-V тоже прийдет. ыСразу видно подгорает у вас знатно!!!
Попробуйте делать проверку орфографии перед отправкой комментария, а то это невозможно читать.
www.overclockers.ua/news/hardware/2020-11-16/128067
«Выяснилось, что указанные результаты Cinebench R23 принадлежат не Apple M1, а однокристальной системе A12Z Bionic в составе компьютера Mac Mini Developer Transition Kit для разработчиков. Настоящих бенчмарков процессора M1 придётся ещё подождать.»(с)
3dnews.ru/1025528/apple-m1-provalilsya-v-teste-proizvoditelnosti-cinebench-r23-no-ego-vstroennaya-grafika-viglyadit-neploho
а вот это больше похоже на M1

А теперь первые обзоры: 1, 2, 3, 4, 5. Обзорщики сходятся на том что
  1. M1 превосходит все ожидания по быстродействию, в некоторых задачах оправдывает расплывчатые («vague») метрики apple
  2. батарея действительно держится шикарно
  3. ноуты не шумят даже под полной нагрузкой (после ~10 минут пиковой нагрузки air начинает троттлить, а pro только включает вентиляторы)
  4. практически? всё не адаптированное запускается под rosetta 2 со сравнимой, а иногда превосходящей производительностью
  5. iphone/ipad приложения еще не шибко адаптированы под mac
  6. но рекомендуют осторожно, а то мало ли, вдруг у вас работа застопорится если что-то откажется эмулироваться
  7. вебка могла бы быть и получше

От себя добавлю, что большинство их сравнений относительно предыдущих макбуков. То есть относительно ноутов с более новыми процессорами, например с ryzen 4800U/i7-1185G7, M1-маки будут выглядеть менее впечатляющими, хоть и всё еще достаточно солидными. Например вот здесь пример с adobe premiere, если я правильно понял, он запускается через rosetta 2.
а вот это больше похоже на M1. Один нюанс — cinebench еще не работает нативно на M1 и запускается через трансляцию посредством rosetta 2.

23 как раз нативно работает.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.