Comments 295
Слава королю!
Только ему бы еще научиться писать Оранжевые и Красные книги, к моменту выхода процессора на рынок, а не 10-15 лет спустя.
Любым просмотрщиком фото. У меня даже встроенным Windows Photo Viewer эта картинка открылась, отобразилась быстро, даже пол чашки чаю не успел выпить.
IrfanView осилил, скушав 930 МБ, потом сбросив до 230. Утверждает, что в изображении 12230*6664 пикселей, вероятно упростил как-то себе задачу.
ImageJ, шустрый, экономный, всеядный. Но использовать его для ручного редактирования почти невозможно.
А каким инструментом посмотреть картинку на 185 Мб?
Символичный вопрос… А я всё думал для чего создают процессоры подобные сабжу )))) Видимо чтобы было комфортно просматривать статью про него же )))
Топологию процессора всё же, вероятно, комфортнее просматривать в CAD'е, в котором его конструировали. Заодно и информативнее. В предоставленном jpg файле и чёткость частично утеряна, и видны массивные следы перетрава. В общем, для фотообоев не годится. Что, впрочем, не мешает уважать проведенную работу.
FastStone задумался, но открыл секунд за 8. Масштабирует тоже в течении нескольких секунд. в остальном норм. Памяти отъедает 1гб.
Mathlab, предоставленный Intel.
Маленький хак с Reddit, который в разы ускоряет mathlab на AMD.
Бойтесь данайцев, дары приносящих?
PS архитектурные отличия Intel в mathlab, судя по reddit — это включение наборов расширенных инструкций выше SSE1 для синих процессоров. Хак включает их и для красных.

Честная конкуренция. Интел сделал в своей библиотеке использование неэффективных инструкций на процессоре конкурента, а потом использовал это для бенчмарка. Позор, что Интел вместо того, чтобы улучшить процессоры, использует такие грязные способы обмана потребителя.

Причем использует с очень давних времен:
Придётся ли Intel убрать из компилятора функцию, намеренно выдающую плохой код для процессоров AMD?


Подмена CPU ID с AMD или VIA на Intel увеличивает скорость ПО и результаты бенчмарков
Ускоряем ПО заменой одной строчки содержащей наименование производителя процессора
image

Как и прочие «грязные» методы захвата/удержания рыночной доли типа подкупа и/или шантажа вендоров железа и разработчиков софта, с целью продвижения и выставления в более выгодном свете своей продукции.
Компиляторов Intel разработала определённо больше, чем AMD. Как и средств оптимизации кода, как для CPU, так и для GPU. И это, вроде бы, неплохо. Использование собственных разработок для продвижения собственных разработок не так неплохо, но пока что не наказуемо. C'est la vie.
Ну знаете, потребитель компилятора наверно не ожидает, что код на выходе будет проверять расовую чистоту процессора.

Как я помню, там именно так:
если(это_наш_процессор && есть_новые_инструкции)
{
новые инструкции;
}
иначе
{
старые инструкции;
}

То есть вставляется дополнительное условие, которое не нужно.

Это оно в данном случае не нужно. А теперь представьте себе, что там if по куче моделей процессоров, выбирающих разные уровни SSE/AVX с разными конкретными командами в зависимости от микроархитектуры.

Ну чтот я очень сомневаюсь, что там варианты на десятки микроархитектур.
Да да, по куче моделей процессоров:
Checking for vendor ID is an affirmative action. The grey area is whether they are optimizing for specific CPU models or for specific instruction sets. There is only one case where they distinguish between different CPU models that have the same instruction set, namely Pentium 4 versus Pentium M. In most cases, however, they use the same code path for both, or the two paths are identical or almost identical. The distinction may be unimportant from a technical point of view, but it may give Intel a legal excuse for claiming that they are optimizing for specific CPU models.
(с) Agner Fog.

Я тут скорее по вещам типа mkl сужу, хотя да, в случае с компилятором это не столь релевантно, наверное.

Да, именно так и работает весь код который использует SIMD. Процессоров Intel с разными версиями и подверсиями SSE и AVX не меньше чем AMD, их тоже как-то нужно друг от друга отличать.

Ну только это было в Zen, и, если мне память не изменяет, быстро исправлено исправлениями микрокода/новыми БИОС. Но включить «забыли» и на Zen+, и на Zen2, и судя по описанию что вижу на реддите, вообще на всех процессорах АМД, в том числе более старых, чем Zen, с правильным FMA3.
Ну это классическая история про то, что запачкаться проще, чем отмыться.
Слабая отмазка. Они занимались с тем же самым (отключали поддержку расширенных наборов команд, на всех НЕ ител процессорах, тем самым намеренно замедляя их работу) еще когда Zen даже в проекте не было. Как FMA3 инструкций.
См. табличку по моей ссылке выше с подменой CPU-ID — такой «хак» ускорял MATLAB еще 10 лет назад, со временем только степень ускорения/замедления растет, т.к. расширенные наборы команд в современных процессорах играют все возрастающую роль при интенсивных вычислениях.
Нет конечно. Наличие SSE, AVX определяется одинаково на Intel и AMD, одинаковой инструкцией. И если, например, AVX есть, то все инструкции AVX есть. Это не происходит как вы думаете: «ага, определили архитектуру Sandy Bridge, значит AVX есть, AVX2 нет».
Более того, правильная программа обязана именно так определять расширения. Сразу 2 примера почему:
1. Расширения можно конфигурировать из BIOS. Что лично видел: расширение AES можно включать/выключать на серверной материнке с Xeon архитектуры Westmere.
2. Виртуализация. Для виртуальной машины можно «собрать» любой процессор.

Возможно проводится оптимизация кода (это на прямую не связано с использованием расширений) на разные архитектуры, но, применительно к компилятору значило бы генерацию кода сразу для десятков архитектур, что маловероятно. Вот для какой-нить библиотеки и её «горячих» частей это применимо, но если взять компилятор Интел, тут такое не прокатит. Ну верней, судя по коментам, они «типа» оптимизировали под всего две архитектуры.
Определяется может быть и одинаково, вот только на процессорах AMD определённая последовательность инструкций вызывала его hang. И усе. А ещё они исполняются разное количество времени на AMD и Intel))
Я когда-то давно искал «а как memcpy люди делают», и где-то в дебрях исходников линукса нашел замечательный кусок ассемблерного кода с кучей вообще непонятно зачем нужных инструкций и комментарием типа «а этот код написал чувак, который принимал участие в разработке интеловских процессоров, мы не знаем почему, но если хоть что-то поменять — скорость сильно падает». Соответственно для интела у матлаба может быть схожая картина.
Наличие SSE, AVX определяется одинаково на Intel и AMD, одинаковой инструкцией.
Инструкция, может быть, и одинакова… а результат — разный. Вот просто банальная инструкция RSQRTPS — даёт разные результаты на Intel и AMD.

И то и другое — соотвествует спецификации, но в некоторых случаях приходится-таки писать код, проверяющий производителя CPU.

А Intel, похоже, решил что поддерживать всё это для своих CPU — это разумно, а для чужих — не очень…
Как-бы можно узнать о поддержке расширенных наборов инструкций независимо от «расы» процессора. Мы даже на нашем проекте хотели часть ядра перекомпилить под разные наборы инструкций и линковать динамически, чтобы была возможность воспользоваться преимуществами SSE/AVX тем, у кого эти инструкции поддерживаются. Даже речь не шла о том, чтобы проверять вендора.

Вам важно знать не только о поддержке расширенного набора инструкций, но и о характеристиках execution units, о прочих подобных микроархитектурных вещах (ну, всё то, что делает -march=native помимо выбора доступных SIMD).

Это делает mtune. Просто если не указать mtune, оно принимается равным march. Можно сделать, например, -march=skylake -mtune=generic.
А можно подробнее об этом? Или хотя-бы ссылку на место, где возможно провести акт rtfm?

Выше правильно уточнили про mtune. Но вообще это доки по тому же gcc, например.

Ну знаете, потребитель компилятора наверно не ожидает, что код на выходе будет проверять расовую чистоту процессора.

Неотъемлемое право потребителя в условиях рыночной экономики — выбор любого другого компилятора из числа имеющихся. Или написание своего.

В случае Матлаба никакой потребитель ничего не проверяет, это вам не опен-сорс.

Все это конечно, круто. Но… не забываем что matlab (без h, кстати) это математическое приложение, если AMD допустила ошибку в имплементации этих инструкций (или нестандартное поведение), то как бы… A это случалось уже не однажды gmplib.org
Ryzen CPU caution: The AMD Ryzen 5 and 7 CPUs sold up until at least November 2017 have serious bugs which make any software run very unreliably. One experiences spurious segfaults and system hangs from building as well as running GMP (or any other CPU intensive stuff).

И вы даже не представляете себе, какие ограничения накладываются на математические функции, в той же самой библиотеке Intel может быть инструкции AMD просто реально не подходят для этого уровня точности, которой требуется от этой библиотеки или выходят за некоторые пределы, которые они поставили на них. Или тупо не исполняются, после определенной последовательности инструкций. Один только тот бред с функцией синуса в intel процессарах чего стоил. Это же был просто абзац. После этого библиотека языка си для Linux (glibc) резко перешла на собственную имплементацию (программную) алгоритма синуса косинуса… В то время как у Microsoft изначально был программный алгоритм, поскольку они обо всём знали)) randomascii.wordpress.com/2014/10/09/intel-underestimates-error-bounds-by-1-3-quintillion
Есть подобные сообщения про другие компиляторы, например gcc или clang? Если нет, то это весомый аргумент против Intel.
Где я хоть что-то сказал про compiler? Они же с открытым кодом. И мы говорили не про компилятор, а про библиотеку math от intel.
Ну… Не бывает непогрешимых. У Intell тоже (как минимум однажды) случился хардварный баг, на который они попытались не обращать внимания, но баг нашли и покарали внесли поправки в некоторые компиляторы.
На хабре о той истории есть весьма забавная статья.
Что значит «точности»? Есть IEEE 754, которым следует AMD и Intel. Более того, x86-64 инструкции Intel лицензирует у AMD, как и AMD другие инструкции у них.
Про Ryzen до ноября 2017 — слишком громкое заявление. Отзыва процессоров не было. Проблемы наблюдались только в специфичных условиях под линуксом.
От fsin отказались ещё потому, что програмная реализация работала быстрее, а весь стек x87 уже давно стараются избегать.
Если говорить на чистоту, то у матлаба не было объективных причин отключать оптимизацию для процессоров AMD, т.к. как показывает хак — всё начинает работать быстрее с сохранением результатов.
Ммм. Ещё раз: в данном случае баг был в том, что если несколько раз исполнить определенную последовательность инструкций, то это приводило к halt процессора. Синий экран, kernel oops. Но потом это исправили.
А по какой причине была использована разная память для разных процессоров? Благодаря этому тесты сложно назвать объективными (как и многие моменты в статье).
Я и не утверждаю что разница в результатах будет огромна, но это же очевидный повод придраться. Тот факт, что тестировщики использовали худшую память для проигрывающего процессора, как бы намекает на то, что целью статьи было именно показать ниткохоронители в хорошем свете, а не провести объективные тесты (хотя я этого не утверждаю). При том, что можно было поставить для интела лучшую память и получить примерно ту же ситуацию в результатах, хоть и с меньшим разрывом.
Скажите, вы понимаете, что частота ж не единственное в этом случае?
Банально: подскажите тайминги оперативки по картинкам… А так, может там память одна и та же стояла, но.
Может быть много чего, только ведь об этом ни слова не сказано. И теперь известно лишь, что к интелу поставили низкочастотную память.
Что интересно, по спецификации intel должен работать с DDR4-2933, amd — DDR4-3200.
Взяли для теста память на градацию выше для каждого процессора.
Ещё раз, при желании занизить результаты было достаточно выставить у одного нормальный тайминги, а у другого — похуже и даже типа на одной частоте у вас бы получилось нужное.

Ух, сочно, компилять не перекомпилять.


Правда, в прошлой ветке про AMD советовали подождать процессоров на Zen 3. Имеет ли смысл их ждать (и сколько там будет до тредрипперов на Zen 3?)?

Ну, такое
каждые год-два всегда будет выходить что-то более новое и более быстрое
пусть и обещают что zen 3 будет ещё более суровым апгрейдом, чем zen 2, нужно смотреть на то, какой будет профит от такой покупки сейчас (нужно определиться, это НУЖНО купить или ХОЧЕТСЯ купить. Разница велика).
грубо говоря — если сэкономленное, благодаря такой трате, время, принесёт больше денег, чем будет потрачено на апгрейд, то можно брать хоть сейчас/подождать до января 64-х ядерник. Ну и в следующем году делать такой-же выбор)

Ну это для домашних утех и компиляний, так что в денежный профит напрямую конвертировать сложно. Но один мой проект моим текущим i7 3930k собирается уже минут 10-15, что бывает болезненно, например, да и IDE кушает все ядра и просит ещё.


С другой стороны, в том же компиляторе хаскеля параллелизм так себе. Хотя так вот повод поковырять появится.

Тогда стоит посмотреть на рузен 3950x
Дешёвые материнки, 16 довольно быстрых ядер, и ценник не такой кусачий, как у потокорвателей.

Так там же тот же вопрос, что и с тредрипперами. Но, судя по дискуссии тут, смысла ждать особого нет.


А так — да, 3950x отличный вариает. Смотря сколько бонуса выплатят в конце года, хехе.

В случае с обычным десктопным процом — имхо, можно брать лучшее, что есть на данный момент. Они не настолько дороги, особенно при том, что это будет апгрейд аж с 3930k. Threadripper 3000 является огромным апгрейдом сам по себе, ибо по бенчам (при равном количестве ядер) он обходит предыдущее поколение довольно значительно, порой даже на 60% (это не шутка, в некоторых(!) бенчах так и происходит), но стоит безумно дорого.
P.s.
Сам я сижу на 1920x, и когда я его взял в замен своему I5 8600HQ, я почувствовал будто сел в космический корабль. Даже при том, что он довольно стар, он отлично справляется с нагрузкой при разработке VSIX-плагина под Visual Studio (что требует запуска минимум двух инстансов), а так-же, при прототипировании, позволяет мне писать очень жадные и слабо оптимизированые алгоритмы на питоне, давая возможность развивать идею и совершать итерации в несколько раз быстрее даже при таком раскладе, и не думать о том как мне оптимизировать этот прототип раньше времени, просто чтобы дождаться фидбека от прототипа раньше, чем через час. Да, я просто заваливаю задачу грубой силой, и иметь такую возможность просто офигенно. При этом, 1920x даже в подмётки не годится рузену 3950x. Мне страшно представить что будет с 3990x)

С другой стороны, в том же компиляторе хаскеля параллелизм так себе. Хотя так вот повод поковырять появится.
Не знаете в чём причина? ФП преподносится как инструмент для многопоточности

Ну, на самом хаскеле писать параллельные и конкурентные программы — одно удовольствие. Проблема в самом компиляторе ghc, который в рамках одного (если упрощать) проекта собирает модули подряд.


Если чуть более подробно, есть компилятор ghc, и есть режим ghc --make, когда он рассчитывает все зависимости модулей в проекте, топологически их сортирует и начинает собирать. Проблема в том, что сам этот --make не умеет в параллелизм, и поддержку параллельной сборки туда прикручивать пока почему-то не собираются. Почему — я не знаю. Лет 10 назад, когда на десктопе было в среднем два ядра, а не тридцать два, был консенсус, что профит от этого не стоит усложнения внутреннего устройства компилятора, но сейчас-то ядер больше, а поддержку параллельной сборки почему-то всё равно не запиливают. И это всё — одна из тех вещей, что мне не нравится в современном хаскеле.


Есть, конечно, режим запуска ghc -c, когда он собирает один .hs-файл (в предположении, что все его зависимости уже собраны), но там куча времени жрётся на повторное чтение интерфейсных файлов остальных модулей, что очень сильно лимитирует прирост производительности.

> в том же компиляторе хаскеля параллелизм так себе

А есть что почитать про это?
Я в последнее время увлекся темой, и судя по документации, все там вроде как неплохо с параллелизмом.
Обещают существенно увеличить пропускную способность кэша, равно как и его объём. Ну и производительность на ядро, конечно, повысят.

А что там с DDR-5? ЕМНИП она будет в Zen 3, но ЕМНИП по опыту прошлых поколений модули на новом стандарте, более быстрые, чем разумный по цене топ на старом, появляются далеко не сразу.

Не будет DDR-5. Он же под ту же самую платформу (AM4) планируется, включая обратную совместимость. Откуда новой памяти взяться?
DDR5 на Zen4 вместе с полной сменой платформы и еще не скоро — ближе к концу 2021 года скорее всего. Уже мем даже появился: ждем пять пятерок. AM5 платформа, 5я поколение ядер (из-за Zen+, процессоры на Zen4 будут 5м поколением), 5нм литография, DDR5, PCI-E 5.0.
Маркетологи потом это явно как-нибудь обыграют.

Да и по кэшу я не помню, чтобы там обещали что-то серьезное в Zen3 как dartraiden пишет. Там по кэшу одно из главных отличий будет это слияние ядер/L3 кеша в более крупные блоки. С 4 ядер + 16 MB L3 до 8 ядер + 32 MB L3 в одном логическом модуле.
Слайд от AMD Zen2/Zen3
image


Но это серьезно может повлиять только на ПО сильно зависящее от межьядерных взаимодействий и активного обмена данными между ними — намного больше таких обменов будет происходить через общий L3 кэш без копирования данных, вместо их пересылки по не слишком быстрой межъядерной шине IF.
В частности сильно игрушки могут подтянуться, в по котором сейчас довольно заметное отставание от Intel сохраняется, не смотря на большее количество ядер и того что каждое ядро в отдельности (в однопоточных нагрузках) уже как минимум не слабее чем у Intel, а часть и побыстрее. Но вот при плотном межъядерном взаимодействии пока похуже.

На остальных видах ПО вроде больших прибавок ожидать не откуда. Так процентов 10% выжмут за счет общих оптимизаций архитектуры и небольшой прибавки частот.
Очень сомнительные слухи, особенно 1я. L1 кэш работает на частоте ядра, а в ней прибавки больше 5% максимум 10% ждать не откуда. А если бы кроме частоты увеличивали разрядность шины и количество портов ввода-вывода, то это сразу все +100%, а не +40%.

Ну и 2000 ГБ/с — ребята явно суммарную ПС по всем ядрам считают. А по всем ядрам больше 2000 ГБ/c и Zen2 (в виде 3950X) прямо сейчас легко выдать может:
16 ядер * 32 байт/такт (256бит шина) * >4 ГГц рабочей частоты = >2000 ГБ/с ПС L1 кэша

По 2й ему там же сразу в комментариях пишут — скорее всего известное слияние блоков кэшей принял за его увеличение. Вместо 16 МБ на модуль, будет по 32 МБ на модуль (это уже вполне официальная информация), как бы +100%. Но в рассчете на ядро остаются те же самые 4 МБ, т.к. ядра будут в модули по 8 штук вместо 4 штук объединяться. Хотя насчет объема могут в каких-то моделях и увеличить, это достаточно просто меняется.
Но сомнительно — и так только что (при переходе от Zen+ к Zen2) объем кэша уже удвоили и он сейчас намного больше, чем может предложить конкурент.
Маркетологи потом это явно как-нибудь обыграют.

А уж как отыграют это маркетологи одной торговой сети…
У серверных процессоров на Zen3 поддержки DDR5 не заявлено, следовательно, наверняка её не будет и у десктопов.
ДДР 5 потребует новый сокет у амд, а зен 3 обещали ещё на старом. Так что тогда уж 4 поколение ждать, где ещё и шину pci-e 5 вроде как завезут, а оно вам надо, столько ждать? )
Я так понял что длительную поддержку обещали только для AM4, причем еще когда о тредриперах даже слухов не было. Собственно всё как обещали, но для тредриперов новый сокет. Так что теоретически, если будет смысл, возможна смена сокета и памяти для HEDT и серверов. Тем более что контроллер памяти на отдельном от ядер чиплете живет, что упрощает. Конечно это все гадание на кофейной гуще, но все же отметать такую возможность не стоит.
Ну в этой ветке же в комментах выше как раз обсуждение процов ам4-х шло. Да и про трендриперы амд вроде как заявляло, что разъем новый, но как минимум следующее поколение точно на нем же будет.
Я решил подождать: в Zen 3 отполируют текущую архитектуру и софт под неё, появятся доступные и холодные чипсеты с PCIe 4.0 и может подтянутся OEM с готовыми рабочими станциями.

Там завезут свои баги.
А текущие системы можно будет использовать, как обычно, через полгода после выхода на рекомендованый ценник. Как раз отловят баги в софте и прошивках, отшлифуют...

Так вроде следующее поколение в настольные компы завезут только в 4 квартале 2020, значит в продаже нормально развернуться в 2021, а тредрипперы вообще небось только в 21 выкатят. И это на фоне того, что в тот же 21 может уже ам5 с ддр4 и псие5 и декстопные получатся возможно сравнимы с старыми тредриперами? Ну так можно вечно ждать…
Как показывают предыдущие годы с Intel — не вечно, скоро придёт сытая пора с ежегодной коррекцией производительности на +9% и refreshed unnamed lake refresh plus
в исполнении AMD.
/irony
Для этого нужно, чтоб интел окончательно завис с 10 нанометрами, а доля амд стала 146%)
Верно — но 7нм TSMC уже есть, а 10нм Intel… нету. Ну то есть Intel говорит, что «всё на мази», будет «уже совсем скоро»… но после истории с Cannon Lake… им уже никто не верит.
Особенно после новостей, что новую архитектуру они будут натягивать на 14 нм к 21 году… Которая Rocket Lake.
Если Intel натянет нормальную архитектуру на «старый» (т.е. более дешёвый и отработанный техпроцесс) — это достойно аплодисментов.
Но если это будет очередной refresh refresh lake за конский ценник c +5% быстродействия — сами виноваты, тут уже никакие $3 млрд на маркетинг не спасут.
Сейчас как-то 270+ ватт с 9900к отводят же.
Да и я не настолько техногик, чтоб покупать то же самое, но на $1500 дороже, зато с другим индексом. /irony
Эм, 9900k вся система по тестам ватт 255 потребляет.
Вы, видимо, с 9900KS, который как раз таки на 5% мощнее просто 9900k и при этом за 200 потребляет.
Ну так я как раз на это и намекал, что в рамках текущего техпроцесса поднять производительность можно только при этом повысив же потребление/выделение. Особенно на стадии, когда техпроцесс уже 14++
В разгоне — 250вт+, судя по THG (последний слайд на странице).
Всегда остаётся шанс на новую архитектуру, а не на костыли к старой.
PS возможно, если сейчас выкатить новую архитектуру на старом техпроцессе — будет только хуже или не останется киллер-фич на следующее поколение и маркетинг против?
Тепловыделение пропорционально частоте и квадрату напряжения. Современный 14++ процесс мог бы отличаться от 10 незначительно в плане рабочего напряжения, соответственно, и тепловыделения.
Если Intel натянет нормальную архитектуру на «старый» (т.е. более дешёвый и отработанный техпроцесс) — это достойно аплодисментов.
вы думаете intel уделывал amd десять лет за счет… чего? Сейчас intel со своей архитектурой сделали если не всё что могли, то уже близко к тому. А вот новый техпроцесс им нужен позарез — с ним они и ядер больше запихать смогут, и еще мегагерц на 500 разогнать, т.е. даже без заметных изменений в архитектуре должен быть существенный прирост производительности. По кр. мере так было у AMD
А сколько нужно/ожидаете от новый архитектуры? Натянуть-то наверняка натянет нормально, хотя обратных портов на более «толстый» тех. процесс я что-то не припомню, но по-идее это дело не хитрое.
Но сама то новая микроархитектура (которая Sunny Cove) не такая же новая. Т.е. по сравнению с вообще практически не отличающимися между собой «лейками»(в которых только играли с частотой, количеством ядер и включением/отключением HT), она конечно новая. Но это не слишком большой апгрейд все того же iCore примерно каким был в своей время выход Skylake по сравнению с Broadwell.

И судя по уже имеющихся ее представителями (в виде мобильных чипов Ice Lake) не особо то много прибавки дать может по сравнению с «лейками».

При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступать. А именно с Zen3 ей и придется конкурировать к моменту когда соответствующие процессоры выйдут.

Сейчас в 10нм мобильном варианте против Zen2 на 7нм получается примерно где-то на равных выступать. (не считая того что AMD предлагает либо больше ядер за ту же цену, либо ниже цену).

Но вот после того как Zen2 проапгрейдится до Zen3, попутно с обычных 7нм TSMC перейдет на 7нм+ (с использованием EUV литографии, что дает показатели уже лучше чем текущие 10нм Intel), а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливее (т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессе) и при этом возможно все еще дороже чем у конкурента.
При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступать
это спекуляция, не факт. И не забывайте что частота даже сейчас не одинаковая, с заметным отрывом Intel'ей, а на новом техпроцессе, в связи с уменьшением TDP, станет возможно её еще подразогнать.
а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливее
почему вы так уверены что они будут это делать?
т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессе
откуда вы взяли отставание по IPC? Да и вообще речь о новом техпроцессе у Intel, а вы только 14нм и приводите
Потому что интел уже анонсировал новое поколение на 14нм?
Новый техпроцесс Intel (7нм + PICE5) только в бумажных анонсах, как и чипы на 10нм, зато 14нм i10xxx с 300Вт+ под загрузкой уже у тестеров.
Хотя, пусть года 3 AMD подзарабортает, может какая-то вменяемая конкуренция на рынке процессоров будет, а не только за low/middle сегменты.
Отставание по IPC видно из почти всех тестов, одинаковое кол-во ядер, одинаковая частота = результаты по производительности ниже, хоть и немного. Единственное заметное исключение игры — и то потому, что им важнее низкие задержки при активном доступе к памяти, чем IPC ядер. А вот контроллер памяти у Intel лучше. И задержки обмена данными между ядрами пониже (правда при числе ядер не более 4)
Более высокой частотой более низкий IPC оно пока что компенсируется, это да.

А 14нм потому что сама Intel уже анонсировала следующее поколение процессоров тоже на 14нм. И что даже следующую после этого архитектуру (после Sunny Cove — Willow Cove) изначально разработанную для 10нм для настольных моделей будет портировать с 10нм обратно на 14нм (обратный «тик») — то что получится планируют назвать «Rocket Lake». Этот момент собственно выше и обсуждали в ветке на которую я отвечал.

Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков. На десктоп и в сервера производства на 10нм — не хватает и там еще года полтора будут 14нм для производства использовать.
Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков.
Маленькое замечение — никаких процессоров для ноутбуков тоже нету. Они насобирали буквально считанные тысячи Cannon Lake процов пару лет назад — чисто чтобы сделать вид, что с 10nm процессорами «всё на мази».

Очковтирательство в духе позднего СССР.

По хорошему счёту им нужно было пропустить 10nm и сконцентрироваться на 7nm — но это остатьс на 2-3 года вообще без конкурентоспособных процов… что всё равно в итоге и произошло…
Хм, ну «Cannon Lake» действительно можно считать были «бумажными» процессорами: реальных поставок практически не было, кое-как наскребли немного только чтобы было что на презентациях показать и обзорщикам на тесты образцы выслать. Поставить так сказать галочку в «дорожной карте» — мол 10нм запущены хотя бы в 2018 году (вместо 2016 по плану).

Но следующее поколение «Ice Lake» (именно оно пока единственное на новой микроархитектуре — Sunny Cove), которое прошлой осенью запустили сейчас уже более-менее производится. Объемы пока тоже небольшие и еще явно не достаточные, но уже все-таки не фикция как был Cannon Lake.

И все что в ближайшие полтора-два года они смогут выжать из 10нм будет уходить в ноутбуки, где низкое потребление/низкий нагрев очень важные параметры.
А на десктоп и в севера будут дальше продолжать делать «печки» на 14нм.

В результате на декстоп думаю 10нм вообще может не попасть, а сразу потом с 14нм на 7нм переводить будут.
Так и 100 штук на дороге не валяются, хотя согласен, что это больше вкусовщина как с покупкой интеловских процессоров поколения «так» (когда эта схема ещё работала).
так тредриперы либо уже сейчас начнут окупаться, либо тогда уж проще ждать ам5 в декстопных.
Брать домой процессор за почти $4000 неинтересно и где-то даже глупо, зная, что через пару лет цена упадет в три раза. А вот дождаться micro-ATX с камнем из последнего абзаца в котором три нормальных графических ядра — вот это стоит замены в домашнем NAS.
TDP 65W — без кулера нечего даже мечтать запустить. а тот же J4205 есть готовые microATX, где вместо долбанутой графики от Intel внутри камня можно воткнуть GPU тоже с пассивным охлаждением и получить надежную электронику без движущихся частей.
Чем плоха графика интел? А главное, нафик внешняя видеокарта (ещё одна точка отказа, притом весьма вероятного, плюс стоит дороже процессора) в сервере, где она будет использоваться только по большим праздникам?
Речь шла про домашний NAS, где видеокарта вполне может использоваться для транскодирования видео через plex, например. При этом встроенное видео в этом поколении работает не слишком корректно в таких задачах. А мощности самого процессора на программное (де)кодирование уже не хватает.
«I have color distortion on HEVC media files if i HW transcode to a different video resolution. This is a already known issue.»
Этому багу в драйвере Интела уже 1.5 года и решения нет.
Чем плоха графика интел?
Чем что? У амд в 2200G графика лучше даже чем в затычках внешних, что позволяет намного больше. а вот домашние насы давно уже используются как мультимедиа комбайны, а не только хранение данных.
Всем плоха, если сравнивать с любой другой. Все эти «решения для бедных» работают только в простых задачах. Как ниже написали в комментах: домашний NAS перекодирует видео постоянно — а это, на минуточку, не одна а две затратные операции над потоком в real-time.
Смотреть как 4 ядра не справляются с 1080p откровенно скучно.
И вторую видеокарту я могу прокинуть через passthrough как реальное устройство в виртуалку, тогда i915 останется работа, для которой он предназначен — показывать черно-белую консоль.

Я уж молчу про то, что работающий 24x7 маленький сервер может решать куда-как больше задач, чем только хранить файлы.
я думаю, путем манипуляций, можно получить 35W.
Ryzen 2200GE получаются, больше чем уверен, путем даунклокинга Ryzen 2200G
Интересно будет сравнить по производительности со средненькой картой NVIDIA с пассивкой на транскодировании видео. Внутренний голос говорит, что попробовать стоит.
Ну, с пассивкой вот прям в продаже только 1030 из «средненьких», хотя они слабые по текущему моменту. Цена оной 4,8 и она вроде как получше, чем встроена в Ryzen 2200G за 5-5,5к… Но меньше неё покупать смысла никакого. Ну и да, в бу варианте на авито этот видик стоит 3-4к (с уверенностью, что не майнили — ибо слабый, причём с пассивками дороже), а проц — стоит 3к. Экономически точно интереснее, как по мне)

384 ядра и 2 Гб памяти — 4К вытянет, в поток на клиента только суметь потом засунуть. Это для игр «средненко», а на транскодинге у меня карты 5 летней давности справлялись.
Пойду гуглить бенчмарки обоих вариантов.
Поэтому я и уточнил, что прям в продаже — в РФ такого варианта не предлагают. Вообще с пассивками всё плохо, они как бы есть мощные, но в реальности пойти и просто купить чаще всего не получается…
Теоретически можно попросить кого-то переслать :)
Хотя если вы живете напротив Нарвы, тогда, наверное, проще и съездить…

70Вт под пассивом, нерегулярные нагрузки, затрудненная вентиляция…
Отвал чипа и расслой текстолита передают привет и обещают заглянуть в гости! С ними обязательно заглянет их добрый приятель — разрыв межсоединений.

Они не первый год продают видеокарты с этим охлаждением.
Могу припомнить в продаже у нас еще и 750 Ti KalmX, модель аж 2014 года.
Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.

пожимает плечами
Могу припомнить стопки мертвых видюх начиная с FX5200/Radeon9600. От ремонта я отошел уже на Kepler.


Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.

Разумеется. Но кто сказал, что эти меры призваны защищать покупателя?


Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).
Или, если говорить о температурах, работающие 24/7 строго в установившемся режиме, в окне ~50÷65 градусов, без пиков.
Физику не обмануть ни маркетологам, ни царям.


Но 1050 (Ti или нет) все равно будет лучше, чем 1030 при прочих равных, хотя бы за счет 128-бит шины и большего количества CU (пассивки 1030 зачастую даже не 64 а 32 бит, по состоянию на полтора года назад, по крайней мере).

Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).
Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.

Нет.
Но между интересами производителя, продавца и пользователя — две большие разницы.


И последние для первых двух зачастую не играют никакой роли. Имхо, иначе рынок бы регулировался одной лишь обратной связью, а не государством + рекламой; не было бы борьбы за право ремонта и гонок устаревания.

И последние для первых двух зачастую не играют никакой роли.

Не в этом дело, а в том, что большинству покупателей плевать на запланированное устаревание.

Ну, я, все-таки, надеюсь, что аудитория хабра понимает, что делать бэкапы надо до того, как жесткий перестанет определяться, а не после.

Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.
Нет, не разгон. При разгоне дохнет сам чип. Этого у современных чипов без серьёзного повышения напряженая над тем, что рекомендовал производитель, почти не бывает.

Выход же из строя происходит из-за проблем с охлаждением… причём не процессора, а припоя! В эпоху до RoHS только «гениальному» Джобсу удалось добиться того, чтобы компьютеры из-за этого выходили из строя, но после того, как перешли на бессвинцовые припои… всё стало гораздо грустнее.
Видеокарты с заводским разгоном — те, у которых при улучшенной системе охлаждения увеличивается производительность за счёт превышения рекомендованных частот и напряжений.
Если напряжение и частоту не повышать, а понижать, температура пациента приходит в норму и даже некачественная термопаста и припой не приводят к деградации кристалла. Да, с некоторой потерей производительности по отношению к экземпляру, исходно пребывавшему в заводском разгоне.
Работают, но с хорошим охлаждением.
Или с пассивными супербашнями, типа Heligon HE02, DEEPCOOL Lucifer K2 Gamer Storm или Zalman FX100 Fanless (и приличным корпусом, где не задерживается тепло).
Вся статья про HEDT-процессоры. Это в общем и целом больше рабочие станции. Если вы дома исключительно играете в игры и смотрите кино — то конечно их нет смысла брать. Тем более в играх себя все равно i9-9900ks пока что лучше всех чувствует, при стоимости меньше чем даже у помянутого в статье 3950x.

Если вам что-то рендерить, считать, компилировать, гонять кластер из тысячи докер-контейнеров для дебага и т.д. и т.п. и такое количество ядер/потоков поможет заметно улучшить вашу производительность и (как следствие) начать зарабатывать больше денег — то смысл есть.
У меня для такого в уголке стоит сервер собранный на коленке, два е5-2670… Наверное помедленнее будет. Но там весь сервер обошелся дешевле одного процессора из статьи… В общем, странная, как по мне, железка получилась.
Ну мощные дорогие процы — это пререготива для использования с софтом, где лицензирование идет по ядрам, и каждое «разрешенное» ядро будет стоить десятки тысяч долларов…
Странное замечание. У меня в машине лежит Raspberry pi за 35 долларов, что ж теперь? Это процы под конкретные задачи с адекватной рынку стоимостью.
Два e5-2670 будут медленнее даже одного 3950X, MSRP которого — 750$. Б\У зеоны, конечно, широко известный в узких кругах лайфхак, но не делает Threadripper странной железкой. Странно было бы собирать в 2019-2020 году систему на двух 2670 — ну разве что для экспериментов.
Это если считать стоимость процессоров б/у с условного алиэкспресс и не беспокоиться по этому поводу. Если брать новым, то один такой обойдётся примерно в 15 т.р., а на арк.интел на момент запуска его стоимость указана в $1552.
Я вот собираю ПК для ребенка, мечусь между Athlon 200GE и Ryzen 3 1200 — цена примерно одинакова, чего взять для неновых игрушек? Видюха валяется NV730, думаю, пока хватит.
я б выбрал за +2к AMD Ryzen 3 2200G и обошелся бы без NV730 и прочих затычек вместо видика.
Ну если NV730 значит GT 730, то думаю Ryzen 3 1200 сойдёт, если прям экономить до упора.
Ну если что попроще ищите, то посмотрите лучше в сторону авито и б\у с али. Там за цену нового 1200 можно найти что-то гораздо интереснее — 1600 или даже 2600. Б\у CPU брать совсем не страшно в отличие от видюх или hdd.
Кстати да, в этом плане БУ процы рулят)
Вот только как раз бу Ryzen 3 2200G на авито в дефаулт сити стоит 3к, как и исходные процы в коммент). А 2600 — от 5к где-то…
Всё равно буду домой брать что-то с TDP не больше 65W. А таких процов от AMD вроде нет?
Почему нет, есть.
Вопрос только с какой начинкой? С 24 ядрами и до 65Вт? Таких (пока) нет.
А вот какие есть:
AMD Ryzen 5 3500 6C/6T 3.6-4.1GHz (nominal/turbo), no graphics. TDP 65W
AMD Ryzen 5 3400G 4C/8T 3.7-4.2GHz, Vega 11. TDP 65W.
Есть. Топовый — Ryzen 7 3700X (8 ядер, 16 потоков, 3.6-4.4 ГГц).
Если с интегрированным видео, то Ryzen 5 3400G (4 ядра, 8 потоков, 3.7-4.2 ГГц).
Собираю себе ПК на базе такого, товарищ уже собрал. Скажу по личному опыту — 65 Вт там малореальные, родной Wraith Prism из коробки (заявлено 105 Вт отводимого тепла) справляется очень так себе. Товарищ в итоге сменил СО на Deepcool gammax 400, я, с прицелом на возможную замену процессора в будущем на условный ryzen 4950 взял NH-U12A. Если реально надо 65 Вт — то 3600 без х или 3500.
Так современные 65 ватт что у интела, что у АМД — одинаково далеки от реальных.
У интела, если не ошибаюсь, при работе исключительно на базовых. У АМД — при работе в обычных задачах (то есть с бустом, но не в режиме тестирования или многопоточной многочасовой нагрузки). А в связи с тем, что размер кристалла уменьшился, отводить стало намного неудобнее.

Причём по факту ещё добавили эко режим, где ватность режется (вместе с производительностью, естественно).
Да, я к тому, что слепо ориентироваться на цифры нет смысла. Предупредить, во избежание разочарований.
Ага, спасибо за замечание!
Я просто ещё люблю иногда видео пережать ffmpeg'ом, а тут 4k размеры уже давят… Интересно, можно ли будет засунуть нормальный кулер в MINI-ITX корпус. Да, мсье знает толк :)
Ну я себе Deepcool gammax C40 взял под 3600 и mATX корпуса. Правда пока ещё не все купил части и не собрал)
Ой, ну кажется, что он слишком высокий. Прям будет упираться снизу в крышку корпуса MINI-ITX.
Что значит «кажется»?
Рулетки, типа «измерений с AR» сейчас есть даже в телефоне, возьмите да померьте, после сравните с высотой вентилятора.
У меня ведь там текущий комп трудится. И с точностью до миллиметра сложно померить, не видя «головы проца». Я померил линейкой, около 5мм останется, похоже.
У меня корпус «Sharkoon QB One», производитель пишет «Max. Height CPU Cooler — 15.0 cm». Но верхний вентилятор на крышке над процом придётся снять.

О, охлаждение.


Если я таки решу брать тредриппер из 3xxx серии, то его чем охлаждать?

Какой-нибудь Noctua NH-U14S TR4-SP3, Cooler Master Wraith Ripper или Dark Rock Pro TR4 должен справиться.

Схоронил, спасибо. Всё же воду стремно ставить на систему, которая работает 24/7, в том числе когда меня нет дома.

Необязательно ничего хоронить, достаточно запомнить что под TR4 сокет обычные охлады не подходят из-за большой разницы в площади крышки и площадки. Поэтому некоторые производители выпувскают спец. кулеры под этот, своеобразный и относительно редкий процессор. В этом классе все решения заточены конкретно под рипер и их не то чтобы широкий ассортимент.
Однако этот воздушный охлад справляется так себе, если верить первым обзорам. Там кто-то в многопоточной нагрузке прожаривает проц до 80+ градусов на топовом ноктуа. При том что для Zen+ рекомендовали удерживаться в рамках 70, какие рекомендации у 3000 серии еще нужно поискать.

Я сильно отстал от жизни, так что спрошу — насколько жидкостное охлаждение надёжно? Несколько лет в 24/7 нормально будет или потечет? И если протечет, то насколько это опасно и фатально?

Как ни странно фатально — подтекание. То есть если внезапная разгерметизация и лужа на полу… просушите, замените жидкость — и нормально. А вот есть там чуть-чуть подкапывает — то всё может банально сгнить, пока уровень станет достаточно малым, чтобы система охлаждения «встала».

С другой стороны моему Mac Pro G5 QUAD уже больше 10 лет, а он вполне себе нормально работает, несмотря на жидкостное охлаждение…
Лично у меня было 3 AIO, и все работают нормально. Одна после полугодовалого перерыва в работе и нахождении в непосредственной близости к холодному балкону стала потрескивать, но работает.
Насколько я понимаю, AIO фактически не протекают, но там может накрыться помпа.
Что касается custom loop, то там все зависит от рук. Лично я свою AIO буду в ближайшее время менять на кастомную СВО, потому что скачки нагрузки и температур раскручивают без нужды вентиляторы. Хочу, чтобы они реагировали на изменение температуры воды, а не процессора, который по температуре прыгает с 40 до 65 и обратно по банальному обновлению страницы.
Если не боитесь связываться с инженерными семплами и алиэкспрессом, то посмотрите на QQBZ (инженерный семпл i9-9900). 8 ядер, при нагрузке на все ядра держит 4.2 ГГц. Производительность на ядро и производительность в многопотоке не хуже, а даже чуток лучше, чем 3700X.

За счёт того, что это инженерник, частота неcколько ниже, чем у обычного i9-9900, зато и температура ниже. В остальном ничуть не хуже серийных образцов: архитектура у Intel уже вылизана, инженерники имеют такой же степпинг как и серийные процы и даже микрокоды у них совместимы. Т.е. не будет никаких аппаратных сюрпризов, как, например, было с инженерниками Skylake, которые были довольно «сырыми».

Можно даже извратиться и засунуть его в материнку на 100/200 чипсете, топовые материнки на Z170 сейчас сливают по цене дешевых H310, а по качеству компонентов и начинке первые, конечно, намного лучше.
А с какой целью вы ориентируетесь на TDP? Просто у Интела и у АМД разное понимание TDP. Intel спокойно засчитывает за TDP потребление в режиме даунклока, когда производительность меряется в режиме буста.
Просто хочется что-то попроизводительное своего старика i5-2500K, но чуть потише под нагрузкой.
Понимаю, что на сегодня уже не актуально, но… у меня i7-6700, все же будет производительней, и при этом весьма холодным.
На конец 2019-го думаю цена как за «грязь» (условно)
Кстати, для варианта апгрейда малой кровью рекомендую проверить алиэкспресс и материнскую плату — у моей asus z77-a производитель заявил поддержку ксеонов E3 и E3 v2 — это по сути линейка процессоров sandy bridge и ivy bridge с другим названием. Поставил я себе года два-три назад E3-1230V2 — примерный аналог i7-3770 взамен моего i5 санди и доволен. Обошёлся на тот момент в семь т.р. или около того, сейчас скорее всего будет дешевле. Есть и более высокочастотные, 1240-1290. Варианты с 0 на конце лишены встроенной видео и более холодные.
Не-не, я хочу уже сделать прыжок вперёд к DDR4 и NVMe дискам, так что мать, проц, память и SSD буду брать.
Тоже верно, я со своей текущей конфигурации забираю только ссд и звук, остальное собираю с нуля.

Берите 3700Х, он достаточно холодный, а производительности в повседневных задачах хватит лет на 10

Кстати, в обычных десктопных задачах, браузер, ворд и т.п. между i5-2500k на 4,4ГГц и 3700X разницы на глаз нет вообще. Если есть, надо с секундомером сидеть. В игрушках да, видно в некоторых, которые упирались в 2500k.


И между Sata SSD и в три раза более быстрым NVMe разницы на глаз тоже нет, если не копировать непрерывно большие файлы.

«три раза более быстрым NVMe разницы на глаз тоже»
Есть. Там не в скорости дело, а в том, что это другой протокол. У него очередь команд (и их несколько параллельно причем) и латентность (PCI express, же, это наносекунды) меньше. Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами. Там столько еше допиливать /потирает ручки/. А вот Linux уже допилила.
Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами.
Может и хорошо, что не может? А то в Windows как-то это кончается примерно так: «Ура, наша новейшая версия Windows 10 2909 освоила инетрвейс M.5 — теперь с вашим крутейшим и новейшим накопителем вы сможете получить такую же отзывчивость интерфейса, как и на Windows 95 чертверть века назад на компьютере с HDD!».
Не будет никакого M.5. Когда Pci express обновляется (до 4.0, например) это автоматически обновляет NVME скорость. В этом и красота! Теоритически тоже касается и Thunderbolt 3 (USB4).
получить такую же отзывчивость интерфейса,

Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня? Да, linux при тех же услових грузится за 0.5 секунды, но это меня, думаете, волнует?)) И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.
Не будет никакого M.5
Это сегодняшние планы.

Когда Pci express обновляется (до 4.0, например) это автоматически обновляет NVME скорость.
Когда PCI четверть века назад вводили — разговоры были такие же. Вот точь-в-точь.

Типа, у вас сейчас 33MHz, но сервера умеют в 66MHz, а там — будет вам и 133MHz и больше. Прошло 10 лет… и оказалось — что нет, так не будет. Нужен новый интерфейс.

Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня?
Нет, не фигня. Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III в 1GHz или DOS на PS/2 с 286м процессором без HDD вообще — лет за 10 до того. То есть вы, скорее, подтверждаете мою правоту, чем опровергаете её.

И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.
Тут да — Borland C++ 3.1 на каком-нибудь 386м компилировал заметно дольше. И даже Turbo Pascal 3.0. Тут есть заметный прогресс.

А вот Windows — умудряется сожрать все ресурсы всех современных разработок в области железа… с нулевым полезным выхлопом.
Когда PCI четверть века назад вводили — разговоры были такие же.

Это не разговоры, уже можно купить. (На у.маркете.)
3dnews.ru/995849/pci-express-4-0-for-nvme-ssd

Что за M.5? Нет такого.
Windows — умудряется сожрать все ресурсы всех

Я пользуюсь clang и gcc для windows. Не заметил разницы с linux. Впрочем, вы правы, например, wddm модель графического драйвера накладывает огромные ограничения на blender, которые можно убрать если перевести карту в tesla mode (nvidia).

Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III

Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.
Что за M.5? Нет такого.
А Windows 10 2909 уже есть?

Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.
А там всё просто. Когда Windows 95 выходила — самым быстрым процессором был Pentium (ещё оригинальный, без MMX) на 200MHz (а у большинства пользователей был явно не он). И памяти на большинстве материнок можно было установить не более 64MiB. А начало XXI века — это уже Tualatin на 1.4GHz и 512MiB памяти. Поверьте, семикратное ускорение и такое же увеличение памяти и дискового пространства — придавало очень заметно резвости.

Вот только вышедшая тогда же Windows XP сожрала весь этот запас… и дальше история повторялась.

Только вот в случае с Windows NT (оригинальной, не всякие модные Windows NT 4.0 или XP) я хотя бы понимаю за что плачу… но вот в случае с Windows 10, извините… нет.

Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?
А это интересный вопрос. Вот я могу вам объяснить, зачем Chrome нужно столько памяти, и ему действительно НУЖНО именно столько памяти, чтобы всё правильно распарсить. А вот закрытый код windows все портит. Одна эта история чего стоит. habr.com/ru/post/466941

И еще тот факт, что по умолчанию, windows пережимает jpeg обои до 80% от качества. Это ж полный абзац. Ну сколько там памяти нужно, чтобы блин 5 Мб 4K обоев правильно отобразить? answers.microsoft.com/en-us/windows/forum/windows8_1-desktop/any-word-from-microsoft-on-the-horrible-wallpaper/64369bb2-bf28-4601-aba0-1197ea205eb2?page=4&auth=1

А тот факт, что до сих пор нету полного управления цветом на рабочем столе и во всех приложениях, как это сделано в MacOS? Это ж единственное, в чем macOS лучше, но фиг там, не чинят. Худо бедно hdr и dolby vision сделали и все. Причем вторую еще и нефициально и ломалась она уже не раз.
И еще тот факт, что по умолчанию, windows пережимает jpeg обои до 80% от качества. Это ж полный абзац. Ну сколько там памяти нужно, чтобы блин 5 Мб 4K обоев правильно отобразить?
Думаю, это пошло от XP, в которой юзеры ставили на 1024*768 рабочий стол в качестве обоев картинку в кучу мегапикселей и комп начинал тормозить)
PS. А 98, если не ошибаюсь, можно было убить, увеличив в пейнте размер обоев на пиксель и сохранив, после чего перезагрузив комп. Но уже могу соврать — давно это ооочень было
Ну, на Windows 10 можно поставить, чтобы не пережимал. И png не пережимается по умолчанию.
Navigate to «Computer\HKEY_CURRENT_USER\Control Panel\Desktop»

Right click «Desktop» folder -> «New» -> «DWORD (32-Bit) Value» (use 32-bit value for BOTH 32 and 64-bit systems)

Name new Value name: «JPEGImportQuality»

Set Value Data to 100

Set Base to Hexadecimal
Причём это было сделано одним человеком.
Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?

Заменить Windows 10 на любую другую аналогичную ОС и тоже окажется правдой.
Даже и ядро Linux. И даже операционки на Linux. OpenWRT уже предупреждает о том, что не стоит покупать устройства с 32MiB памяти. А ведь каких-то 17 лет назад 16MiB памяти было нормой.

Впрочем увеличение потребности в 3-4 раза за 20 лет лет и 10-20 раз — это немного разные вещи.
Разумеется. Потому что «любая другая аналогичная ОС» тоже будет делаться ровно таким же способом.

9x не умела нормального кеширования, поэтому объем памяти выше 64МБ для нее был бессмысленен.
Винтукей же требовал не менее 96 для комфортной работы с типичным набором софта. А XP, так и вовсе, от 128.


Но впечатления от Tualatin@166&DDR, конечно, сильные. Даже Northwood не мог с ним конкурировать, ибо при схожей производительности кушал существенно больше.

Эм… Ну например, 9х не умели в разделение прав доступа, ага.
И да, та же XP до первого сервиса пака не умела в USB 2.0.
А после второго потребовала для работы уже в районе 2 гигов оперативки, тогда как лично помню тормозной но работавший на 1сп комп уровня 2 пенька, если не ошибаюсь, с метрами 64 оперативки и 32 метрами видюхой.
А так дальше — директ иксы. куча пофиксенных проблем безопасности, о которых не знали в 90-х годах, а так же умение работать с кучей ресурсов на больших скоростях. Интернет, так же.
На самом деле под капотом современных ОС было тьма изменений. И даже линуксы нулевых и сейчас — это две больших разницы.

Простите, а этот вывод


а же XP до первого сервиса пака не умела в USB 2.0.
А после второго потребовала для работы уже в районе 2 гигов

вы сделали из вот этого:


на 1сп комп уровня 2 пенька, если не ошибаюсь, с метрами 64 оперативки и 32 метрами видюхой

утверждения?
Ничего, что во времена XP таких объемов не наблюдалось на рынке и даже приснопамятная Vista часто довольствовалась 0,5÷1ГБ?


Не говоря уже, что DX10 был прибит к свисте исключительно софтово, и умельцы пропатчили эту дурость для работы с более вменяемыми ОС почти сразу. Как и DX11.


Почему NT5 ела больше памяти и проца, чем 9x было понятно — другая архитектура, NTFS, безопасность. Почему NT5.1/5.2 ела больше памяти — тоже было понятно: растровые темы, windows restore и еще пяток столь же "нужных" нововведений.
Потрясающий воображение жор памяти и повальное обрастание ненужными сервисами и фоновой активностью началось как раз с Vista, которую пропихивали примерно так же как и 10, если учесть повальное отсутствие широкополосного интернета тогда.


На самом деле под капотом современных ОС было тьма изменений.

Например, корректный flush буферов, чтобы все смонтированные ФС перед hybernate стали консистентными? Включая привнесенную 8 гибернацию ядра? Или планировщик, сохраняющий активные нити за одним и тем же ядром и не прерывающий их ради мелких задач?
Этим проблемам, между прочим, скоро 20 лет стукнет.
Гибернация ядра, кстати, в сочетании с гибридным спящим режимом — просто убойное комбо. В прямом смысле — два дня, и аккумулятор в нулину.
Или, может, в винду завесли нативно Compose/Level3?


Нет, это 24-ядерный CPU, а я не могу сдвинуть курсор и Почему для открытия меню Windows читает один файл сто тысяч раз?


Изменений много, да. А можно мне билд из другой, менее ебагнутой ветки? Где из коробки давно работает UTF-8, отключаются ненужные сервисы, вместо получасового жевания соплей sysrestore есть нормальный snapshot/rollback, где на быстром SSD нет сношения диска в течении нескольких минут "ускоряющими кэшами", из-за которых комп жестко тупит?


Не поймите меня правильно, вдруг. Но много это мера количественная. О качестве проделанной работы она не говорит ровным счетом ничего.

Простите, а этот вывод
Я сделал на основе своей работы микроадмином в компании в те годы. Но вы правы, я ошибся в номере сервис пака — после 3-го старые компы на нём стали висеть.
Не говоря уже, что DX10 был прибит к свисте исключительно софтово, и умельцы пропатчили эту дурость для работы с более вменяемыми ОС почти сразу. Как и DX11.
подскажете как их поставить на версию 9x про которую был разговор выше?
Потрясающий воображение жор памяти и повальное обрастание ненужными сервисами и фоновой активностью началось как раз с Vista
вот только в плане работы виста была намного устойчивей и безопаснее XP. что я прекрасно помню на фоне постоянной борьбы за работосопособность ноутов на XP — за 2 года после покупки ноутов с вистой мне не пришлось их ни разу настраивать после первоначального. С учетом, что ноуты таскались и подключались в чужие сети ежедневно (аудиторские проверки), часть из которых никем не админилось, то понимаете, что показательно лично для меня было.
С другой стороны, вы, видимо, забыли как XP хейтерили на момент выхода, но после первого СП она стала уже нормальной.
Так и виста после первого СП стала норм, а вышедшая после неё 7-ка, которая в профиль та же виста, только ещё дотюнингованная по сути — стала уже легендой, ибо к этому моменту ко всем «пропихнутым свистелкам» народ уже привык.
Не поймите меня правильно, вдруг. Но много это мера количественная. О качестве проделанной работы она не говорит ровным счетом ничего.
Так ведь про любую ОС можно много чего накопать.
Ну например, как крутой и супер профессиональный программист тюнил производительность линукс для юзеров на слабых компах и пытался обратить внимание на эту проблему других. Ой нет, извините, это был анестезиолог, а не программист из тех, кому корпорации платили зп за улучшение линуксов.
Так что вопрос к тому, что большая часть программистов, к сожалению, реализуют как они хотят и видят в меру их умений, а не как это правильнее было бы…
подскажете как их поставить на версию 9x про которую был разговор выше?

Если бы вы обратились лет хотя бы на 10 раньше — помог бы и поделился ссылками на пропатченные бинарники. Сейчас у меня в хозяйстве другие системы, с другими проблемами. Могу дать направление, в котором копал сам: Crysis x64 dx10 xp. Если, конечно, вам все еще актуально.
Гугл находит массу следов в прошлом. Например, вот эта статья.


виста была намного устойчивей и безопаснее XP

Не знаю, как насчет безопасности. Надеюсь, вы не про UAC, с его вечным Непонятная фигня пытается сделать непонятную фигню. Если действие запущено вами, то продолжайте. и находящейся рядом то ли самой галочкой, то ли ссылкой на место, где можно
поставить галочку Перестать иметь пользователю мозг запросами с непонятной фигней?
Потому как антивирус и файрволл пришли в XP с SP2, в 2004, а релиз [Vista состоялся](https://ru.wikipedia.org/wiki/Windows_Vista] в 2007.
Но вот стоны о нестабильности и тормознутости Vista я помню отлично. А нефиг в lowend пихать то, что едва ворочается в middle. Их поубавилось только с ростом мощностей ПК и выходом сервиспаков.


Ну а про то, что XP — последняя винда, которую элементарно можно было поднять переустановкой с CD поверх (при нерабочей системе), вот это я помню хорошо. После нее уже были жизненно необходимыми акронисы и прочее ПО с автономной загрузкой.


вы, видимо, забыли как XP хейтерили на момент выхода

Основная причина хейта XP звучала так: у меня тут копролит, последний раз драйвера под который производитель писал к 95 или 98 (даже не SE), и те сырые и ни разу не WDM или у меня 486 и 8МБ памяти, 95 же работала!
Примерно тоже касалось и x64. С поддерживаемым железом и на подходящих аппетитам конфигурациях не было никаких проблем, как и у почти любой другой ОС.
Я ее гонял от превью до x64 SP2 и от P166MMX/128M до i5-3570K/16GB, в нескольких сотнях инсталляций.


Так что вопрос к тому, что большая часть программистов, к сожалению, реализуют как они хотят и видят в меру их умений, а не как это правильнее было бы…

Согласен. Просто, в случае с виндой все осложняется тем, что нет и не будет того самого анестезиолога. Или любого другого неравнодушного.
Увы, проприетарщина, ничего личного.

Если бы вы обратились лет хотя бы на 10 раньше — помог бы и поделился ссылками на пропатченные бинарники. Сейчас у меня в хозяйстве другие системы, с другими проблемами
Ещё раз, вопрос был про линейку 9х, то бишь 95 и 98)
Но вот стоны о нестабильности и тормознутости Vista я помню отлично.
Ну так связано это было во-первых, что изначально куча глюков вышла (при таком охвате железа, как у винды — это вообще-то нормально), а во-вторых, что ставили её на слабые машинки (512 мегабайт по тем временам уже было ни о чём). А вот знакомые геймеры сразу пересели на висту и сказали «отличная ос».
Ну а про то, что XP — последняя винда, которую элементарно можно было поднять переустановкой с CD поверх (при нерабочей системе), вот это я помню хорошо. После нее уже были жизненно необходимыми акронисы и прочее ПО с автономной загрузкой.
А начиная с висты вызовы в духе «я переустановил ОС, у меня пропали все данные что мне делать» — не вызывали уже паники. Приезжал, доставал из папки виндуоз олд всё, что нужно и норм. А вот как я проклинал зверьXP… восстановить после вирусов было не реально, только переустановка, в отличие от установки оригинальных дистрибов.
Основная причина хейта XP звучала так: у меня тут копролит, последний раз драйвера под который производитель писал к 95 или 98 (даже не SE), и те сырые и ни разу не WDM или у меня 486 и 8МБ памяти, 95 же работала!
Так ведь с Вистой же было ровно то же самое. Плюс вы забыли обливание помоями нового интерфейса XP относительно классики. Один в один повторилось на Висте.
Ах да, кстати, ещё больше было проблем из-за того, что программописатели никогда никаких гайдов не придерживались и привыкли пихать куда попало файлы программ. Большая часть программ очень удивились, когда вдруг в программфайлз свои настройки не смогли писать.
Это, кстати, про безопасность висты и выше относительно XP.
Просто, в случае с виндой все осложняется тем, что нет и не будет того самого анестезиолога.
Зато будет глобальный вой пользователей, который уже к первому сп висты сделал её намного лучше.
Тогда как все вопросы обычных пользователей в Линуксе спускали на тормоза классическим «у меня такая же нога, но не болит». Собственно, большая часть возникаемых проблем у пользователя на линуксе на форумах вызывает постоянные ответы в таком духе.
Ещё раз, вопрос был про линейку 9х, то бишь 95 и 98)

Mea culpa!
Прочитал как 9.0x (в смысле, 9.0c и иже с ним)


А вот как я проклинал зверьXP

У, это притча во языцех! Впрочем, я тогда сам с nLite и sfx-установщиками развлекался. Иначе не собрать 12 ПК за смену. А так 3-4 на установке, пока один скручиваешь как раз очередной заканчивает.


ещё больше было проблем из-за того, что программописатели никогда никаких гайдов не придерживались и привыкли пихать куда попало файлы программ

Всегда удивлялся, специально народ такой софт ищет, что ли?
Подавляющей части софта вообще не нужна инсталляция, распаковать да установить ассоциации reg-файлом.
Но, вообще-то, к выходу XP актуальный софт был уже очень даже в курсе, потому как писать в %ProgramFiles% не из-под админа нельзя было еще со времен NT4, а в корпоративном сегменте уже больше года существовала 2000-я. Так что каких-либо правок требовали только некоторые системного уровня утилиты, вроде SpeedDisk, Nero, снифферов да антивирусов.
Проблемы были только с совсем странным, вроде всяких SlyDVD (драйвер, де-факто несовместимый с ASPI), некоторых bluetooth (с этим нормально стало уже 8.1, и то...), не-WDM сканеров и звуковух, ISA-видеокартами и всяческим другим legacy.


Это, кстати, про безопасность висты и выше относительно XP.

Ну а если отдавать юзеру админа… Вспоминается


#define TRUE FALSE //happy debugging!

Тогда как все вопросы обычных пользователей в Линуксе спускали на тормоза классическим «у меня такая же нога, но не болит». Собственно, большая часть возникаемых проблем у пользователя на линуксе на форумах вызывает постоянные ответы в таком духе.

Хм. На зарубежных форумах более другая атмосфера, и иностранцы гораздо любезнее отвечают даже на тупые вопросы.
А ЛОР да, такой… Он для кича и прокачивания ЧСВ, а не для жалоб и поисков решения проблем.

Ну а если отдавать юзеру админа…
То вы не поверите, что даже софт для производств всё равно умудрялся регулярно туда писать даже после выхода семерки. В итоге там даже специально прописывали в инструкциях о полном доступе к папке с установленной программой. Это был эпик.
Но в общем плане такого софта было дофига и больше, к сожалению. А под админами на домах сидели — все, фактически. Так что шаг в принуждении был верным.
и умельцы пропатчили эту дурость для работы с более вменяемыми ОС почти сразу. Как и DX11.

Ничего они не пропатчили, кроме версии в реестре и раскидывания библиотек по системным каталогам.

Тем не менее, переименованный dx10 renderer от Crysis на XP c записями в реестре и подкинутыми в нужные места либами (то, что должен делать штатный инсталлятор) запускался и работал.


Другое дело, что dx10 так толком никем и не поддерживался долгое время. Тот же Crysis Warhead вернулся обратно к dx9.

Если я правильно помню, подменялась библиотека рендера, а старая удалялась.


Но эксперимент уже не провести, а память может быть ненадежной.

Я пользуюсь clang и gcc для windows.

Позволю себе оффтоп: а каким пакетным менеджером пользуетесь?


А то я всё хочу одно своё поделие, которое на линуксах прекрасно себя чувствует, под винду собрать, но упираюсь в необходимость собирать зависимости руками, а их много, и в каком-нибудь модном conan или chocolatey есть далеко не всё.

Никаким не пользуюсь, беру бинарники статические))) в том же visual studio. а если серьезно, наверное, можно присобачить powershell репозитории… Ну и Linux subsystem on Windows куда же без него))) а ещё я пользуюсь физическим ssd, подключенным к vmware с kali linux, таким образом я могу и загрузится с него, и в vmware загрузить. Вчера обновил его до eufi. Теперь этот grub-efi грузится в vmware, но не хочет в физической системе. Скотина. Придется разбираться, видимо проблема в том, что /dev/sda3 должен быть /dev/sda1 а может и нет

У обоих SSD в моей системе, SATA3 и PCIE3.0, read access time по тестам ~100 мкс. Windows это или сами накопители, с практической точки зрения результат одинаковый.

Что такое read access time? Тестировать их нужно с помощью fio. Смотрите www.google.com/search?q=nvme+test+latency+fio+stackexchange

Кроме этого m.2 накопители бывают разные, есть накопители которые на самом деле обычные SATA накопители, а есть нормальные pci express.
Что такое read access time?

Предполагаю, что read latency. Очень надеюсь, что оно измеряется, а не как-то высчитывается через iops.


Тестировать их нужно с помощью fio.

Как только fio можно будет просто взять и запустить на Windows лишних танцев.


Кроме этого m.2 накопители бывают разные

Поэтому специально пишу конкретно: SATA-3 vs PCI-E 3.0.

«высчитывается через iops»
Именно, с поправкой на очередь и планировщик. И еще пару поправок.
Кстати, в обычных десктопных задачах, браузер, ворд и т.п. между i5-2500k на 4,4ГГц и 3700X разницы на глаз нет вообще
но как только докидывается игра в фоне (варлоки, цива 5 или 6), то даже 2600 показывает, насколько он лучше и 3-го, и 4-го поколения i5 процов)
личный опыт
Никто не считает TDP потреблением, не стоит ставить эти слова в одно предложение. Это постоянно вызывает путаницу и стало распространненым мифом в интернетах. TDP это требования к системе охлаждения — сколько тепла та должна рассеять. Энергопотребление, тепловая мощность процессора и рассеиваемя мощность системы охлаждение это разные вещи, пусть и тесно связанные. TDP это рекомендации по характеристике СО от производителя процессоров.
Энергопотребление, тепловая мощность процессора и рассеиваемя мощность системы охлаждение это разные вещи, пусть и тесно связанные.
Всё, что процессор потребляет, но не отдаёт, выделяется в тепло, которое нужно рассеять, а т.к. силовых выходов, насколько я помню, у ЦП нет, то разница между потреблением и тепловыделением с практической стороны несущественна.
разница между потреблением и тепловыделением с практической стороны несущественна.
Если всё что, меньше двух раз считать несущественной разницей — тогда да. Но вообще процеccор с TDP в 95W может легко под 180W потреблять.
Это не противоречит, так как человек вроде говорит о фактическом потреблением и фактическом тепловыделение, которые между собой не отличаются особо. А вы пишите про то, что заявленное отличается от реального…
Всё, что процессор потребляет, но не отдаёт, выделяется в тепло

позвольте поинтересоваться, куда он девает то, что не отдаёт в тепло?
Выходные сигналы процессора — это же тоже электрический ток, и какая-то (полагаю, незначительная) доля потребляемой мощности уходит с ними.
Они всегда были. Вам только что, максимальную производительность (где интелу пришлось капитально так задрать TDP на последних процах, особенно в режимах буста) или минимальное потребление нужно?
Но во-втором поколении 2600х в номинале 65 ватт имел, в этом 3700х имеет такой показатель в стоке.
С куллерами только осторожнее, кристалл меньше, советуют трубок на 5 и непосредственно трубками к крышке чтоб прижимался, если не ошибаюсь. С другой стороны у нас 2600 и 3600-е в работе даже под боксовыми кулерами работают не заметно на фоне фонового гула обычного здания с конторами.
Ага, спасибо. Ну я осторожно протестирую. 3700X идёт с боксовым кулером, посмотрю как он себя поведёт, а если что, прикуплю что-то получше.
Вот, кстати, что интересно, боксовый у 3600 почему-то на схожих нагрузках оказался шумнее 2600, что мы нечаянно выяснили запустив одну и ту же игру на двух рядом стоящих компах)
Ну у 3700х не алюминиевая чушка в качестве боксового, а потребляет он меньше 2700x, который таким же Wraith Prism оснащался, так что вполне вероятно, что у вас будет ситуация лучше
Боксовый кулер у третьих рузенов уже чисто алюминиевая чушка, когда со вторыми рузенами шло комбо «медь-алюминий». Поэтому и шумнее. Удешевляют-сссс.
Все от модели зависит. Конкретно в сравниваемых выше R5 2600 и 3600 что во 2м, что в 3м поколении идет самый простейший чисто алюминиевый кулер Wraith Stealth.

А разница по шуму скорее всего из-за разных материнских плат с разными профилями управления кулером.

Более приличные кулера с медной вставкой и даже медными тепловыми трубками в 3м поколении тоже кладутся, только как и в 2м модель с тепловыми трубками идет только начиная с 8 ядерных моделей (2700/3700х) к ним в комплекте идет уже довольно приличный Wraith Prism, вот такой:
внешний вид
image


Так что в плане комплектации никакого удешевления — есть 3 модели боксовых кулеров, которые прикладываются в порядке возрастая «ядерности» и TDP процессора.

Я брал боксовый, т.к. в тот момент оемный был почти за ту же цену. Если пробовать включить какой-то разгон, родной кулер воет и температура на максимуме. Если использовать в стоке, то кулер справляется нормально, а обороты можно подстроить, чтобы в обычном режиме было неслышно. Под нагрузкой же шумноват, на мой вкус. Не так, как родной от i5-2500k, но всё-таки.

3700x c боксовым кулером начинает тротлиться при 100% загрузке всех ядер под разгоном (заметил с AIDA64, частоты были выше 4.4Ghz).
Хотя, вчера новую версию BIOS накатил, которая обещала снижение температуры, вечером перетестить стоит.
Но боксовый кулер нешумный, это да.
Именно поэтом я и написал:
в этом 3700х имеет такой показатель в стоке.
Сейчас надпись такая вообще означает исключительно потребление в обычных задачах. А уж в разгоне там верную сотку минимум он выжрет, если не больше.
PS. Новые биосы осторожно накатывайте, на днях читал жалобу, что на асусе с 1.0.0.4 проблемы возникали…
PS2. Но себе я выбрал 3600, ибо задач даже на такую кучу ядер не имею пока)
На новом BIOS память отказалась стартовать с 3733 MHz/1T, пришлось скидывать разгон до 3666, зато тайминги понизил, невелика потеря.
Тоже долго выбирал между 3600/3700/3800, решил, что лучше пусть будут +2 ядра, чем не будут, ибо последний раз менял процессор в 2012 и тоже думал «ладно, возьму пока 6 ядер, если что — сменю проц».
Ну у меня апгрейд с ноутного i5 3-го поколения намечается, сами понимаете, что в этом случае мне действительно станет проще купить на zen3 будет более топовый через год-другой, если вот прям дома задачи под него появятся) Так-то и на ссд перешёл, и память до максимальных 16 догнал, т.е. как раз стратегию апгрейда использую по мере необходимости)
Если что, на Zen2 память выше 3600 MHz бесполезно разгонять, даже вредно. На Zen/Zen+ чем лучше, тем быстрее, но даже до 3600 по памяти обычно не доходят.
Верней выше 3600 можно, но нужно шаманить с частотой Infinity Fabric.
вроде 1t/2t как раз задают делитель для частоты if по отношению к памяти, нет? Можно залочить множитель и не завестись проверить границы разгона. на 3800 не заводится, на 3733 появился синий экран при прогоне FF XV — решил остановиться на 3666.
Цитата от AMD: «Infinity Fabric tied to memory clock at 1:1 ratio up to DDR4-3733»
Выше становится 2:1 и скорость IF падает ( но рекорды с 4600+ по памяти можно ставить)
Фактически, никто не заставит вас отключить Coupled Mode и выйти из режима 1:1 даже после 1800 на памяти и IF. Просто на данный момент экспериментальным путем обнаружен кап на IF 1900, после которого система просто не стартует. Заметьте — не включает сама 2:1, а не стартует. До 1900 включительно IF может погнаться или начать сыпать ошибками раньше — тут как повезет с разгоном IO чипа. Выше IF не гонится ни у кого — ни у 3600Х, ни у 3950X.
1t/2t это часто command rate памяти обозначают. Так что сразу не ясно про что это.

Делитель частоты шины вроде на большинстве плат автоматом всегда, в зависимости от выставленных частот памяти.
там вроде было что:
В AMD придумали ещё одно важное решение — перевели межъядерное и межчиповое «общение» внутри кристалла на новую шину IF 2.0. Если раньше она была привязана по частоте к контроллеру памяти, то теперь у неё есть делитель частоты и асинхронный режим. При разгоне оперативной памяти до частот выше, чем 3800 МГц, контроллер памяти работает на половине частоты от IF 2.0.
Но в основном да, все советуют максимум 3600 и понижать тайминги.
Есть, включая 3950X: просто заходите в BIOS, тыкаете галку «eco mode» — вуаля!
Ваш процессор андервольтится и укладывается в 65W.
Все более младшие модели камней тоже так умеют, но может потребоваться обновление биоса.
Как цифрами не играй, а Intel всё равно побеждает в производительности на ядро, что в реальной жизни намного предпочтительнее over 9000 слабых ядер. Но я рад что AMD сумели дать пинка монополии.
Intel всё равно побеждает в производительности на ядро
Простите, откуда же тогда меньшие показатели в однопоточных тестах?
Приведите пример? Dophin — победа Intel, игры — победа Intel, однопоточный Cinebench — практически паритет.
Тсс… не мешайте старую мантру повторять… что и ядра слабые и греется амд… и вообще фу. Пускай люди кормят интел.
Ну действительно, Интелу сейчас тяжело стало, пусть подкармливают ;)

Всё же имхо было бы лучше, если бы люди кормили AMD. Интелу и так хватит.

А я бы сказал что интелу тоже кушать надо, обязательно, но хорошая диета им будет очень даже на пользу.
Дадада, AMD слабые, дорогие и греются, идите к Intel.
Топовые AMD и так сметают с полок, реальных процессоров не найти, вон, в Германии по 1200 евро скупили всё при рекомендованной цене $750.
PS Intel в играх убедительно побеждает в разрешении FullHD, но покупать топовое железо, чтоб потом щуриться в fullhd и радоваться 230 fps с Intel, а не жалким 200 у AMD — ну так себе идея. Хотя не буду спорить о вкусах.
Вы как-то неправильно статью читали и графики смотрели. Если брать процессоры, обсуждаемые в статье — то новый intel 10980XE плюс-минус то же самое показывает в single-thread, что и 3950X и тредрипперы, однако сильно уступает тредрипперам в многопоточных тестах (и все еще +- нога в ногу с 3950X, который дешевле и которому нужны более дешевые материнские платы, о чем в статье прямо говорится).

Если говорить про i9-9900KS — то там все, конечно, интереснее. Если вы посмотрите тесты — то в single thread он не сильно опережает тот же самый 3950X (там единицы процентов, что в общем и ожидается от 5 Ghz турбо-буста у i9 против 4.7 Ghz турбо-буста у 3950X). Однако когда речь заходит об одновременном бусте на много ядер — i9 справляется гораздо лучше чем 3950x, потому что ядер у второго больше, а от питания и тепловыделения никуда не денешься. Собственно он справляется сильно лучше и уже упомянутого 10980XE по тем же причинам.

Поэтому этот самый топовый i9 ожидаемо сильно уступает практически во всех productivity тестах, однако берет верх в определенных кейсах, где задействовано некоторое количество ядер, но не все. Большинство этих кейсов в многочисленных уже проведенных и опубликованных тестах складываются во время тестирования FPS в играх. При этом игра игре рознь — например в Battlefield 5 или новом Tomb Rider разницы в FPS, судя по тестам, почти нет. А в Far Cry 5 3950x очень сильно уступает i9.

Я это все к тому что интел сейчас побеждает не в «производительности на ядро» (тут как раз примерно паритет), а в некоторых отдельно взятых случаях специфической нагрузки, характерной, например, для не новых движков компьютерных игр, которые скорее всего специально точились под 2/4 ядра.

И вывод в целом такой — для игр — если за максимальные деньги, то да, пока все еще intel. В более бюджетном сегменте или для серьезной работы… Есть вопросы.

Есть набор игр, которые жрут проц неадекватно результату, или как принято говорить — "плохая оптимизация". Например, тот самый Far Cry 5, или Assassin's Creed Odyssey (которого ещё подтормаживает денува, и почему-то наличие оверлеев может дать разницу в десятки фпс, а наличие установленного Afterburner выносит фпс либо роняет игру вообще), или GTA V (он тормозит традиционно, начиная уже с лаунчера). Или например, Warhammer Total War 2 (которому ещё желательно оперативки свободной гигов 12 и SSD). Кажется, если люди там понаписали какого-то лютого говнокода, от которого кровь стынет в жилах, то дальше от него можно ожидать всё что угодно — и оптимизацию под конкретные процессоры (у Ассасина с этим были проблемы на релизе — они забыли указать, что игра идёт только на свежих процессорах), и оптимизацию под конкретные видеокарты (те, что в компах у разработчиков), и "магические" объемы оперативной памяти после которых становится хорошо, и чёрта в ступе

Для ГТА5 помогает поднять приоритет програмы в процессах. Разница на глаз видна.
Сам мучался несколько десятков часов, пока не раскусил
Может и в других играх поможет
(А я думал, приоритет вообще ни на что не влияет)
Мне помогает запуск улучшалки от видюхи Асус — убивает лишние процессы и что-то ещё делает — польза тоже заметна.
Ещё недавно пробовал какую-то с названием Razer — помогает ещё лучше, но она с рекламой.
1С тоже обещает, что миниальные требованиях к новой King's Bounty II — это 16 гигабайт памяти и Win10.
Вот так и живёт программист: поменял арабские цифры на латинские (KB2 -> KB II)- и потребление памяти выросло на 4 порядка.
Это во всём фреймворки виноваты! /irony
Тот программист сначала сам себе написал фреймворк на ассемблере, потом на нём игру. Так что да.
я сейчас делаю игру смешанного жанра, отчасти вдохновляясь именной первой KB, браузерной вкладке с игрой хватает 30 МБ ОЗУ.
Обязательно, но только я даже сам не знаю, когда я ее доделаю.
define «в реальной жизни». В статье речь про threadripper'ы, т.е. серверные процессоры. Для них как правило важны многопоточная (многопроцессная) производительность и энергопотребление. И по совокупности этих параметров AMD сейчас далеко впереди. Ждем 10нм от intel, вангую бомбу.
А что, реальная жизнь по вашему ограничена только играми, в которых процессоры АМД минимально отстают от процессоров Интела?
Особенно радуют глаз вот такие картинки:
image
По которым из ваших слов:
Как цифрами не играй, а Intel всё равно побеждает в производительности на ядро,
Можно сделать вывод, что новый интел проигрывает старому интелу в производительности на ядро. Ну ведь 9700к рвёт же как тузик грелку и 9980хе, и 10980 хе — а значит старое лучше нового однозначно, ага.
Нет, это вас смущает почему-то. Ведь все указанные тесты проводились с включенными бустами и прочими нюансами (типа непонятно на каком охлаждении).
Но вы как-то из таких откровенно размытых данных сумели сделать вывод, что ядро интела круче.
9700K позиционируется как топовый процессор для домашнего использования (читай игр), в которых важна производительность на ядро; 10980 XE — как процессор для рабочих станций серверов, где однопоточная производительность отходит на второй план. Вполне естественно что в играх 9700K выигрывает.
Вот вы мне сейчас серьезно пишите, что старое поколение у интела имело лучший показатель производительности ядра?
10980 XE — как процессор для рабочих станций серверов
Угу, это же явно видно тут, в пункте «Поддержка памяти ECC — Нет»…
Почитайте коммент на который отвечал я изначально, подумайте раз 10, если не поняли почему именно так я ответил на него, потом правильно переадресуйте свои объяснения. Потому что в данный момент вы демонстрируете не умение понимать даже цепочку из двух подряд комментариев.
Я Вам больше скажу, я иногда не понимаю цепочку из одного комментария. И эти комментарии обычно принадлежат Вам. Тред начинался с заявления, что Интел способен в однопотоке показывать лучшую производительность чем АМД. Вы в своем комментарии незаметно (на самом деле нет) перешли к сравнению в однопотоке процессоров для игр и серверов. Признаю, подумал все 10 раз, и все равно невдомек, каким образом это опровергает изначальную тезу.
Я же просто указал на то, что преобладание 9700K над 10980XE в однопотоке — нормальное явление.
Вы в своем комментарии незаметно (на самом деле нет) перешли к сравнению в однопотоке процессоров для игр и серверов.
И где там сервера? Я вам дал ссылку на позиционирование интелом этих процессоров — поддержка ECC там есть? Нет?
Значит вы для себя выдумали данное позиционирование, после чего пришли обвинять меня в подлоге сравнения? Серьезный подход. Но вы опять проигнорируете факты, ждать признания от вас ложности уже второго вашего коммента про тему «серверные процессоры» — не приходится.

Хотите я дам поищу ссылку на обычные процессоры как i5 или селероны, которые реально ставились в серверы и имели в спецификации от интела в этой графе «Да»?
Так что это таки обычные процессоры. С обычным позиционированием. Ровно с таким же позиционированием, как у топовых рязаней.

Дальше, мое сравнение было направлено ровно на то, что б продемонстрировать ущербность слов, цитирую:
Intel всё равно побеждает в производительности на ядро
Единственно, в чем побеждает интел — это в продаже пары моделей максимально разогнанных процессоров с большей частотой, задранным TDP и при меньшем количестве ядер, причём чья мощь реализуется лишь на топовых чипсетах.
И которые за этот счёт пока ещё показывают себя неплохо в уже старых (то есть вышедших в продажу) играх на текущий момент (то есть доминирование в процессорах заточенных максимально на единственную задачу по сути), но как только интел наращивает количество ядер, то мы видим реальное соотношение производительностей. Хотя, боюсь, и этот текст до вас не дойдёт, хотя вы будете утверждать про то что сумели его прочесть даже не раз, а 10…
Позиционировался.
Для старых движков игр это так, для новых — многопоточность важнее быстрых ядер, для будущих портов с консолей, в которых те же 8 ядер /16 потоков — и подавно.
Ну так 9700K это 8 ядер; если думаете, что Hyperthreading что-то решает — ну возьмите 9900K. Но вообще по поводу распараллеливания игр я не разделяю Вашего оптимизма.
Все новые консоли будут c 8c/16t процессорами, amd вылезла с дешёвыми 12t процессорами, движки с raytrace растут, как грибы — я полон надежд и оптимизма.
Intel брать не стал — ибо дороже и мне не нравится, когда за один и тот же сокет, только другой, каждый раз пытаются снять денег.
Intel, перестань.
PS в целевом разрешении 1440p для игр разница между amd/intel в пару кадров несущественна.
Оптимизм можно не разделять, но прогресс движется независимо от оптимизма.) В эпоху массового 4c не было смысла проектировать десктопный софт на больше, чем четыре потока, всё равно их утилизировать было особо некому. В эпоху массового 8с смысл появится.
В любых играх быстрые ядра ценятся больше всего. Еще больше ценится много быстрых ядер как у 9900k/9900ks.
AnandTech единственные, кто до сих пор с умом делает графики, не просто с безликим названием процессора, а с количеством ядер, TDP и ценой.
Графики с подписями это хорошо, но их набор тестов удручает — никак не подходит для тестирования серьезных процессоров. Например, видно, что в тесте кодирования там более 16 ядер вообще никак не используется. И нет никаких режимов типа 10 bit 4:2:2 4K — как раз под которые и покупаются подобные камни.
Еще немного печальное замечание: в Blender и прочих 3D все тестируют время рендера. Про просчет физики, симуляцию жидкостей — забывают. А там есть на что посмотреть, например старый Ryzen обгонял Intel по времени рендера, но безнадежно (до 50%) отставал в скорости просчета физики. Днем с огнем не сыщешь таких тестов…
А кто уже с подобными процессорами сталкивался… Как отводить от процессора 280Вт?? Это еще одна турбина в корпус? (плюс видео столько же… и вот они полкиловатта на одну коробочку #ох)
k9900ks, который под нагрузкой с примененением avx2 выдаёт примерно те же цифры, рекомендуют использовать с водоблоками.
Какой у новых Ryzen Threadripper 3960X и 3970X потолок ПСП при однопоточной работе?
У их предшественников он был всего 29 ГБ/с (т.е. многоканальность памяти реально нужна только при многопоточных алгоритмах запросов данных, а м.б. это ограничение даже и на ядро, а не на поток и SMT тут тогда тоже не решает) а у Интел — так вообще всего около 14.
image
даже разогнанный 28 ядерник не в силах одолеть 24 ядра тредриппера, интересно.
протестировать бы в MS SQL, Postgres и т.п. типа для бюджетного сервера выбрать.
Статья про zomblieload2 на intel (ну и фикс, который на 4-10% режет скорость) уже была на хабре?
Активно не слежу, но про новые не встречал. Приходится на других более оперативных ресурсах читать про них.
И на сколько в итоге после всех фиксов за последние пару лет, интересно, упала производительность intel?
Всё зависит от задач, думаю. Где-то могла и серьёзно упасть, но уже не сделать тестов «до и после», как с айфонами.

Интересно получается, когда конкурент есть. И ядер добавили, и цену снизили. Даже дерьможвачку на припой заменили(мой 4790к без скальпинга просто вис в прайм95, даже не тротлился). Просто сказка какая.

интересно, не первый раз в истории АМД делает сильнейшие процессоры, при бюджете на разработку на порядок меньшем.
Интел могли бы от бюджета R/D 1/8 к примеру взять и направить на разработку чиплетных вариантов, техпроцесс заказывать на стороне опять же.
У них есть чиплетные варианты, называются EMIB, но когда до потребителя дойдут — не ясно, вероятно, не раньше 2021.
Фото
image

image

image
Only those users with full accounts are able to leave comments. Log in, please.
Information
Founded

7 May 1999

Location

Россия

Website

miran.ru

Employees

51–100 employees

Registered

5 July 2017