Pull to refresh

Comments 99

Мне кажется ещё текущие машины не все перешли на DDR4 а они уже DDR5 собираются выпускать.
Это планы на 2021 год, а объявили вовремя: вон уже DDR4 4866@CL18 на рынке.
Так это скорее норма, вспомните как быстро в своё время менялись поколения памяти.
Ну так это пока не для домашнего рынка. Для домашнего ПК возможностей DDR4 еще на лет десять хватит.
Ой зря вы загадываете на такой долгий срок. У меня VR шлем и могу уверить, шустрая память ему нужна и много. Если VR действительно взлетит, то это ОЧЕНЬ сильно задерёт планку по требованиям к железу.
За VR я внимательно слежу ещё с появления Окулус. Проблема там в том что отсутствует оптимизация. Создатели игр идут по непроторенной дорожке. Готовых решений фактически нет.
На глаза идёт фактически одинаковая картинка, нет единой/универсальной технологии отслеживания глаз(несколько компаний пытаются протолкнуть свои, но поддержка в играх фактически отсутствует), нет поддержки в directX/Vulcan.
Да и на мой взгляд проблема больше упирается в видеокарты. Возможностей ЦП вполне хватает. SLI VR нет, но вроде планируется. Так что посмотрим.
Как это нет? Погуглите-ка «VR SLI» и «Single Pass Stereo». Им года 3 уже как.
Поддержка DX11, OpenGL. Ни вулкана, ни DX12. Странно это.
По второй, это вообще мимо. Там речь идёт о одновременном построении картинки на оба глаза.

Ну… в DX12 и SLI нет — там mGPU, а потому реализация этих же фич отдана на откуп самим создателям контента (увы, такова принципиальная позиция авторов DX12). По вулкану пока не готов ответить. А вот синглпасс — штука очень полезная. ЦПУ вместо последовательно-поочерёдной подготовки кадров то для левого, то для правого глаза — готовит их одновременно (явно задействуя ресурс других ядер ЦПУ, иначе пропал бы весь смысл в этой фиче). В теории, ускорение фпс на выходе с ЦПУ (полигоны) возможно до двух раз. И в ряде игр я лично почти такой прирост и наблюдаю (у меня SLI + 3D Vision).

Она из без VR задирается — 4K, 8K на подходе.
А какой смысл игры на 8к мониторе? 4к ещё оправдано, но и то при хорошо оптимизированной игре практически не заметно, а 8к мониторы как и 8к телевизоры не дадут никакого прироста качества(если не сидеть в метре перед диагональю от 30").
Моё имхо — с появлением 4к/8к мониторов отпадёт надобность в изощрённых техниках антиалиасинга — он будет просто не нужен, ибо физические пиксели уже слишком малы, чтобы алиасинг был проблемой.

Да, в играх я это тоже заметил. Если в FullHD приходится для комфортной игры ставить антиалиасинг на максимум, то в 4K я его вообще отключаю и не вижу разницы.

Ну как бы самый первый (и наименее эффективный, но зато качественный) метод антиалиасинга был это просто считаем всю картинку в 2х или 4х кратном разрешении, а потом уменьшаем полученную картинку до реального разрешения монитора.
Для 4к это будет уже слишком дорого, особенно с новомодными лучами и прочим.
Что именно? Антиалисанг в 4к? Наверно да, по крайней мере в ближайших поколениях GPU это слишком тяжелая нагрузка.

Я это к тому, что выше писали, что мол в 4к антиалисинг уже не особо-то и нужен. Потому что значительное увеличение разрешения при незначительном росте физического размера экрана само как антиалиасинг работает — «лесенки» становятся намного менее заметными и без использования АА обработки, просто за счет уменьшения физических(и угловых — для глаза) размеров «ступенек» из которых они состоят.

Аналогично тому, как раньше работали самые качественные SSAA алгоритмы антиалиасинга — обсчитывали(частично) картинку скажем в тех же 4к разрешении, а перед выводом на экран уменьшали разрешение до FHD с которыми работает монитор. Хотя в те времена было больше актуально типа 2048*1536 пересчитываемые при выводе в 1024*768. В общем 4x АА (обсчитывается в 4 раза больше пикселей, чем физически показывается на экране). Это жрало очень много выч. ресурсов, но давало качественный эффект. Потом уже пошли разные ухищрения, чтобы повысить скорости АА (но попутно несколько потеряв в качестве).

Сейчас же на 4к мониторах небольшой диагонали (hi-res) происходит почти тоже самое, только картинка «уменьшается» уже чисто оптически, без пересчета в пониженное разрешение при выводе.

Ну не знаю. Может если сравнивать картинки от игр без какого-то чёткого контура, то разницы и нет, а вот на примере текстов разница обычно хорошо видна. Особенно если текст мелкий. И да, я не имею в виду что мелкий текст это единственное преимущество 8К мониторов. Для проверки можете сделать однопиксельную сетку из черных и белых пикселей, если вы не увидите линии на вашей диагонали при комфортном расстоянии — то да, значит 8К это однозначно переплата.

Э, а зачем тогда 100500 видов антиалиасинга придумали, если алиасинга «не видно»?)
ну и запросы сейчас пошли. Я когда то второй квейк и контру 1.6 играл на моніторе Samsung 765MB и вполне хватало, а сейчас мониторов с 4к недостаточно
Во втором квейке и контре не на что было особо смотреть в таком разрешении, уровень детализации сейчас на совершенно другом уровне.

Задайте этот вопрос производителям телефонов, они туда гораздо быстрее 8к впендюрят.

У телефонов оправдывают наращивание разрешений VR'ом (экран очень близко к глазам + разрешение «пополамится»). Монитор к голове примотать гораздо сложнее.
Только много ли используют телефоны для VR через кто-то типа гугл cardbox и приспособлений? Вроде тема уже заглохла, «наигрались».

А без оптики снижающей фокусное расстояние все эти мегапиксели на экране бесполезны, как близко к глазам маленький экран не подноси — без помощи оптики глаз просто не способен сфокусироваться на достаточно близком расстоянии, чтобы их рассмотреть.
UFO just landed and posted this here
Плюс, активно продвигают 144 гц, например. Это уже требование более двух раз в производительности.
Есть физиологические ограничения обычного человека.
А не лучше будет для авиасимов купить шлем VR вместо нескольких мониторов?
А зачем?
В видеокартах и так уже под 16ГГц частоты памяти, а разгон памяти на i9900k с 3 до 3.6 ГГц даёт прирост в пределах 10%.

Интересно, это реальные 16 ггц или маркетинговые 4х4Ггц, например

Настолько же реальные как те 6.4 «ГГц» (6.4 GT/s) что будут тут в DDR5-6400 еще только года через 3 когда она появится на практике (по началу как обычно первое поколение на практике будет даже медленней чем хорошая DDR-4 имеющаяся уже сейчас), при работе самой памяти на реальной частоте чипов памяти всего в 0.4 Ггц.

В видеокартах примерно аналогично, только и частоты уже сейчас намного выше и ширина шины «ширше».

Любой прирост необходим. Сейчас остро не хватает однопоточной производмтельности.
Пример из игр: недавно анонсировали 360гц монитор. В теории он будет полезен уже сейчас, на практике процессоры не вытягивают столько кадров.

А процессор ли не вытягивает?
Попробуйте ради интереса снизить разрешение и чисто графические эффекты загружающие только видеокарту (типа разных сглаживания и анизотропной фильтрации) и посмотреть сколько кадров интересующая игра выдаст.
Анонсировали, ога.
1920*1080, 24", зато 360 герц!
Не, их реально видят люди без 1000fps камеры, которая на замедленном повторе покаже, чем монитор А отличается от монитора Б?
А если двойной слепой тест? /irony
С десяток лет назад играл в совсем старый 3д шутер (Renegade) — мой комп воспроизводил все 60 кадров в сек. с включенным VSYNC. При резком развороте в «глазах» оставался отпечаток от 5-6 кадров, которые накладывались друг на дружку и вместо наблюдения поворота получалась легкая дезориентация (в фильмах для исключения такого эффекта делают «моушен блюр»).

Подобный эффект наблюдаю в ванной комнате, где поставил дешевые, мерцающие 100 Гц, светодиодные лампочки.

Так что, сказать что 360Гц монитор нужен всем — нельзя, но про игрокам в шутеры он может оказаться полезен.
мм… вы уверены, что играли на мониторе с хорошей быстрой матрицей?
Такой эффект можно получить на матрице с достаточно большим временем переключения.
На компе — действительно был монитор с медленной матрицей, но в ванной комнате скорость перерисовки картинки — просто отличная ))

Я хотел сказать, что 360 Гц монитор, возможно, не является необходимостью, но может давать чуть-чуть дополнительного комфорта просто потому что техника стала это позволять (подозреваю, что ценой некоторого ухудшения цветопередачи).
По сравнению с 60 Гц монитором — да конечно, вполне заметно при большой динамике. Для этого сейчас специально для геймеров и выпускают модели 120 и 144 Гц.

А вот даст ли что-то 360 Гц относительно 144 Гц — сильно сомневаюсь.

А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить (или наоборот очень быстро и резко размахивать источником света перед глазами). Но он проявляется не при быстрой смене картинки, а при резких импульсах яркости.
А в ванной это «эффект стробоскопа», на нем и 300-500 Гц в принципе заметить можно если достаточно быстро головой успевать крутить

Так это типичный сценарий для шутеров.

Мозг сложная штука. Он не работает тактами и в тоже время у глаз очень ограниченная пропускная способность(порядка 1Мп разрешение, частоту сложно подсчитать, т.к. нет среднего значения как и среднего человека).
Но достоверно установлено что в VR шлеме минимально комфортная частота выше чем при игре с монитора(90 против 60).
Вероятно это из за того что в шлеме экран занимает большую часть обзора, тогда как при игре с монитора часть изображения фон который за счет алгоритмов требует меньшее количество ресурсов.

Можно вообще считать, что глаз воспринимает действительность непрерывно, а не дискретно, и передаёт данные в мозг асинхронно — при накоплении определённого количества фотонов в светочувствительной клетке. Поэтому человек будет видеть вспышку, даже если ещё выдержка будет очень короткой.

Так в полноценном VR шлеме же нужно считать 2 раздельные (отличающиеся) картинки для каждого глаза. Поэтому 90 fps в VR примерно соответствуют ~45 fps на обычном мониторе, на который смотрим обоими глазами одновременно, а не каждый глаз на свой отдельный экранчик.

Хотя зависит от схемы реализации, но для VR нужно либо удвоение горизонтального разрешения (при этом каждый кадр это на самом деле 2 слепленных вместе кадра), либо удвоение частоты кадров, чтобы получить примерно ту же плавность движений.
Нет, насколько я знаю на каждый глаз идёт 90фпс.
45 и на обычном мониторе плохо смотрятся, в VR шлеме такой фпс быстро вызывает головокружение.
Чтобы каждый кадр резко отличался по яркости от предыдущего и последующего? Что-то на реальные игры не похоже, если конечно в кадре не какая нибудь штука так же имитирующая (уже виртуально) быстро моргающий источник света.

Не кадр целиком, а его фрагменты при движении объектов в кадре.

Так это соответствует движению источника света, а не его морганию.

Если яркий источник света движется в поле зрения, но при этом не моргает, а имеет примерно постоянную яркость, то эффекта «стробоскопа» вообще не возникает.
Эффект возникает только если он одновременно и быстро движется (или движется глаз относительно него) и одновременно моргает.

Хотя какое-то подобие этого эффекта может быть если яркий источник света в игре движется по экрану с очень большой скоростью. На настолько большой, что его перемещение за время отрисовки 1 кадра существенно превышает его размеры — скажем за 1/10 сек проскакивает весь экран от края до края, а размер объекта при этом небольшой. Тогда глаз может успеть зафиксировать прерывистую траекторию движения состоящую из отдельных, не пресекающихся изображений яркого объекта, вместо непрывного «светового шлейфа» который наблюдался бы если смотреть на аналогичный быстрй яркий объект в реальности не дробящейся на отдельные кадры.
Хотя какое-то подобие этого эффекта может быть если яркий источник света в игре движется по экрану с очень большой скоростью ...

Именно. И подобное движение — это быстрый поворот камеры.

Тут вот товарищи попытались разобраться дает ли преимущество высокая частота обновления монитора и какое и довольно сильно заморочились:

Вы в VR на встройке что-ли гонять собрались скорость работы которай сильно от системной памяти зависит? Очень сомнительная затея.

А с полноценной видеокартой нужны выч. мощь и ПСП видеокарты, а не системной памяти.
Если под домашним ПК вы подразумеваете печатную машинку, до для нее и DDR 2 хватает. А все новые игры будут оптимизированы под DDR 5.
UFO just landed and posted this here
Вово, скорее, посмотрят статистику стима / продаж и скажут «оптимизируем на 12 потоков, большинство покупает от 12 до… потоковые процессоры и от 16 Гб памяти»
PS видимо, так и оптимизировался хром, который прямо сейчас нагло жрёт 24 гб оперативки всего с 50 вкладками. /sarcasm
UFO just landed and posted this here
Обычно в переходные периоды пилят материнки/ЦП с поддержкой и старой и новой технологии, а то и обе одновременно. Почему вы думаете что AMD будет упускать часть рынка? Они и так регулярно отстают.
UFO just landed and posted this here
И Тредриперы и Эпики же на своих собственных отдельных сокетах и своих чипсетах живут.

А контроллеры памяти начиная с Zen2 уехали в отдельный чип и от архитектуры самих ядер теперь не зависят.
Так сейчас получаются «настольные» Райзен с 2х канальной памятью, 4х канальные тредрипепы и 8 канальные Эпики.
При том что чипы с ядрами и кэшем у них одинаковые — меняется только I/O чип ну и количество кристаллов с ядрами.

В принципе можно даже будет тот же Zen2 выпустить с DDR5. Или наоборот Zen4 на DDR4 если зачем-то такая нужда будет.
UFO just landed and posted this here
Да, надо. Но ведь такое уже было во времена феномов/атлонов (с одновременной поддержкой DDR2 и DDR3 ) — их можно было как в платы с AM2+ (c DDR2) ставить, так и в AM3/AM3+(c DDR3), даже когда для этого приходилось именно универсальный контроллер делать работающий одновременно и с такой и с такой памятью. Т.к. тогда он был полностью интегрирован в кристалл. И у Intel вроде тоже какое-то из поколений могло с 2мя разными типами памяти работать.

А сейчас это еще намного проще сделать — достаточно просто разные I/O чипы использовать в каждым из которых контроллер только с одним конкретным типом памяти работает, а не городить универсальный контроллер усложняя его.

Зачем такое может понадобиться? Ну например новые I/O чипы под DDR5 и PCI-E 5.0 будет для AMD уже делать TSMC на 7нм производственном процессе.
А I/O чипы для работы с DDR4 и PCI-E 4.0 будет продолжать выпускать GlobalFoundries на 12нм.
Тем более у AMD c ними долгосрочные контракты с обязательствами заказывать и выкупать не меньше какого-то объема пп пластин в месяц/год, а более тонкие (ниже 12нм) они освоить все-никак не могут. И вроде уже даже официально отказались от таких планов остановившись на 12нм.

Чем их загружать? На одних чипсетах для материнских плат много не загрузишь. Сейчас эти мощности еще дополнительно хорошо загружены производством процессоров на предыдущем Zen+ и вроде бы GPU семейства Polaris тоже у них делаются.
Но все это скоро будет сниматься с производства из-за морального устаревания, а производственные мощности (в т.ч. зарезервированные под AMD) останутся.

Или например поначалу возникнет дефицит и завышенные цены на DDR5 из-за каких-то просчетов у производителей памяти (или опять пожар/наводнение/землятресение). И тогда имеет смысл младшие линейки под DDR4 выпустить в качестве временного решения.

Далеко не факт конечно, что так будет делаться на практике. Просто возможный вариант действий, который теперь в текущей многочиповой компоновке процессоров намного проще реализовать.
UFO just landed and posted this here
Но процессор должен в любом случае оба их содержать, при этом усложняя комутацию. Зачем?
Не должен. Контролеры памяти находятся в отдельном чипе. Этот чип раньше назывался северным мостом (North Bridge) и находился на материнской плате, сейчас он находится на одной подложке с процессором и называется I/O die, но его суть та же самая.

И с этим чипом процессор общается по шине Infinity Fabric, той же самой которая используется для работы с L3 кэшем и для обмена данными между ядрами из разных CCX. Которая нужна в любом случае и которая не меняется от того какой контроллер будет в I/O die — DDR4 или DDR5.
Вы объясняете как, но не объясняете «зачем?»

Зачем что? Зачем использовать 12нм — как раз уже написал выше.
Зачем 7нм для DDR5 и PCI-E — частоты этих интерфейсов будут высокие(для DDR5-6400 это например 3.2 ГГц), не факт что на 12нм их вообще получится достичь. А если и получится такой чип будет потреблять довольно много энергии. Вот например в мобильных Zen2 AMD уже отказалась от отдельного 12нм кристалла и i/o часть слепила с CCD чтобы все вместе произвести на 7нм и этим снизить общее потребление энергии. При работе с DDR5 и PCI-E 5 это будет намного более значимый фактор и скорее всего будет комбинация 5нм ядра + 7нм I/O кристалл.

И этим себе костыль на следующие лет 6 поставить? Или потом выпускать несовместимые с старыми сокетами процессоры? Так тогда им придётся с каждым поколением сокеты тасовать, оно им надо?
У них будет zen3 на ddr3 ещё какое-то время. Делать am5 с двумя типами памяти — это вновь по старым граблям. am4 показал, что им это не очень нравится.

Что-то вы не поняли что я писал похоже. Не будет DDR4 на AM5 хотя бы из-за разного количества «ножек» и разной разводки шин памяти. Как и не было DDR2 на AM3, она осталась на AM2/AM2+.

Я о возможности легко поставить новые Zen4 ядра (CCD кристаллы) вместе со старым 12нм I/O кристаллом(от Zen2/Zen3) на старую же подложку(тоже от Zen2/Zen3) и в результате сделать Zen4 процессор под AM4 платформу с DDR4. Вообще без дополнительных затрат на разработку и налаживание производства каких-либо новых чипов — используется уже все готовое.
И поставить те же самые Zen4 ядра вместе с новым 7нм I/O кристаллом на новую подложку устанавливаемую в AM5 c DDR5.
Я бы так не сказал. Да, в момент выхода памяти DDR4 хватало на всё что угодно и, казалось, ещё на 10 лет хватит. А потом пошёл бум количества ядер и сегодня в «домашнем» сегменте у нас есть процессоры с 8 и даже 16 ядрами, которые толкаются попами в 2 каналах памяти.

Конечно всегда можно купить память с частотой типа 4200, но она стоит уже далеко не бюджетных денег. Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте — тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.
Назовёте игры которые забивают на 100% оба канала ОЗУ?
Обычно они тупо забивают весь доступный объём и начинают спотыкаться.
По поводу задач где понадобятся такие скорости, это уже не домашний сегмент, а работа/бизнес.

Бенчмарки показывают некоторую зависимость производительности игр и от частоты памяти и таймингов (правда больше — от таймингов). А для современных игр даже 15% FPS за счёт значительно более быстрой памяти могут оказаться уже значительными.

Тут неоднократно приводили результаты тестирования копеечной ОЗУ и дорогих высокочастотных модулей.
В играх разница составляла 1-2 кадра в секунду на 60-70.
Нашёл тест i9900 c разной памятью.
TL;DR: кодирование и распаковка — память сильно влияет, рабочие приложения — разброс в пределах погрешности, игры в невысоком разрешении (до fullhd) — изрядно влияет, в разрешении выше 2k — можно пренебречь.
C AMD — немного другая ситуация: с памятью разгоняется и infinity fabric, поэтому 10-15% среднего и до 20% минимального ФПС можно выиграть с памятью в 3600-3733Mhz (по сравнению с 3000) практически во всех приложениях.
infinity fabric вместе с памятью разгоняется только на Zen/Zen+.
Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит. Заодно и ее ширину в 2 раза увеличили, так что в случае с высокочастотной памятью разница в скорости шины примерно 2 раза, а с низкочастотной и все 3 набирается.
Начиная с Zen2 (настольный Ryzen 3xxx и мобильные 4ххх) частота IF выставляется отдельно и от частоты памяти уже не зависит.

Не совсем так. До частоты памяти 1866 МГц (DDR4-3733) частота IF совпадает с частотой памяти, процесс работы с памятью синхронный. При дальнейшем повышении частоты памяти частота IF отвязывается от памяти и становится равной 1800 МГц. Работа с памятью становится асинхронной, что приводит к ощутимому росту задержек.

Вы путаете частоту IF с частой работы контроллера памяти.
Это 3 разных частоты. IF, контроллеров памяти и собственно самой памяти (точнее шины связывающей контроллеры с модулем памяти, т.к. сами чипы на намного меньшей частоте работают).

Всего есть 3 частоты:
FCLK = Fabric Clock (частота работы IF)
UCLK = Unified Memory Controller clock (частота работы контроллера памяти)
MEMCLK = memory clock (частота шины памяти от контроллера до модулей DIMM)

Или на картинке наглядно (вообще там еще и 4я частота есть — lclk но она сейчас нас не интересует):
Блок-схема Zen2 (полный формат по клику)
image


В Zen/Zen+ все 3 были намертво привязаны и равны друг другу (FCLK = UCLK = MEMCLK) и в результате от частоты памяти зависела не только собственно скорость работы памяти, но и скорость обмена данными между ядрами и другими блоками внутри чипа идущая по IF.

В Zen2 FCLK задается отдельно и независимо и IF может работать асинхронно относительно памяти на своей частоте.
А UCLK либо равен MEMCLK до 1800 мгц включительно (по другим сведениям до 1866 мгц), либо составляет 1/2 от MEMCLK после этой границы.
Но это влияет уже только на задержки при работе с памятью в асинхронном режиме, а не на внутренний обмен данными между ядрами, кэшем и т.д.

P.S.
Хороший пакет тестов по влиянию частоты и таймингов памяти на реальную производительность ПО на Zen2: www.techpowerup.com/review/amd-zen-2-memory-performance-scaling-benchmark/2.html

Кроме игр и еще некоторых программ память влияет очень слабо, а там где влияет важнее обычно оказываются задержки, а не частота и ПСП.
и IF может работать асинхронно относительно памяти на своей частоте… Но это влияет уже только на задержки при работе с памятью в асинхронном режиме

Именно об этом и речь. В асинхронном режиме задержки становятся выше. И, кстати, именно это вы ссылкой и подтверждаете, где 4000 оказывается медленнее, чем 3600. Слюни и сопли, конечно, но сам факт имеет место быть.

Выше речь была о привязке в том смысле, что низкочастотная память снижает не только собственно скорость работы с памятью, но и замедляет работу IF и следовательно обмен данными между ядрами и работу с кэшем.
В Zen/Zen+ это было действительно так — IF работала всегда на частоте памяти, поэтому прибавка реальной скорости работы от частоты памяти была очень существенной, т.к. одновременно ускорялись и сама память и L3 кэш и пересылка данных между ядрами и например работа с GPU по PCI-E (до которого данные сначала тоже нужно передать по IF).

У Zen2 это уже не так, от частоты памяти ускоряется только память и соответственно только ПО сильно зависящее от работы с памятью. Которого кстати стало заметно меньше, т.к. размеры кэшей выросли в 2 раза и доля обращений к памяти («промахов» кэша) в Zen2 стала меньше.

А выше 3600 МГц память для Zen2 действительно особого смысла не имеет(лучше снизить тайминги если память позволяет). Не только собственно из-за появление 2го асинхронного режима (деления частоты работы контроллеров памяти в 2 раза) ведущего к росту задержек. Но и из-за того, что даже ПСП почти не растет дальше с ростом частоты.
Обычно тут обращают внимание на задержки (становящиеся хуже после 3600 / 3733), но если протестировать ПСП то видно что и она не растет практически:
Скорость чтения и записи из памяти на разных частотах памяти и работы Infinity Fabric на Zen2
image

image


Чтобы понятно почему так происходит — надо посмотреть на ту же схему компоновки процессора выше, по которой видно что данные из контроллеров памяти дальше к ядрам передаются по IF c передельной ПС 32 байта/такт (256 бит шина в каждом направлении).
А частота IF в текущих процессорах на Zen2 ограничена сверху где-то уровнем 1733-1800 мгц (по умолчанию ЕМНИП 1600 мгц, можно выставлять до 2100 мгц, но на практике выше 1800 мгц уже работает нестабильно или не работает вообще, даже 1800 мгц не всегда стабильны оказываются) что соответствует пиковой пропускной способности 2х канальной DDR4-3600 (~56 ГБ/сек) даже если IF будет загружена только пересылкой данных из памяти в ядра или наоборот. Т.е. не только рост задержек из-за асинхронности, но и просто нехватка ПС на следующем этапе пересылки данных.

Вот для одноканального режима работы памяти очень высокая частота должна давать неплохую прибавку на Zen2. Задержки случайного доступа в этом случае никуда не денутся, но хотя бы все поступающие из памяти данные будут успевать передаваться дальше, а контроллер памяти не будет периодически простаивать ожидая возможности отправить данные дальше.
Пока я такие не встречал, да и игр, которые могут забить все 8 ядер процессора до 100% тоже. А скоро выйдут консоли нового поколения (по слухам, у 5 плойки будет 20 гигов GDDR6 со скоростью 880GB/S) и посыпятся кривые порты — вот тогда уж наверняка придётся выкидывать свой 9700К.
Такая игра есть, хоть забивает и не полностью — wd2.
Кривое убожество кое как переведённое на рельсы виндовс.
Таких игр много которые или писали или переносили пьяные обезьяны.
Есть и такие что при довольно ущербной графике полностью загружают топовую видеокарту.

Игры, которые забивают 4 ядра процессора на 100%, уже существуют.

А как вы это определили? Системный монитор в окнах нагрузку на ЦП считает довольно криво.
Системный монитор в окнах нагрузку на ЦП считает довольно криво.

Почему? Обоснуйте.


Ну и это подтверждается бенчмарками, где производительность игры на 6 и 8-ядерниках выше, чем на 4-ядерниках.

Мне встречались игры где ЦП якобы на 100% заняты все 4 ядра/потока(судя по диспетчеру). Вот только игры были однопоточными(я в курсе что современные ЦП умеют перераспределять нагрузку). И другие методы измерения давали правильный результат. Плюс разница в температуре ядер.

Это оптимизация работы с видеокартой на уровне библиотек и драйверов. То, что раньше делалось в главном потоке, теперь буферизуется и выполянется в фоне. Ну а разница в температуре объясняется busy wait — задержки при общении с GPU насколько малы, что нет смысла переключать потоки.

Я считаю, что при росте ядер нужно было увеличивать и количество каналов памяти в пользовательском сегменте

Intel в X-серии использует четырёхканальную память. И даже более того, процессоры 10-го поколения обещают быть даже доступными по ценам.


тогда можно было бы поставить 4 относительно низкочастотных планки по 8 гигабайт и получить хорошую скорость и нормальный объём.

Сложно сказать. Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.

Intel в X-серии использует четырёхканальную память.

Только материнские платы на них тоже не бюджетные, домашний компьютер золотой получится.
Во многих задачах больше решает скорость доступа (тайминги), чем пропускная способность.

На низкочастотных планках тайминги как раз относительно невелики из коробки. На планку за 2000р с частотой 2400 вижу CL16-CL17. Примерно те же СL16 на моих недорогих Crucialах с частотой 3000 (за эту цену тот же кингстон предлагает 2933 CL19). А количество каналов компенсирует низкую частоту планок.

Понятно, что можно взять какой-нибудь кит на 4000, но комплект из 2 таких планок по 16 гигабайт встаёт в 30 тысяч — это даже дороже 9700К получается.
На низкочастотных планках тайминги как раз относительно невелики из коробки.

Потому что тайминги относительные — они указываются в тактах, а не в наносекундах. По факту их надо переводить в наносекунды, чтобы оценить реальную задержку. Далее стоить учесть, что процессор читает/пишет данные не побайтно, а целыми кэш-линиями, поэтому выполяет команды в burst mode, то есть полная задержка включает в себя ещё и такты на передачу данных.


Ну и ещё тут есть AMD с привязкой частоты памяти к частоте внутренней шины, что заставляет использовать высокочастотную память.

Новый DDR5, с улучшенной поддержкой rowhammer.
Эм, ну вот сейчас я обновил платформу и перешел с DDR3 на DDR4 и пшик. Разницы не особо увидел.
А была уверенность что именно память узкое место? Условно, ставить ддр4 на машину без ссд и ожидать прироста производительности эээ, странно.
Да. SSD стоит конечно же.
Вспоминая статьи 10-ти — 15-ти летней давности, чтобы при апгрейде компа заметить улучшение «глазами» (без запуска бенчмарков) нужно чтобы производительность улучшилась на порядка 30 %
На ддр3 максимум был 32гб. На ддр4 уже 128гб и бюджетные мамки на 4 канала. Разница в моём случае, после перехода, была очень заметная.

On-Die ECC — это отличные новости! С нынешними объемами памяти пора бы.


AMD Zen4 нацеливаются либо на середину или вторую половину 2021 года, я думал раньше будут принимать DDR5. Intel Sapphire Rapids технологически тоже будут оснащены DDR5 и PCIe5, интересно будут ли у них в 2020г. платформы на PCIe4?

А что, у Intel уже есть хоть где-то PICE4?
Они ещё летом рассказывали, что 4 версия не нужна и PICE3 хватит всем?
Или это ещё один из приступов Not Invented Here от маркетологов Интел?
PS Всем хватит скоростей 3 версии стандарта, поэтому мы не выпускаем 4, но анонсируем сразу 5, правда, не сейчас, а потом, на 7нм процессорах.
Ну да, к тому времени или ишак помрёт, или патишах /irony

В этом вся и хохма. Хотя сейчас посмотрел, в 2020 наконец будет новая микроархитектура введена: Sunny Cove, с PCIe4.


Недавно их, правда, ударило иронией реальности: ищут среди разработчиков тестировщиков новых PCIe4.0 SSD… да только своей платформы нет: https://www.techspot.com/news/83402-intel-prototyping-pcie-40-ssds-but-needs-amd.html

UFO just landed and posted this here

Сэмплинг Zen2 (серверных) начался ещё зимой прошлого года, а десктопы только зарелизили в середине лета. Я-то прикинул по roadmap +5-6 кварталов после Zen3 — да, поздний 2021 вероятнее. Хм, а раз так, то десктопы может быть сдвинут до презентации CES2022? Хотя тогда рождественские закупки отпадают...

UFO just landed and posted this here
Серверные где-то в середине 21 года года ожидаются, а настольные да, вполне и до конца 21 или начала 22 года могут задержаться.
Шину адреса уменьшили до 13 бит O_o, там адрес ячейки по 3 частям теперь передаваться будет?
Паковать будут как-то. Чтобы при последовательном чтении только младшие биты пересылать.
А какой сейчас минимальный размер фрагмента, который грузится из памяти в кэш? Давно не читал, как сейчас работает кэш в процессорах.

Не знаю как для дома, но для серверов быстрая память даёт много.
Там производительность никогда лишней не бывает, но надо смотреть на цену.

На 85% быстрее — это почти в 6 раз или почти в 2 раза?

На 85% быстрее это почти в 2 раза, т.к. в качестве базы меньшее значение.
Теоретическая пропускная способность увеличивается ровно в 2 раза, но как обычно попутно вырастут задержки и реальная скорость увеличится несколько меньше чем в 2 раза.
Sign up to leave a comment.

Other news