Pull to refresh

Comments 62

Столько лет под 5% повышения производительности считалось нормой и синий гигант особо не беспокоился о таком положении дел. А тут в преддверие выхода Zen такие чудеса творятся! Не хочется сглазить… но похоже нас ждёт интересный год в плане железа!

Какие чудеса? Липовые (маркетинговые) 15% ускорения, которое натягивается приплюсовывая к скорости CPU скорость встроенного в процессора видеоядра?
Так это и раньше было — маркетологи Интел по 20-25% прироста рисовали. А на практике собственно в самом процессоре все те же самые 5% прибавки. Точнее судя по последнему поколению при одинаковой частоте и кол-ве ядер еще хорошо будет если +5% наберется. В 7м поколении прибавку относительно 6го надо с лупой в тестах искать — чуть выше погрешности замеров при одинаковой частоте.
Мне вот одно непонятно: а почему всегда производительность решается ускорением транзисторов в процессоре или увеличением количества ядер, неужели схемотехника самих вычислительных блоков внутри ядра не поддаётся улучшению?
В случае Интел — Тик-Так именно так и работала. Вначале уменьшается техпроцесс с текущими кишками, следующий шаг — новые кишки на уже прежнем техпроцессе.
Сокет тот же самый останется или опять ±пара ног?
Ну надо же всем деньги зарабатывать :)

Ну а нам останется только выкручиваться — кто как умеет)


Заголовок спойлера

image

У человека который крепил все провода явно было спокойствие как у булыжника и точность лазера.
Насколько я понимаю, там ещё и смертельно важна одинаковая длина красных проводов… По крайней мере, множественный неудачный опыт пайки SATA-кабелей показывает, что на высоких частотах не всё так просто, как на фото
Намного больше интересует вопрос как туда охлаждение теперь крепить то?
Судя по внешнему виду это не процессор, а чипсет материнской платы или еще какой-то подобный чип от Intel. Ему для охлаждения хватит небольшой радиатор на термоклей прилепить.
Один проводок отпал, я прямо переживаю.
Спокойствие, только спокойствие. Это отвод на «секретную красную кнопку».
это как-раз таки лишний пин, который либо вообще просто так, либо один из сотни таких-же отвечающих за питание
А какой на данный момент предсказанный теоретический предел уменьшения тех.процесса и предсказываемые сроки его достижения? То есть на каких нм мы упремся в физические процессы, не позволяющие уменьшить еще сильней?
С максимальной частотой процессоров я так понимаю около предельные значения уже достигнуты еще лет 10 назад?

"Мы" регулярно упираемся в разнообразные физические ограничения, которые с помощью хитрости и весьма дорогостоящих трюков более-менее успешно преодолеваем.
Мы в кавычках потому, что сами знаете почему.

По коллойдной химии я помню что минимальный размер твердого материала в районе 2 нм, дальше поверхностная энергия будет столь большой, что материал не сможет существовать в твердом состоянии даже при температурах близких к абсолютному нулю
Что-то я не понимаю, интел собирается выпустить два поколения за год, и к концу практически вплотную подойти к выпуску третьего?
У них действительно в планах два хороших прироста скорости, или же они хотят потратить уйму денег на выпуск явно проходных железок которые почти сразу сменятся на следующие с техпроцессом 10 нм?

Как раз думал обновиться, но сейчас вкупе с этими новостями на рынке образуется такая каша что даже растерялся. Покупать что есть или ждать (чего?) — непонятно.
Если вам надо работать, то ждать просто бесмысленно. Другой момент, что выбрать 2011-3 или 1151?
Если не требуется 128gb памяти и 8/10 ядер, то вполне хватит LGA 1151 с 7700k.
В том то и дело, что нужно для дома. Меняю вообще i5 2500k, скорее затем чтобы не стал совсем старый (и не сильно упал в цене), нежели потому что не хватает мощности. Конкретных нужд нет, просто хочется сменить платформу, прикупить памяти и т.д.
С процессором вопрос, на текущее kaby lake — вроде как особо нет смысла ради в лучшем случае 15% прироста. Ryzen скорее всего будет проигрывать в однопоточных приложениях, а они все еще вполне есть и актуальны.
В любом случае как ни посмотри замена напоминает скорее «шило на мыло».

Вот тоже подумал про сокет, что будет правильнее подождать 2011-3 и оставить некий задел на будущее.
В смысле ждать? Он в разряд устаревших скоро перейдет, на выходе 2066(во 2 квартале 2017). Я этого жду, потому что в Китае на рынок процы выбросят.

Ну и скажите мне, друзья, кто из нас апгрейдил проц на той же мамке со времен 486-х? По-моему, давно пора забыть юношеские переживания по поводу сокета и рассматривать систему только в целом. Всё равно, если меняем ПК, так уж меняем.

Ну у той же AMD сокеты меняются сильно реже.
Сейчас у меня дома материнка Asus M2N-E которая плавно путем апгрейда биоса из Socket AM2 стала Socket AM2+, а потом Socket AM3.
Поддерживает процессоры с AMD Athlon 64 3000+ по Phenom IIX4 945.
https://www.asus.com/ru/Motherboards/M2NE/HelpDesk_CPU/

Кроме изменения типа оперативки DDR2-DDR3-DDR4 особых причин менять сокет я не вижу.

год назад заменил core2 duo E7400 на Xeon E5450 для домашнего компа хватает. Но с вами абсолютно согласен — сегодня покупается система раз и до замены, максимум потом видеокарту заменить поколения через 3-5

Были матери от P75 до 500, и от P2 до P3 тулика.
80486 немного сложнее, через переходники но там не всегда потениал раскрывался.
UFO just landed and posted this here
Менял целых 5 раз. И как раз все это было после 486х, потому как с 286 и 386 у меня процессоры вообще впаяны в материнские платы были, а 486 я перескочил.

Естественно это все было на AMD платформах, а не на Intel которые своих клиентов выдрессировал менять всю платформу с каждым новым или просто слегка обновленным процессором.

P.S.
Схема замен
K5-PR90 ==> K6-II-350 (Socket 7)
Duron-700 ==> AthlonXP-1700+ ==> AthlonXP-2800+ (Socket A)
Athlon II X2 ==> Phenom II X4 (Socket AM2+)
Phenom II X4 ==> Phenom II X6 ==> FX-8320 (Socket AM3+)

Материнки менял только при переходе на другой тип памяти (одновременно с увеличением ее объема от 2х раз) SDR-DDR-DDR2-DDR3 или по причине сдыхания материнки — было один разок такое после 3х лет активной работы.
Относительно 2го поколения все-таки не 15%. 15% хоть и дутые маркетиноговые, но это только относительно предыдущего поколения. А i5 2500k это 2й поколение, за 5 поколений со 2 по 7е в районе 50% прироста накопилось наверно уже.
Как ни печально, но именно те самые 15-20% и накопилось. По многим тестам и сравнениям цифры именно такие, причем 15% в ряде мест это еще довольно оптимистичный результат.
Не, ну у Intel конечно конкретный застой, но все-таки не настолько вроде все плохо.

Вот например тест на широком наборе ПО(офисный, игры, архивирование, шифрование, видео, граф. редакторы):
http://www.ferra.ru/ru/system/review/experiment-sandy-bridge-vs-skylake/
От 10 до 30% прибавки, в среднем 20% с хвостиком.
Но это на одной частоте, одинаковом кол-ве ядер и 6е поколение против 2го.
А частоты (и разгонный потенциал) тоже чуток подрасли за это время, и мы сейчас уже про 7е поколение против 2го, а не 6е.
Есть маленькая оговорка, в статье 2е поколение разогнано максимум до 4120, в то время как 6е до 4700. В моем случае мой процессор смог взять величину в 4400 и на этом фоне разница становится еще поменьше. Получается что смысл обновляться вроде бы и есть, но совсем небольшой и своих денег вряд ли стоит.
20+% разницы получены на одинаковой частоте 3000. И с одинаковой памятью.
Для начала давайте сравним производительность архитектур. Напомню, Sandy Bridge — это второе поколение Core, Skylake — шестое. Для этого я взял процессоры Core i5-2500 и Core i5-6600K и выставил для них идентичную частоту в размере 3 ГГц. Turbo Boost отключил. Частота оперативной памяти и задержки в обоих случаях были одинаковыми, хотя в одном случае использовался стандарт DDR3, а в другом — DDR4.

Логично, что во всех рассмотренных мною приложениях архитектура Skylake оказалась победителем. В том числе и в играх. Разница между поколениями колебалась от 10% до 48%. В среднем Sandy Bridge уступил своему родственнику в 6-м поколении 20%.

С учетом разницы частот и более быстрой DDR4 памятью (в тесте память на 2133 — практически потолок для DDR-3, а для DDR4 это только начальный уровень, если сейчас брать то это будет уже DDR4-2400-2800 память) на новой платформе разница наоборот больше будет. Меньше она быть не может — +20% только за счет доработки архитектуры.

В разгоне по тестам там все +35-50% разницы, но тут уж от везения с конкретными экземплярами и частично умения зависит. Но даже на штатных частотах разница больше исходных 20% даваемых архитектурными доработками, т.к. базовых частот в 6-7 поколениях тоже прибавили относительно второго.

Хотя конечно не так много. Раньше я из-за меньше чем 1.5-2х кратной разницы процессоры в принципе не менял. Но что делать, если развитие так сильно затормозилось. Уже и +30-40% выглядят вполне неплохо.

Ну или уж дожидаться что покажет на практике Zen. Скорость на ядро у него не ниже сандалей должна быть по предварительным тестам, но примерно за те же деньги можно будет взять 6 ядерный/12 поточный процессор, который будет хорошо выигрывать в оптимизированном под многопоточность софте.
1151 даже 6 ядер не дает…
Я бы на вашем месте дождался конца февраля, AMD выпускает их новые процессоры Ryzen, в самой производительной модификации 8 ядер (ожидается, что будет стоить $700), она по производительности обходит один из самых производительных Intel процессоров i7-6900K за $1100, даже с отключенным TurboBoost
демонстрация на презентации AMD: https://youtu.be/EsVNQYwlSAo?t=2m10s

Вопрос стоит только в том, как оно будет на других приложениях. Насколько комп нужен именно сейчас, а то ждать можно очень долго и превратится в Ждуна.

Но я соглашусь, что если у AMD получится подстегнуть Intel, это только все в плюс.
Судя по информации от AMD у них используются нейросети в Ryzen чипах для пред-процессинга, т.е. по-сути чип будет иметь отличную производительность во всех задачах. AMD говорят, что он уже готов и выйдет в продажу к концу февраля

Хотя я сам склонялся к i7 7700K за $340, он стабильно работает на 4.9ГГц с воздушным кулером Noctua NH-D15s

В Zen/Ryzen заявлен предсказатель переходов на базе нейросети, но подробностей нет (вероятно, это или дополнительный предсказатель к классическим предсказателям, либо схема управления/выбора в гибридном предсказателе):
http://www.anandtech.com/show/10907/amd-gives-more-zen-details-ryzen-34-ghz-nvme-neural-net-prediction-25-mhz-boost-steps
http://images.anandtech.com/doci/10907/AMD%20Zen%20December%202016%20Update_Final%20For%20Distribution-page-018.jpg


AMD is announcing this as a ‘true artificial network inside every Zen processor that builds a model of decisions based on software execution’. This can mean one of several things, ranging from actual physical modelling of instruction workflow to identify critical paths to be accelerated (unlikely) or statistical analysis of what is coming through the engine and attempting to work during downtime that might accelerate future instructions (such as inserting an instruction to decode into an idle decoder in preparation for when it actually comes through, therefore ends up using the micro-op cache and making it quicker).

Обычные предсказатели работают достаточно неплохо, и "нейросети" могут уменьшить ошибки предсказания на единицы процентных пунктов: https://www.cs.utexas.edu/~lin/papers/hpca01.pdf "The perceptron predictor’s advantage over
the PHT methods is largest at a 4K byte hardware budget, where the perceptron predictor has a misprediction rate of 6.89%, an improvement of 10.1% over gshare and 8.2% over bimode. For comparison, the bi-mode predictor improves only 2.1% over gshare at the 4K budget"


Agner считает, что AMD уже использовали предсказатели с "нейросетью" в предыдущих продуктах
http://www.agner.org/optimize/microarchitecture.pdf#page=17


Future branch prediction methods.… The storage requirement for the two-level predictor grows exponentially with n,… Other methods with less storage requirements are likely to be implemented. Such new methods may use the principles of neural networks.
3.12 Branch prediction in AMD Bulldozer, Piledriver and Steamroller
… The prediction mechanism is described as a hybrid with a local predictor and a global predictor. Most probably, the branch predictor is based on perceptrons. A perceptron is similar to a neuron, and it learns by tracking correlations in the branch history. Unlike the adaptive two-level predictor, the perceptron predictor can learn very long branch patterns.… My tests indicate that complex repetitive patterns are predicted well after a certain learning period. There appears to be no sharp limit to the length of branch patterns that can be predicted, and even very long patterns can be predicted.
Ну в любом случае, как бы там не было, он обходит i7-6900K, без повышения частот, при рендеринге в Blender, явно он не будет медлительным, при других операциях типа сжатия/кодирования.

Если он действительно будет < $700 стоить, то это заставит Intel в следующие поколения чипов засунуть какую-то нереально продвинутую технологию, это по-сути будет первый конкурирующий чип для Intel с 2006 года
В любом случае подожду, но по поводу AMD особых надежд не питаю.

Они в крайнем случае, подстегнут Intel на небольшое снижение цен, что тоже неплохо.
А так дома нормально работает 6-ти ядерный phenom-II и хватает, ед. Претензия — электричество )

Два хороших прироста скорости по тесту, разработанному консорциумом, в который входит сама Intel.
Что сильно снижает доверие к этим результатам — AMD уже ругалась на его необъективность.
так что через несколько лет здесь, вполне вероятно, освоят производство по следующей норме 7 нм
А откуда идут вот эти цифры, типа 14-10-7? Почему на месте семерки не может оказаться восьмерка или шестерка?
На таких масштабах очень сложно производить процесс литографии. Там накладывают несколько шаблонов один на другой с небольшим смещением, поскольку длина волны света больше самого шаблона, поэтому выбирают наиболее эффективный размер, возможный для технологий создания чипа, используемых в данный момент

Названия 22 14 10 7 — напрямую из маркетинга. На самом деле там нет точно таких размеров ("22 nm process" — 60 nm fin pitch, 80 nm interconnect pitch, "14 nm process" — 42 nm fin pitch, 52 nm interconnect pitch; иллюстрация от Linley+eetimes).
Названия техпроцессам предлагает ITRS: https://spcc2016.com/wp-content/uploads/2016/04/02-01-Gargini-ITRS-2.0-2.pdf#page=79 "Logic industry "Node Range" Labeling (nm): 2015 "16/14", 2017 "11/10", 2019 "8/7", 2021 "6/5", 2024 "4/3""
На практике числа должны демонстрировать удвоение количества транзисторов на единицу площади по сравнению с предыдущим техпроцессом, поэтому они отличаются на корень из 2:
http://web.ece.ucdavis.edu/~bbaas/116/notes/Lecture02.pdf "Major Technology Nodes… Mostly just the
primary representative technology nodes with sqrt(2) scaling are shown… Linear dimension shrinks by 0.7x/technology generation. Every generation can integrate 2x more functions per chip"
http://www.eetimes.com/document.asp?doc_id=1329279 "Silicon Lacks Clear Metrics. No one number pegs a process."


“There is no single measurement that determines the performance, power consumption and transistor density of a technology,” said Jones (International Business Strategies)…
The classic measure of a node is the size of its transistors as measured in their minimum gate length, said Gwennap. Thanks to marketing efforts, node names no longer correspond to the gate measures, “but it’s not as far off as you think--the gate length for the 14nm processes from Intel and Samsung is 20nm,” he said.
Minimum gate lengths alone won’t tell the whole story, said Andy Wei, a senior fellow and technology analyst at Chipworks.
“The decisions of which pitches are optimal for a technology is highly dependent on process cost correlated with resultant area scaling,” Wei said. “It comes down to comparing technology capability at the routed cell level as well as the cost to achieve that density,”
Блин, и здесь китайские ватты с мегагерцами :( Задолбали.
Интересно есть ли возможность сделать главное ядро/поток в несколько раз мощнее чем остальные? Потому-что многие игры грузят первое ядро, а остальные практически не используются. Например dota 2, в которой можно обойтись видеокартой 5+ летней давности (geforce 5xx), но производительность все-равно будет упираться в процессор даже на топовых i7, все из-за кривости самой доты. Например при замене gtx 660 на gtx 1060, производительность в игре вообще абсолютно не поменялась.
Интересно есть ли возможность сделать главное ядро/поток в несколько раз мощнее чем остальные?
Только если увеличивать частоту процессора. Процессоры уже давненько приблизились к своему пику производительности в одном потоке, вырываются только разогнанные процессоры i3 и i7 с частотами 4.2GHz+, и я не думаю, что в ближайшее время что-либо изменится. Остается только надеяться, что разработчики игр будут лучше оптимизировать свои игры под многопоточность.
Это пик, потому что архитектору самого ядра со времен выхода Core 2 около 10 лет назад никто даже и не думал в всерьез переделывать. Идут только мелкие улучшения, костыли, оптимизации одной и той же архитектуры. Ну и размножение собственно одинаковых ядер когда уменьшение размеров транзисторов и снижение потребления энергии позволяет.

Все потому что с нуля разработать архитектуру (а не сделать «косметику» и рестайлинг давно обкатанного) дорого и долго — от 4-5 лет работы специалистов высшего класса и несколько миллиардов $ на R&D.
А главное зачем? Пипл же и так хавает — конкурентов на этом рынке (быстрых х86 процессоров) по факту нет, вместо того чтобы так напрягаться можно просто +5% скорости в новой обертке по 5 раз подряд продавать.

А так работать в сторону суперскалярности одного ядра, а не размещения множества одинаковых копий ядра на одном кристалле и спускания транзисторного бюджета на наращивание кэшей никто не мешает и не запрещает. Но это потребует выбросить текущую дойную корову архитектуру и начать с чистого листа. Сделать условно copy+paste докинув еще ядер на порядки проще+быстрее+дешевле.
Это как начать продавать уголь на заправках.
Просто производительность в игре и дальше будет падать, а оптимизированные под мультипроцессоры игры наоборот. Люди начнут уходить от них, и тогда разработчики перепишут свои игры.
Быстрее бы уже упереться в предел. Интересно будет посмотреть что будем делать :D
Так же как и с человеком, поди. Перестал расти в длину, стал расти в ширь.
а потом будет как в недавнем посте, через небольшое время что то внутри процессора будет деградировать и нужно будет идти покупать новый.

да как-бы уже уперлись — счастливые обладатели i5 2500k тому подтверждение, прошло уже более 5 лет, а им хватает, если не хватает — просто поднимают частоту, в будущем скорее всего будет как на современных видеокартах — тотально распаралеливание задач и дикая многоядерность, возможно рулить будут универсальные процессоры (под крышкой проц, ядро и ОЗУ) для наращивания мощность надо будет просто докупить их по больше и вставить в матплату.

Может даже будут встроенные физические реализации самых популярных алгоритмов, например сортировки =)
Intel вроде заикалась про процессоры со встроенным FPGA.
на атомах обкатывали, плохо обкаталось
Будем учиться лучше проектировать и оптимизировать софт :)
То что Coffee Lake будет 14нм известно уже несколько месяцев (полгода?)

>> Компания оценивает этот отрыв примерно в три года.
Лапша для инвесторов.
На графике у них размер ячейки SRAM.
Да, она действительно на 10% меньше чем у аналогичного 14нм техпроцесса Самсунга.
Но 10нм производства у Интел нет, а у конкурентов есть. Интел уже на год опоздал.

Особенно забавно было когда Apple выпустил SoC с 3 миллиардами транзисторов и большей плотностью транзисторов на мм чем у самых последних процессоров Интел.
Они в панике накатали презентацию для инвесторов что, дескать, бОльшая плотность может быть не только полезной, но и вредной!
Ох. По диагонали проглядел график. На графике не SRAM, как часто делают при описании ТП, а некоторая «логическая ячейка». 4 транзистора? Wtf?

Но в любом случае если присмотреться к белой стрелочке — она нарисована ниже синей и выше жёлтой. Не совсем уместно говорить об эквивалентности, если у конкурентов объективно чуть лучше ТП на котором при этом выпускаются текущие чипы.
Ожидается, что 10нм Интел будет аналогичен по параметрам 7нм TSMC.
Но опять же появятся они примерно с разницей в полгода — год.
Никто не сомневается в том что Интел может если захочет, но стоит ли слишком сильно напрягаться?
И мне кажется хорошей идей разобраться с тем, что он имеет на текущий момент. Это может помочь в будущем.
У интела действительно неплохая фора, беспокоится насчет этого не стоит.

У меня стоит i7 2600k, 16gb, gtx660, SSD. Играю в современные игры, занимаюсь 3d моделированием… самое забавное, что мне хватает. Будет 8 поколение, я ужасно отстал от моды и новых тенденций, апгрейд буду делать тогда, когда либо мать умрет, либо проц, потому что найти их уже почти нереально. А все эти поколения чистой воды маркетинг…
Для обладателей платформ первого поколения (те что на базе socket-1366) у китайцев есть очень заманчивые предложения по 3-4т.р. в виде xeon x56*0. Которые обладают, относительно i7-9*0, большим количеством ядер, меньшим тех.процессом, меньшем энергопотреблением и стабильным разгоном до 4,1ГГц. Это довольно серьезный апгрейд. Производительности системы хватает более чем как для разработки, кучи виртуалок, рендеринга так и всех современных 3d-игр. Уже сколько лет в обед на этой платформе так до сих пор нет никакого желания её апгрейдить.
Sign up to leave a comment.

Articles