Pull to refresh

Comments 135

У красных все шансы ещё больше потеснить Intel если они сделают упор на улучшение работы кеша и доступу к памяти.

Если статейка претендует на историчность, то не грех исправить неточности. Помянув am290*, свалили в кучу интегральные и секционировпнные решения. На последним тоже много его было сделано… Более того, как по мне, у AMD за всю историю в плане архитектур mpu на порядки было больше инновацинного, чем у Интел. Что в общем и позволяло им выныривать над убытками и открывать новые секторы рынка. Да, не всегда прошедшие в тираж, как, например, RMI,

FX по сути свой потенциал раскрыли только в последние годы с приходом многопоточных приложений (прежде всего графических движков). У меня до сих пор платформа на FX8350, который успевает «кормить» установленную RTX2070 без особо напряга — 40-50 % загрузки на играх ААА класса 2018 — 2020 годов. Правда о энергоэффективности, конечно, говорить не приходится — любой последний Ryzen или Intel ужелает его в получаемой производительности на 1 Вт потребления.
который успевает «кормить»

Объясните, что это значит?
UFO just landed and posted this here
Всё, теперь понял, спасибо. Вообще не факт, что упирается в 2070 — по сообщению этого не понять. Может, проц загружен на 50%, а видяха — на 10%
успевает «кормить»

как раз подразумевает что производительности проца достаточно чтобы поддерживать максимальную загрузку видяхи.
У меня до сих пор платформа на FX8350, который успевает «кормить» установленную RTX2070 без особо напряга — 40-50 % загрузки на играх ААА класса 2018 — 2020 годов.

Как человек, владевший FX8370, скажу «Не верю» (с) Станиславский. Медленный он в играх по нынешним меркам, очень медленный. Его даже чтобы RX 580 под завязку забить, маловато.
Вы лучше FPS сравните, который у вас, и который выкладывают по RTX2070 на более мощных процах. То, что у вас 50% загрузки процессора, совсем не означает, что у вас достаточно производительности процессора. Может, у вас просто игра умеет только в четыре потока, а планировщик винды раскидывает их между восемью ядрами.
Ну планку в 60 FPS поддержать он в состоянии, так же как и стабильное время одного кадра без просадок. Хотя, наверное я немного слукавил в первом комментарии, потому что для достижения такого результата я разогнал северный мост и оперативную память (не совсем стоковая конфигурация уже), так как это одно из слабых мест FX процессоров.

что у вас 50% загрузки процессора, совсем не означает, что у вас достаточно производительности
Ну если есть 60 кадров без просадок, то что это еще может означать? Я не зря обозначил промежуток в 2018 — 2020 годы, потому что тот же древный однопоточный X-RAY Engine из сталкера фризит так же бодро, как и всегда — вертел он эти 8 потоков и RTX2070, извините.
Мое мнение — AMD в погоне за количеством ядер немного опередила свое время. Выйди FX чуть позже, когда уже создание многопотока становилось все более очевидным — все было не так бы плохо.
Ну планку в 60 FPS поддержать он в состоянии, так же как и стабильное время одного кадра без просадок

Да смотря в какой игре и с какими настройками. Например, за Mass Effect: Andromeda в 2К могу сказать, что не в состоянии. В Ведьмаке 3 в состоянии, но это заслуга движка Ведьмака, а не процессора.
Мое мнение — AMD в погоне за количеством ядер немного опередила свое время. Выйди FX чуть позже

… и его соперником был бы не сэндик, а хасвелл, который бы вообще втоптал его в грязь по производительности :)

Скорее имеется ввиду та же архитектура но на более высоких частотах с более быстрой памятью и набором команд пошире. Тому же 65Вт — му phenom IIx6 сейчас совсем немного не хватает в производительности ядра…

Выйди FX чуть позже


И вместо нишевого, но все же лидерства, оказались бы в роли догоняющих…
был ли у вас чип K6, или, может быть, Athlon?


У меня был K6, после чего я надолго завязал с процессорами от AMD (хотя мой самый первый процессор (клон 386) был именно от этой компании.
Потом нам поставили массу корпоративных компов с Дуронами, это была тоска (на фоне стоявших рядом компьютеров с третьим пнем)

Сейчас у меня, на одном из компьютеров, стоит Athlon 5350 (это уровень Pentium E5300 или Селерона J1900) — в качестве офисного справляется нормально (хотя в первых версиях 10 именно у этого компа было больше всего глюков)

Зато видеокарт от ATI/AMD у меня было и есть очень много — и каких либо особых проблем с ними никогда не было.
Жаль, но в последнее время (от начала повального майнига на видеокартах) купить видеокарту AMD от нормального поставщика стало сложно (а через интернет-магазины — чревато).

Кстати, на хозяйстве, с 1996 года (с момента покупки ATI 3D RAGE II AGP) имеется всего две безвременно сдохших видеокарты: 8800 GTS 320 MB и ASUS Dark Knight Radeon HD 4870.
(Т.е. счет пока 1:1 :)

дюрон 650-й разогнанный до 950 мегагерц легко и долго уделывал пень-4 во многих рабочих задачах. В те времена я базу клиента себе домой забирал, чтобы перепровести, т.к. на их сервере она не успевала, а дюрончик раза в полтора быстрее это делал и за ночь успевал.
Ну это только если с младшими Willamette сравнивать. Впрочем, их как раз было как грязи.
дюрон 650-й разогнанный до 950 мегагерц


Кто же будет процессоры на корпоративных компах разгонять?
Переключение перемычки на материнке(поставить шину 133, вместо 100)
image
Разгоном можно не считать.
Переключение перемычки на материнке(поставить шину 133, вместо 100)


Корпоративные компы обычно идут с гарантийными наклейками (тогда — точно шли).
(Возили в сервис, иногда пачками по 5 штук).
Когда гарантия закончилась — пришло время покупать новые.
Корпоративные компы обычно идут с гарантийными наклейками (тогда — точно шли).

Наоборот, гарантийные наклейки обычно ставят на домашние компы. Корпоративные как раз чаще без них, т.к. там дополнительные требования к обслуживанию. Я вообще ни в одной из компаний, где я работал, не видел корпоративных закупок с пломбами. Хотя допускаю, что где-то они есть, где админу лень договариваться с поставщиком.
Когда гарантия закончилась — пришло время покупать новые

Да ну. Гарантия на них в общем случае год, ну максимум лет пять, если это крутая компания закупает что-то мегабрендовое. А служат персоналки лет десять.
Наоборот, гарантийные наклейки обычно ставят на домашние компы


Да, такую фигню встречал пару раз и довольно давно — где-то в начале 2000х.
Потом продавцы поумнели и стали давать гарантию не на весь системник, а на отдельные комплектующие в его составе — так как покупатели просто стали избегать покупать «опломбированные» компы.

А вот с корпоративными — лепят бирки до сих пор.
Так как за каждым юзером не уследишь — владелец компа не будет его курочить, а вот корпоративный юзер — вполне может (диск ему срочно потребовалось подключить, например-по USB это ж долго)

Да ну. Гарантия на них в общем случае год, ну максимум лет пять,


Год — это если покупатель покупает корпоративные компы впервые.
Наученный опытом — требует от трех до пяти.

Вот конкретно с теми Дуронами это оказалось крайне предусмотрительным — в них поставили те самые винты Фуджицу, что пачками стали дохнуть из-за проблем с пайкой (и причем не сразу, а ближе к концу гарантийного срока)

(см. выше про «возили пачками по пять штук» — это как раз из -за тех фуджиков)

А вот с корпоративными — лепят бирки до сих пор.

эта наклейка просто является гарантией того, что между сборкой и получением в комп никто не залезал и клиенту приедет именно то, что установил сборщик и то, что указано в накладной
срыв этой пломбы не является основанием для отказа в гарантии на системник в сборе
если компания озабочена тем, чтобы её сотрудники не лазили в комп бесконтрольно, она может пользоваться пломбами производителя или ставить свои

Год — это если покупатель покупает корпоративные компы впервые

AFAIK гарантия на системник в сборе не может быть меньше двух лет

CC: DrPass
AFAIK гарантия на системник в сборе не может быть меньше двух лет


Может. По крайней мере — у нас.
Да любая может быть. Два года гарантии — это «дефолтное» значение, если продавец и покупатель этот вопрос не обговорили. Если же при покупке хотя бы выдаётся гарантийный талон под подпись покупателя, это уже считается договором, и там может быть любой срок указан, подразумевается, что покупатель согласился на этот срок.
п.5 ст.19 ФЗ «о защите прав потребителей»
В случаях, когда предусмотренный договором гарантийный срок составляет менее двух лет и недостатки товара обнаружены потребителем по истечении гарантийного срока, но в пределах двух лет, потребитель вправе предъявить продавцу (изготовителю) требования, предусмотренные статьей 18 настоящего Закона, если докажет, что недостатки товара возникли до его передачи потребителю или по причинам, возникшим до этого момента.


помню в начале 2000х тёрки вокруг расширенного толкования этого пункта (введённого в 99м), какое-то время считалось, что сборщик обязан устанавливать гарантию на системник в сборе не менее двух лет, ну или нет смысла делать меньше, если всё равно 2 года в законе

но я не настаиваю и снимаю свои возражения

CC: DrPass
Все намного проще:
(текст дается в гуглопереводе)

Статья 7. Гарантийные обязательства

1. Изготовитель (исполнитель) обеспечивает надлежащую работу (применение, использование) продукции, в том числе комплектующих изделий, в течение гарантийного срока, установленного нормативно-правовыми актами, нормативными документами или договором.

Гарантийный срок на комплектующие изделия должен быть не меньше, чем гарантийный срок на основное изделие, если иное не предусмотрено нормативно-правовыми актами, нормативными документами или договором.

2. Гарантийный срок указывается в паспорте на продукцию или любом другом документе, прилагаемом к продукции.

Гарантийные обязательства в любом случае включают также любые обязательства производителя (исполнителя) или продавца, предусмотренные рекламой.

3. Для продукции, потребительские свойства которой могут со временем ухудшаться и представлять опасность для жизни, здоровья, имущества потребителей и окружающей природной среды, устанавливается срок годности, который указывается на этикетках, упаковке или в других документах, прилагаемых к ней при продаже и который считается гарантийным сроком.

Срок годности исчисляется от даты изготовления, которая также указывается на этикетке или в других документах, и определяется или временем, в течение которого товар пригоден к использованию, или датой, до наступления которой товар пригоден к использованию.

Продажа товаров, на которых срок годности не указан или указан с нарушением требований нормативных документов, а также товаров, срок годности которых истек, запрещается"

Оригинал текста

Не упомянуты уязвимости в процессорах Интел
Не понимаю за что минус поставили, уязвимостям можно посвятить целую статью, возможно и не одну, у обоих производителей их хватает. Просто менее популярные продукты менее исследованы, возможно и в райзенах найдут что-то «стоящее», возможно и нет. Посмотрим.
А с тех пор как понеслось-поехало, что аж страшно вспоминать. Да так, что по-моему, одной даже обзорной статьей уже не обойтись.

habr.com/en/news/t/491526 (AMD)
mdsattacks.com/#ridl-ng (TAA, RIDL, RIDL-ng) пишут:
We are particularly worried about Intel's mitigation plan being PoC-oriented with a complete lack of security engineering and underlying root cause analysis, with minor variations in PoCs leading to new embargoes, and these «new» vulnerabilities remaining unfixed for lengthy periods. Unfortunately, until there is sufficient public / industry pressure, there seems to be little incentive for Intel to change course, leaving the public with a false sense of security. Slapping a year-long embargo after another (many news cycles apart) and keeping vulnerabilities (too) many people are aware of from the public for a long time is still a viable strategy.

zombieloadattack.com
foreshadowattack.eu
www.vusec.net/projects/crosstalk

Если честно, то я не смотря на то что следил — не успевал за темой и некоторые «варианты» от меня ускользнули и в закладках браузера не находятся. Считайте этот список аперитивом.
Спектр есть у всех современных процессоров с внеочередным исполнением, в том числе в АРМ. Но чистый спектр очень сложен в реализации, если вообще реален за пределами лабораторий, а вот атаки на MDS и Meltdown куда легче.
Про ARM козырь в лице AMD K12 как то упущен сюжет.
Это та же архитектура Zen, которую Джим Келлер сделал сразу для системы команд ARM и x86.
А ведь у Intel сейчас ARM решений в загашнике нет.
K12 делали для Amazon но что-то пошло не так.
AMD даже заурядный A1100 выпустили на 2 года позднее чем обещали.
ARM проекты поддерживал Рори Рид, а вот Лиза их прикрыла.
В итоге Amazon всё сделал своими силами.
Спасибо за такие сокровенные новости!

То есть в Амазоне сейчас своя сильная команда разработки процессоров?

Похоже, что да. Их Graviton2 (вернее, EC2 инстансы на этом проце, ибо продавать проц сам по себе они не собираются) обещает стать мега хитом: +20% производительности -20% цены в сравнении с Intel based инстансами того же уровня.


А главное, без hyperthreading! Что заметно упрощает процесс принятия решения "можем ли мы с даунгрейдить инстанс?" и "а сколько еще можно нагрузки добавить, чтобы не упереться?"


Правда, боюсь, что Graviton3 через год-два будет уже с hyperthreading :-(

Ну, ну… По тестам, ядро гравитона лучше HT-потока, что вполне оправдано при ценообразовании на AWS (vpcu = 1 HT thread = graviton core). Но ядро xeon или epyc значительно быстрее ядра гравитона, а железные сервера их уделывают и подавно.

А я ни чего другого и не имел в виду. Только то, что m6g-Nxlarge будет быстрее и дешевле m5-Nxlarge на 40% (20%*20%). И пока не похоже, что Intel предложит адекватный ответ под m6-Nxlarge.
Хотя, может новые Epyc от AMD сделают m6a-Nxlarge конкурентными?

Ну, судя по phoronix там нет такого (20%) перевеса. Но цена решает. Мне почему-то кажется, что они слегка демпингуют.

От нагрузки, конечно же, зависит. Вону KeysDB аж до 65%: https://docs.keydb.dev/blog/2020/03/02/blog-post/
Кроме того, обычные приложения могут быть еще под ARM не так сильно оптимизированы, как под x86_64. Но с распространением ARM на серверах, и с выходом ARM Mac/iMac ситуация будет стремительно выправляться.

Извиняюсь, похоже про K12 я нагнал. Всё таки речь шла про A1100.
www.theregister.com/2018/11/27/amazon_aws_graviton_specs
Возможно я читал искаженную версию данной истории. В принципе логично предположить что A1100 был «пробой пера», а K12 последовал бы за ним, но какие там были договорённости достоверно не известно.
Amazon купили Annapurna Labs — они делали ARM-овские СХД.

Были:
K5-PR133, реальная частота 100 мгц. Слабый FPU. Но быстрей работает с целочисленными чем Пентиум, что позволило прожить на этой системе чуть дольше.
K6-2 3D 500 Мгц. Устаревшая и уже ущербная платформа Super Soket 7. Как же я мучался смотря на этой системе первые фильмы в divx. Даже плеер для DOS использовал. С AGP у платформы тоже не все гладко было.
Duron (Morgan) 1000 Мгц. Да SSE позволило системы прожить подольше, чем если бы я взял Spitfire. Но проц конечно слабый.
Sempron 2800 для сокета А. Легко запускался на шине 400, то есть легко разгонялся. В принципе удачное ядро. Хоть и пересел я на него на излите его эры.
Ну и вернулся к AMD с Ryzen 5 2600.
По мне Zen вышла очень крутой. Но ее доить бесконечно не выйдет и надо предлагать что то новое. В видеокартах AMD отстает, а о новинках только слухи.
K6-2 3D 500 Мгц. Устаревшая и уже ущербная платформа Super Soket 7. Как же я мучался смотря на этой системе первые фильмы в divx.

Что-то у вас с ним было не то. Я помню, у меня был первый К6-233, из-под винды DivX оно не осиливало, но вот из-под DOS (за 20 лет подзабыл как тот плейер назывался уже, кажется, QV) вполне справлялось. Думаю, агрегат с вдвое большей частотой и обновлённым ядром должен был бы их без проблем переваривать.
www.multimediaware.com/qv/download.htm

Но там уже крайне остро стояла скорость вывода в видеопамять (и конвертация YUV->RGB). Собственно, далее и пошло аппаратное ускорение.
qv.exe — QuickView, он ещё мог звук на встроенный динамик выводить, без звуковой карты.
Дополню всю эту няшную ветку ответов с QV.
QuickView был продуктом воровства исходных кодов свободного Mplayer и смежным с ним проектов. Позже на них наехали юристы и они выложили исходный код связаный с этим. Вроде как в репозитории mplayer его можно найти.
Для железа класса Pentium MMX и ниже с видеокартами до мегабайтного объёма это было очень очень крутое решение. Помню как аналогичное железо в винде могло только в 8-битную палитру, а под ДОСос расцветало всеми 65536-ю оттенками.
В то же время можно на виндоус был порт ffmpeg под DirectShow — FFDShow, что аналогично позволял на K6-2 играть DivX. Ну и вообще mplayer был под виндоус и линукс более чем рабочий и умел делать всё то же и так же быстро.
Возможно, ровно в той же мере, как MPlayer юзал libavcodec, т.е. FFmpeg (на котором основано большинство свободных плееров), а там одному Фабрису Беллару известно, откуда росли ноги у его кодеков.
Но MPlayer требовал OS, а qv, к примеру, мог прошиваться прямо в BIOS.
ffmpeg-devel.ffmpeg.narkive.com/Bu2IbFdY/quickview
Тут начало эпопеи когда заприметили что некая компания портанула опенсорсные проекты и заявила что это их разработка.

А вот по поводу того, что QV мог работать без OS впервые слышу. Где такое можно увидеть? Было бы хорошо поподробней об этом.
На сайте автор упоминал о такой возможности, как и о возможности портирования под железо заказчика. Довольно давно вспомнился QV, зашёл на сайт, была такая информация.
Да не сильно ему помогала частота. Опять таки надо учесть, что стандарт еще зарождался и один фильм мог идти, а другой нет. Было много факторов. И вот как раз DOS давал максимальную скорость, а под windows была проблема рассинхрона звука и видео, которая за какое то время могла стать заметной, тогда я перепробовал все плееры. Кстати всех лучше дела стали обладать вдруг Windows XP. Но к чему все это у моей знакомой очень долго был слотовый Пень 2. У меня тогда уже был морган. Фильмы стали тяжелей, так вот у нее без проблем шли те фильмы, которые K6-500 не потянул бы. И да это был один из самых недолгожевущих у меня процессоров, но взял я его достаточно поздно в 2000 году.
Еще есть хорошо дополняющие картину графики тут. Хорошо видно, как почти достигнут паритет на десктопах, правда, непонятно, почему на серверном рынке абсолютное доминирование в 98.6%
На серверном рынке инерция куда больше. Во-первых, из-за крупных контрактов, которые планируются и подписываются сильно заранее, а во-вторых, из-за психологических моментов, когда управленцу проще закупить (обосновать бигбоссам) того, кто считается рыночным лидером, а не является текущим технологическим.
В-третьих, vendor-lock (неминуемый) при онлайн миграции виртуальных машин. На другой процессор «вот просто так» не перенести. В-четвертых (пока что очень специфично): различные аппаратные возможности. Для Facebook Intel поставляет их последнию серверную архитектуру (как бы не кастомную) с поддержкой bfloat16/float16 для ML (машинного обучения — источник: вопрос от Ian Cutress, AnandTech).
Согласен. Плюс, я еще забыл упомянуть вендор-локи по саппорту.
Мне субъективно кажется, что АМД в своё время не всё выжала с PhenomII. Шестиядерные вторые Феномы появились — и довольно быстро исчезли, а ведь они были хороши. Они и сейчас были бы относительно пригодны для бюджетно-геймерского ПК, если б не отсутствие новых инструкций.
Шестиядерные вторые Феномы появились — и довольно быстро исчезли, а ведь они были хороши

Они появились явно раньше своего времени. Найти в 2010-м на десктопе задачу, где был бы толк от шести ядер, это ещё надо постараться. Какое-нибудь кодирование видео, разве что. Т.е. весьма узкий спектр применения. А в массовом сегменте тогда намного бОльшую роль играла производительность на ядро, в чём ядро Thuban всё-таки уступало интеловскому Lynnfield.
Они и сейчас были бы относительно пригодны для бюджетно-геймерского ПК,

Ну это только если он бесплатно нашёлся в чулане. Покупать нет никакого смысла, на барахолках можно найти более дешёвые двухядерники, которые порвут Phenom II X6 в бюджетно-геймерских применениях.

Если покупать, то зионы с АлиЭкспресса. Вот уж где раздолье в мощности и в дешёвой регистровой памяти.

Ну ддр4 даже регистровая пока не дешевая, а брать не v3 зеоны я бы уже не стал. Да конечно есть 2678 с поддержкой ддр3, но для игр это оверкилл.
Я именно его и взял, с матерью X99-TF и 32 Гб дешёвой регистровой DDR3. Ещё пришло не всё, но подкинув недостающие железки, уже платформу запускал.
Если не секрет, почему x99-tf а не x99-d8? Я брал на распродаже два набора x99-d8 + e5-2678v3 + 4x8 DDR4. Получилось весьма выгодно (едва ли дороже варианта ddr3, зато без сомнительных вертушек в vrm и без лотереи с ddr3 на 2133). Комплекты приехали, рабочие, пока нравится.
Ну, TF как-то показалась самой поддерживаемой в плане доступности биосов, разбора возможных проблем и т.д. Про неё больше рассказывают блогеры, про неё солидные темы на Overclockers и т.д.
А DDR4 просто пока ещё существенно дороже серверной DDR3. Для меня это существенно.
Хм, понятно. В принципе там в семействе X99 от jingsha есть различные модели что ddr3, что промежуточные. Насколько я знаю почти все успешно шьются биосом от X99-TF.
Комплект (с учётом купонов и пошлины) обошелся, ну, допустим, в 18к. Допустим ~7к проц, ~7к мать, ~4-5k за 4 плашки красивой ddr4 2400MHz 8Gb. Я бы не сказал что это существенно дороже серверной ddr3 (4x8Gb ~4k). Которая в данном случае нужна отборная samsung чтоб завелась на 2133 с хорошими таймингами.
АМD DX4-120 был хорош, и собственно на этом все. 586ой уже был провалом… И надо было быть полным дуроном чтобы покупать процессоры АМД впоследствии. Со времен работы валяется три комплекта, несовместимые друг с другом несмотря на одинаковый сокет. Опертоны наверное хороши, но на али их нет по тем же ценам что и зионы, нет и матерей к ним. Полностью поддерживаю мем «Очень люблю фирму АМД, ведь только благодаря ей могу покупать процессоры Интел так дешево». Выход 10 серии мем только поддерживает. Тем не менее, прогресс АМД в то время как Интел уже много лет «не тиком, ни таком» не может не радовать. Встали бы уже что ли на вершину прогресса, принеся на десктопы ECC DDR5 + PCI-E G5. Печалит затык в области высокопроизводительной 3D графики.
АМD DX4-120 был хорош, и собственно на этом все. 586ой уже был провалом…

Вот неправда ваша. 5х86 — отличный процессор как для своего времени. Да, не самый быстрый, но это то, что принято называть «народный процессор», удачный мейнстрим. К5 — да, совершенно бестолковый проц. К6, наоборот, весьма удачный по меркам 1997, только слишком долго жил на рынке. К7 — хороший конкурентоспособный камень. А упомянутый вами дурон, кстати, вообще был культовый процессор своего времени, разрывавший в хлам своих конкурентов. Чувак, который в те годы был в курсе ИТ-трендов, ничего плохого про дурики бы не сказал. Ну, кроме разве что возможности сколоть им кристалл, если руки кривые.
Вы даже не представляете сколько покоцаных кривыми руками дуронов я видел работая в СЦ. Грубо говоря, он тупил и юзер понимал — надо гнать. В разгоне он перегревался, надо менять термопасту. Потом кулер купить весом в килограмм. И в результате проц неминуемо страдал.
При всем этом, я видел только один неисправный проц интел. К6 потенциально был хорош, но матери под него были кривые (ну точнее, не было прямых, так как кривые были и под интел), его аналог MMX так никто только и не поддержал, а народ хотел мультимедию.
Дюроны ладно. Вот коцаные бартоны было реально жалко.
Причём интел как-то этот вопрос решал, голокристальные процессоры каким-то компаундом заливал вокруг.
Вы даже не представляете сколько покоцаных кривыми руками дуронов я видел работая в СЦ

Не, это понятно, но это не говорит о том, что процессор плохой. Работая в морге, тоже можно сделать вывод, что люди все какие-то синие и холодные. Но это просто выборка такая была. Во времена дуронов Интел и близко ничего в этом классе по производительности не могла предложить. Но да, могла предложить с хорошей металлической крышкой теплораспределителя.
АМD DX4-120 был хорош, и собственно на этом все. 586ой уже был провалом… И надо было быть полным дуроном чтобы покупать процессоры АМД впоследствии.
А как же величайшая шара всех времён и народов — Phenom FX-5000 aka Athlon X2 5000+?
UFO just landed and posted this here
Что то я помню у 775 Интела лаком покрывал, для лечения сокетной недостаточности… АМД не исключение, да, и чем дальше тем хуже.

Если али помойка, может вы поищите Опертоны в ДЦ? Гугл к примеру говорит о соотношении 1:5

DrPass знаете, если в морге стабильно на 50 негров лежит один белый, при том что на улице их навскидку поровну, я могу сделать обоснованный вывод о том, что с неграми что то не так…
если в морге стабильно на 50 негров лежит один белый, при том что на улице их навскидку поровну, я могу сделать обоснованный вывод о том, что с неграми что то не так…

Я думаю, негров всё-таки стоит осмотреть. Если у них смерть не от сердечной недостаточности, а от того, что кристалл череп сколот пробит тупым тяжелым предметом, то проблема явно не в неграх.
Как сказать. Если негры в 50 раз чаще сами нарываются, то почему проблема не в неграх?
Наиболее значительным достижением его инженеров стал RDNA — сильно переработанный GCN. Изменения, внесённые в структуру кэша, а также улучшения размеров и группировки вычислительных блоков, приблизили архитектуру к использованию в играх.
T.e GCN не позволял играть в игры чтоли? А в майнинге RX 480/580 даже был лучшим.

Насчёт ближайшего будущего, потенциал APU только начинает раскрываться: не надо будет данные для GPU гнать по PCIe (ещё DDR5 и техпроцесс 5нм на подходе). И Intel вроде схоже думают, они переманили архитектора из Radeon Graphics Раджа Кодури, делать Intel Xe.
Насчёт ближайшего будущего, потенциал APU только начинает раскрываться:

Моё ИМХО — как раскроется, так и закроется. Производительные игровые и профессиональные решения, это много вычислительных ядер как на CPU, так и на GPU. И как ни крути, на одном кристалле они не усидят. Уже даже ядра CPU на одном кристалле не помещаются. Поэтому потенциал APU так и останется «плюс десять дополнительных процентов для интегрированных решений»
На SoC некстгенов поместили же (~ Ryzen 7 3700X + RX5500/5700).

Да ну, это же будет печка с TDP от 250W. Я смотрел спеки PS5, например. Там нигде не нашёл упоминаний, что в ней SoC, а не дискретный проц и дискретное видео.
На самом деле не печка: новые APU Ryzen 7 4750G при TDP в 65вт имеют производительность сравнимую с Ryzen 7 3800X(105вт), но при этом еще и включают довольно производительное видео ядро Vega 8. Конечно это не RX5500/5700, но думаю при определенной компоновке чипов вполне реально впихнуть что-то близкое в 150вт.
Хрен его знает, что там они впихнули в эту зверушку. Может, я действительно ошибаюсь. Понятное дело, гадание по фото — дело такое, но «на глаз» размер кристалла, который он держит в руках, где-то 300 кв.мм., как мне кажется. Кристалл RX5700 — это 212 кв.мм., Ryzen 3700X — 199 кв.мм., но это два кристалла, один из которых 12 nm, так что не исключено, что это удалось поместить и в меньшую площадь. Хотя все равно остаются вопросы, какой этой штуке нужен теплоотвод, с учётом того, что только ядра RX5700 — это 180W, и какой выход годных у таких крупных кристаллов.
Насчет Кодури: мнения (слухи) с мест о нем разнятся, не как специалиста, а как личности и менеджера — в смысле: очень много скептицизма по его поводу.
Не стоит слушать маркетинг, а дождаться того, что на самом деле из себя будет представлять Xe.
О, как. Я в своем высказывании опирался на datacenter/настольный сегмент, где они двигали основную часть маркетинга.
Если об этом результате: пока что одна только площадь кристалла кажется намного больше таковой у 4800U, см. фото от 4800U: www.purepc.pl/procesory/amd_ryzen_7_4800u_z_rekordowym_wynikiem_w_nowym_tescie
Можно было бы сравнить размеры, опираясь на размер напечатанного треугольника на текстолите у Intel, но мне, честно, лень так глубоко копать. Ещё увидим и размер и производительность архитектуры при равных частотах.
Так уж получилось, что «мои» компьютеры все были на AMD: начиная с родительского K5-133 (по принципу «зачем переплачивать?»), затем уже собственнокупленный в 2006 Athlon 64 x2 (а тут вообще аналоги от Intel были только объявлены, кажется, и в любом случае совсем за другие цены), и заканчивая пока на действующем FX-8350 из 2014 года, который и сейчас прекрасно позволяет работать с несколькими виртуалками, докерами и прочая прочая. Сильно подозреваю, что следующим будет какой-нибудь Ryzen, причем сам FX-8350 еще для моих задач не устарел, а вот периферию апгрейдить уже имеет смысл.
А у меня наоборот, на Intel. Началось с Pentium 4 (тогда я в железе не разбиралсь совсем), затем Core 2 Quad (который уже уделывал продукцию конкурента, если не изменяет память), затем инженерные семплы: i7-6700 (первое поколение Ryzen на тот момент ещё не вышло), i9-9900 (а вот тут роль сыграла цена, и не в пользу AMD).
i9-9900 (а вот тут роль сыграла цена, и не в пользу AMD).
Точно цена? Искали подороже?
Данный процессор популярен для топовых игровых сборок, где цена как раз значения и не имеет. А в многопоточных задачах он умудряется сливать дешевому 65-ваттному 3700X. Стоит ли говорить о заоблачном преимуществе 3900X, с которым 9900K как раз и конкурировал по цене.
«Что вы думаете об AMD, о её взлётах и падениях — был ли у вас чип K6, или, может быть, Athlon? Какая видеокарта Radeon вам больше всего нравится? Какой процессор Zen впечатлил сильнее всего?»

сделайте себе бота, пусть он вам и флудит бесмысленными ответами на бессмысленные вопросы.
В то время, когда у моих друзей были интела на 300-333 мегагерца, я собрал себе комп с дюроном на 700 мегагерц. Ещё и умудрился собрать этот комп на «русской» материнке формоза.
Комп отработал без гвоздей лет 10, потом был кому-то подарен.
Мой первый ноутбук MSI S271 был первым ноутбуком на двухъядерном 64 разрядном процессоре, да на AMD. Turion 64 X2.
Для прикола, докинул оперативки, поставил семёрку и ноут работает вообще без тормозов. Даже браузер тянет. Ноутбуку, извините, 14 лет!

"Даже браузер тянет"


Мда… Раньше мерялись, какие игры тянет комп. А теперь "даже браузер тянет".

Так сквозное шифрование же — или готовьте актуальные наборы команд, или готовьтесь к стайерскому спринту.
UFO just landed and posted this here
Возможно не основная, конечно не единственная, но заставить сейчас слабый процессор с маленьким кэшем, узкой шиной и низкой частотой, без аппаратной поддержки шифрования, всё это богатство расшифровывать жестоко. А ему ещё ОС содержать.
UFO just landed and posted this here

AES быстрый только с AES-NI инструкциями, а их в старых процах не было.
ChaCha20 быстрый с sse. Интересно, настольные браузеры умеют его форсить, если aes-ni отсутствует?

UFO just landed and posted this here

Алгоритм простой. И железячная реалтзация действительно очень быстрая.


Вот только без специализированных aes-ni инструкций, у процов нет удобных способов реализовать этот алгоритм. И все даже супер-пупер оптимизированные варианты оказываются жутко медленными. Именно по-этому RC4 так долго самым используемым (пока его не взломали). Вот он простой и довольно быстрый.


Погугли:


  • сравнение производительности с aes-ni и без него,
  • сравнение скорости с ChaCha20-Poly1305 с AES-GCM (AES-CTR-GCM) на новых и старых процах,
  • почему Google стал продвигать ChaCha20-Poly1305 во времена, когда ARM на мобилках еще не имели aes-ni подобных инструкций (да и на десктопе они только появились)
  • почему CloudFlare тоже подсуетилась, и сделала быструю реализацию ChaCha20-Poly1305 для Go. (А до этого оптимизировала AES-GCM под aes-ni + clmul).
UFO just landed and posted this here

Твой не самый скоростной процессор во несколько раз быстрее старых процессоров. IPC намного выше.
Старт шифровки/расшифровки дорогой, потому шифрование небольших чанков (а в TLS максимальный размер санках вроде 16k) будет ещё раза в два-три медленнее. (VeraCrypt скорость меряет на потоках, или на 4K страницах?)

Твой не самый скоростной процессор во несколько раз быстрее старых процессоров. IPC намного выше.

Ну а запас по быстродействию для данной задачи раз этак в двести. Даже процессора 20-летней давности вполне хватит, чтобы шифровать/дешифровать поток данных с веба «прозрачно», чтобы пользователь не обратил внимание на задержки.
UFO just landed and posted this here

На i7u 8665 Старкрафт 2 работает без проблем, в 2560х… А вот Gmail и т.п. в лёгкую подтормаживает :)

Это же прекрасно, когда Старкрафт 2 без тормозов на встройеке а Gmail тормозит как не знаю что :)

Сейчас работаем на серверах с двух сокетными AMD EPYC 7002, это реальная молотилка. У Интела нет аналога по производительности. И есть подозрения, что у Интела нечем ответить на это в ближайшие полгода-год.

Очень иронично, что для иллюстрации когда в статье описывается период истории с К7 использован бокс с К8 и далее чип К8. Это такая небрежность или специально?
И вообще сколько дифирамбов в столь малых абзацах к К7! А ведь сколько геммороя принёс этот процессор тем, кто купился на его приобретение в то время! И дутые мегагерцы ведь пошли от АМД тогда. И ненадёжные материнские платы. Они грелись вдвое сильней аналогичных Пентиумов 3! Проблемы большей частью ушли к моменту, когда некогда топ сегмента процессоры стали драться за место под солнцем с младшими селеронами от конкурента.
А ничего, что дутые мегагерцы были как раз у интела с п4, а к7 был быстрее и п3, и п4 при равной частоте? п4 грелся опять же не меньше к7 при равной производительности.

По поводу проблем с материнками — их если что не АМД делает, а те же фирмы, что и для интел, те же инженеры. Если на материнке решили сэкономить — то это не проблема к7, а проблема сборщика/владельца, под интел тоже тогда хлама хватало.

А про время я так понимаю выход сокета 478? Что старшие п3 с селеронами бились за место под солнцем?
Ок. Да, с выходом P4 ситуация изменилась, но начало это было положено именно АМД, когда они выпустили свои K7 и начали конкурировать с Интел за первенство. Именно тогда они открыли для себя, что чипы кэш-памяти не успевают за маркетологами, и начали пихать низкоскоростные чипы памяти в топ решения. В итоге на гигагерцевой модели вроде как стояли чипы на 333Мгц. И это на фоне того, что тогда Интел выпускала все свои процессоры с синхронной с частотой процессора и кэш-памяти. Думаю тут не стоит говорить как это влияет на общую производительность системы, когда главное ядро системы того времени вынуждено общаться с внешним миром через очень медленные интерфейсы? Дальнейшая ситуация с P4 была иного рода и не было таких грешков у интел. Да, производительность на Мгц была у К7 и P3 выше чем у P4, но не на много, и далеко не всегда. В Большинстве задач того времени P4 1.7Ггц на раннем ядре на ура конкурировал с Athlon 1.4Ггц, к слову долгое время самое производительное решение АМД, и часто таки обгонял его. А появившийся следом 2.0Ггц процессор практически полностью всюду превосходил самый быстрый процессор от АМД имея при этом такое же ТДП и самое главное — с течением времени разрыв только усугублялся. АМД тогда быстро было вытеснено на конкурирование в среднем и низком ценовом сегменте обычных ПК. И крайне неверно говорить что тогда P4 грелись «не меньше», в том и дело, что они грелись меньше. А если и больше — то предлагали за это больше.

По поводу материнок и типо «не АМД ж делало, не их это проблема». Без материнской платы и всего обвеса — процессор является просто бесполезной микросхемкой, годной только как брелок. С момента появления процессора до появления адекватных и почти без проблемных материнских плат прошло 3 года! Аж до появления КТ400А и nForce2 использование Атлонов могло вызывать разной степени гемморой.

Когда всё это было преодолено — Атлон уже не был конкурентом для Northwood пентиумов с гипертредингом, 800Мгц шиной и поддержкой памяти DDR. Тогда приходилось конкурировать за место под столом уже с Селеронами, младшими моделями пеньков и разным устаревшим железом.

А ведь сейчас на том Атлоне хер что запустишь, а на древнющем Pentium4 вполне современный софт работает. SSE2 показало, что очень хорошая и нужная хрень. А ведь когда его выкатили — все хаяли и кричали «никто это не будет юзать, не будет поддержки, производительность с SSE2 дутая хрень».
В итоге на гигагерцевой модели вроде как стояли чипы на 333Мгц. И это на фоне того, что тогда Интел выпускала все свои процессоры с синхронной с частотой процессора и кэш-памяти

У актуального на тот момент п3 было ровно так же, после перехода на сокеты — пропало и там и там.
В Большинстве задач того времени P4 1.7Ггц на раннем ядре на ура конкурировал с Athlon 1.4Ггц
Далеко не в большинстве, плюс у п4 была ужасно горячая и дорогая платформа.

К моменту 2.0 уже вышело новое ядро, опять же. В общем, реально разница была в процах за 300-400$+, где перелпата 100-200 баксов уже особой разницы не приносила, плюс в куче задач амд был быстрее в абсолюте (игры, математика).

По поводу материнок — у интела тоже было всё не так гладко, в целом планка была сильно ниже. Хватало веселья везде.

п4 с 800 шиной был хорош, но даже самый дешевый стоил сильно дороже младшего камня на старшем ядре у АМД, плюс мать на нФорсе 2 400 стоила вдвое дешевле 865-875. Да, оно было иногда чуть медленней (а иногда быстрее), но цена была просто несопоставима.

По поводу ссе2 — так оно и есть, пока этот хлам был ещё хоть как-то актуален — оно работало и без него, сейчас наличие его не даёт п4 каких-то плюсов — он разве что как музейный экспонат представляет ценность, кор2 на помойке можно найти при желании.
Продолжим наш весёлый бокс по переписке:
У актуального на тот момент п3 было ровно так же, после перехода на сокеты — пропало и там и там.

После того как интел на дев форуме в 2000 продемонстрировало рабочий прототип Willamete на частоте 1.5Ггц АМД 6 Марта 2000 анонсировало начало продаж 1Ггц модели Атлона. У него даже было собственное имя «Magnolia». И таки да, L2 кэш в 512Кб работал на частоте 333Мгц. В то же время у Интел был флагманом Pentium 3 800Mhz с кэшем 256Кб работающем на полной частоте. Свою 1Ггц модель они анонсировали через два дня после АМД. С нормальным кэшем.

Про остальное — лучше подыми тесты того времени. АМД если бы могло тягаться на равных с P4 — не начала бы опускать цены на свои продукты. Они бы держали их на уровне интеловских. Кое где в специфических вещах было приемущество, но в подавляющем большинстве задач — АМД глотало пыль. Причём отрыв был порой очень большим.
Глянул — и вправду 1000 был на слоте а, я только сокетный живьём видел в те времена ещё. Вышел он, опять же, на месяц позже слотового, одновременно с п3-1100, который потом отозвали, т.к. он частоты не держал. Время было весёлое, в общем)

Я помню тесты того времени — пока есть оптимизация — п4 впереди (где-то больше, где-то меньше), нет оптимизации или ветвление плохо предсказывается — к7 впереди. При равном рейтинге — плюс-минус паритет, кроме откровенно завышенного рейтинга у 3200+, вот только тот самый п4 3.2 покупал мало кто, а в среднем и нижнем сегменте всё было кроме как «в одну калитку» не назовёшь. Выход прескотта сделал всё ещё веселее — процессор вышел очень и очень горячим, в то время как к8 был холоднее к7.

Я это к чему — п4 смотрелся очень хорошо ровно до тех пор, пока не начинаешь считать, что можно впихнуть в бюджет условного килобакса. И интересным он становился при бюджете сильно больше этого самого килобакса…

Вот только Википедия с вами не вполне согласна:


https://ru.m.wikipedia.org/wiki/Athlon


В процессорах, основанных на ядрах Argon, Pluto и Orion, кэш второго уровня работает на частоте от трети до половины частоты ядра, а в процессорах на ядре Thunderbird — на частоте ядра.

Конечно 6 марта 2000 года был анонсирован Атлон на старом ядре с медленным L2 кэшем, но уже 28 августа был анонсирован гигагерцовый Thunderbird.


Кроме того, даже у старых ядер был массивный 128kB кэш L1, работавший на частоте процессора. Пеньки в то время могли похвастаться только 32 kB L1. К тому же, у Атлона кэш был не инклюзивный: емкость L1 и L2 суммировалась, а не перекрывалась.


BTW дюроны были такими популярными потому, что у них L1 кэг был таким же большим.

Кстати вот кто-нибудь может мне объяснить почему Ryzen 7 2700X и в играх и почти по всем тестам даже немножко обгоняет i7 9700K, а стоит прямо сейчас в 2 раза дешевле?
Кстати вот кто-нибудь может мне объяснить почему Ryzen 7 2700X и в играх и почти по всем тестам даже немножко обгоняет i7 9700K, а стоит прямо сейчас в 2 раза дешевле?


image
С али R7 2700 можно заказать за 140-170$.
Не самый заслуживающий доверия сайт с очевидным bias в сторону Intel. Ссылки на него на многих досках Reddit, типа hardware, удаляются автоматически.
UserBenchmark has been banned from an important subreddit on the hugely popular social news site Reddit. Discussion about the controversial benchmark and links to the UserBenchmark site are not going to be allowed in the r/hardware subreddit anymore. The moderators have selected numerous reasons for the ban, which seems to have been overwhelmingly positively received by members.

The benchmark has faced considerable criticism in the past and has responded in a less than ideal manner to accusations of bias and favoritism toward Intel parts. We recently published an article about the peculiar UserBenchmark scoring for an Intel Core i5-10600 in comparison to an AMD Ryzen 5 3600 where the Comet Lake CPU was awarded a higher bench percentage even though its total test score was lower than that of the Matisse processor. Such discrepancies have contributed to the argument against the benchmark's current scoring system.

Но в играх 2700Х, конечно, хуже чем 9700К.
Не самый заслуживающий доверия сайт с очевидным bias в сторону Intel.


Я составил с его помощью рейтинг производительности своих процессоров:

image

Средняя, цветная полоса — моя собственная оценка производительности по результатам работы (комфорту использования) систем с этими процессорами (веб и офис)
светло — зеленый: зона комфорта
ближе к темно-коричневому — все хуже и хуже.

Как видно, оценки UserBenchmark достаточно точно коррелируют с моими оценками.
Так в вашем списке только процессоры Intel, с которыми у владельцев данного сайта дела налажены хорошо (два бюджетных раритетных AMD роли не играют). С такой выборкой вы могли бы просто отсортировать процессоры по линейкам и году выпуска, чтобы получить тоже самое.

Вы бы почитали описание процессоров на их сайте и сразу бы поняли кто заказывает музыку. Как они оценивают диаметрально противоположно одни и те же решения обоих производителей.
Их подход можно было бы оправдать, если они четко формулировали, что сравнивают исключительно игровую производительность, но они выстраивают свои тексты таким образом, что на основе игровой производительности делается вывод о производительности в целом.

Среди профильного сообщества они они давно получили черную метку. Думаете просто так?
Так в вашем списке только процессоры Intel


«Маємо те, що маємо» (с)

(два бюджетных раритетных AMD роли не играют)


Играют — при планировании закупки нескольких комьютеров AMD Athlon 5350 сравнивался с конкурентом в лице Celeron Quad-Core J1900.
Для этого было куплено две материнки с разными процессорами.
При этом была выявлена практически одинаковая производительность и выбор (как видно из таблицы) был сделан в пользу более дешевого интегрированного варианта.
А данные с UserBenchmark были получены совсем недавно — во время карантина и они очень точно совпали с теми, что были выявлены эмпирическим путем.

но они выстраивают свои тексты таким образом, что на основе игровой производительности делается вывод о производительности в целом.


Игровая и общая производительность тесно связаны (в тех случаях, когда речь идет о производительности процессора, а не видео) — современный веб и офисные программы ничуть не хуже нагружают комп, чем старые добрые игры :)

Среди профильного сообщества они они давно получили черную метку. Думаете просто так?


Я с профильными сообществами имею дело, как минимум, с 1995 года — и в курсе, что коллективное мнение может быть как и справедливым, так и нет :)
Играют — при планировании закупки нескольких комьютеров AMD Athlon 5350 сравнивался с конкурентом в лице Celeron Quad-Core J1900.
Причем тут это? Выборка нерепрезентативна.
Игровая и общая производительность тесно связаны (в тех случаях, когда речь идет о производительности процессора, а не видео) — современный веб и офисные программы ничуть не хуже нагружают комп, чем старые добрые игры :)

Так это разные нагрузки. К примеру 9900K vs 3700X имеют аналогичное количество ядер и потоков, но в играх быстрее первый, а в тайловом рендеринге и компиляции кода — второй, не смотря на его 65 Вт TDP.

Я с профильными сообществами имею дело, как минимум, с 1995 года — и в курсе, что коллективное мнение может быть как и справедливым, так и нет :)
Так вы можете и к «плоскоземельщикам» примкнуть. Я правильно понимаю, что тон данного текста вам на самом деле кажется беспристрастным? Вы случаем сами в этом UB не работаете? Или может к «ТехноКухне» имеете отношение? Уж больно странно всё это.
Причем тут это? Выборка нерепрезентативна


У вас есть другая информация? Поделитесь, пожалуйста

К примеру 9900K vs 3700X имеют аналогичное количество ядер и потоков, но в играх быстрее первый, а в тайловом рендеринге и компиляции кода — второй, не смотря на его 65 Вт TDP


У меня речь об общих и наиболее распространенных задачах — у вас об узкоспециальных.

Так вы можете и к «плоскоземельщикам» примкнуть.


Эта тема, кстати, была обсосана до костей еще в конце 50х, после первых запусков спутников в космос. Сейчас это просто прикол, вроде пересказа старых анекдотов на новый лад.

Вы случаем сами в этом UB не работаете? Или может к «ТехноКухне» имеете отношение?


О, а вот тут вы сами ударились в теорию заговора :)

У меня речь об общих и наиболее распространенных задачах — у вас об узкоспециальных.

Хм. А какая у мощного процессора есть общая и распространённая задача, где кому-то будет интересна его производительность, ну кроме игрушек? Вы в компьютерном клубе работаете, что ли?
Потому как все остальные задачи, загружающие процессор по-максимуму, как раз узкоспециальные. Рендеринг, графика, расчёты, компиляция, и т.д. И, к слову, как раз там, в подавляющем большинстве профессиональных применений, современная числодробилка AMD будет на высоте.
UFO just landed and posted this here
Угу, 88вт лимит. Однако тепла он выделяет ощутимо меньше, чем а10-7850к с ошейником на 65вт, к примеру, или 6700.
Термин, конечно, в первую очередь маркетинговый, но имеющий перед собой основания. TDP — это не энергопотребление, это целевой теплопакет для планирования системы охлаждения. Это значит, что для работы 3700X в стоке достаточно будет системы охлаждения, рассеивающей 65 Вт тепла, чтобы не происходил тротлинг.

Но время буста по частотам и общая производительность при этом могут быть не оптимальны. При лучшем охлаждении продолжительность буста будет дольше и его частоты могут быть выше.

В случае с топовыми процессорами Intel TDP нарушается более заметно из-за того, что в BIOS материнских плат вообще отключен лимит буста либо по-умолчанию, либо уже самим пользователем. А в таком случае ни о каких 95 Вт не может быть и речи.

В случае с AMD технология PBO сама по себе не даёт существенного прироста относительно стоковых значений, но их процессоры бустят исходя из имеющегося в данный момент охлаждения. Чем ниже температура — тем выше частота, соответственно при хорошем охлаждении процессора AMD у него автоматически происходит выход за рамки исходного теплопакета. Но если поставить охлаждение, рассчитанное на 65 Вт, то он просто будет работать согласно своему теплопакету.

В любом случае, что в стоке, что в разгоне 3700X потребляет намного меньше энергии чем 9900K, опережая последнего в рендеринге и компиляции, и выдавая чуть меньше FPS в играх, если полностью отсутствует упор в GPU.
Не совсем так — TDP — это отводимая мощность при заданной дельте температур, по факту — теплопроводность системы охлаждения.

Ну и у брендовых компов всё нормально с настройками TDP, это в десктопе читерство на читерстве, особенно асус этим страдает
Это ложь. Смотрите тесты в разгоне, например от канала Techno Kitchen
Тогда переформулируем :) Если даже i7 быстрее на 20-25 процентов, то почему он стоит в 2 раза дороже?
Цены в ситилинке сегодня 13 590 против 30 890
почему он стоит в 2 раза дороже?

Потому что может. Если бы райзен стоил на 20% дешевле сравнимого камня от Интел то и хайпа вокруг райзена бы не было. Основной козырь АМД — цена(в том числе и цена материнской платы и потенциальная возможность апдейта) и скорее всего они ее подымут и станут клепать новые сокеты когда захватят себе достаточную рыночную долю и Интел перейдет в положение догоняющего.

У Интела пока что самый быстрый однопоток. Сейчас разница с zen2 не особо значительная, а когда был zen/zen+ очень даже.

Тогда переформулируем :) Если даже i7 быстрее на 20-25 процентов, то почему он стоит в 2 раза дороже?
Уже писали. Рынок очень медленно реагирует. Проблемы с AMD есть, как с самим процессорами (errata, power management, etc) так и с уже готовыми система (ноутбуки, рабочие станции). Реальное преимущество было показано только в последнем поколении, поскольку тут amd уже на равных борется во всех сегментах. Но это очень короткий промежуток времени, чтобы рынок успел адаптироватья.
Последние проценты — самые дорогие. Сравните, например, 2080S и 2080TI. ~50% цены за ~12% производительности.
Неплохое замечание. У intel вроде даже есть камни, которые продают с аукциона без всяких обязательств и гарантий, но которые работают на больших частотах чем стоковые.

В играх i7 9700K существенно производительнее. Его 8 ядер без HT на данный момент ещё достаточно для любой игры, а высокая частота и низкие задержки доступа к памяти играм важнее, чем IPC и больший кэш.
Сейчас брать 9700K неперспективно, но тем не менее в игровых конфигурациях он будет показывать себя лучше чем 2700X.
В рабочих задачах, использующих многопоточность, конечно 2700X уже без проблем расправляется с 9700K. Но на рынке есть и более новые крутые процессоры Ryzen 3700X/3800X/3900X/3950X, покупка которых более целесообразна для работы, а для игр даже самый популярный Ryzen 5 3600 будет лучше, чем Ryzen 7 2700X. Потому цена 2700X так и упала, иначе у него не было бы своей ниши на рынке, зажат со всех сторон другими процессорами самой AMD.

В свое время собрал ХТ-шку на АМД 8088 в пластике. ПО сравнению с Интеловским в керамике, легко работал и на 12 МГц и не грелся.
"Advanced Micro Devices, Inc."? Попадался ноутбук на 8088, которому ну очень плохо давалась математика. Купил на рынке 8087 рублей за 5, воткнул — форсаж! Но минут через 5 выткнул — видимо процессор как раз работал на повышенной частоте, а сопроцессор крепко перегревался.
Насколько я помню, HMOS-овые 8087 были всегда очень горячими.
Sign up to leave a comment.

Articles