Как стать автором
Обновить

Комментарии 84

Чтобы предотвратить такой мрачный сценарий, уже через 10 лет производители будут вынуждены резко замедлить разработку новых технологических процессов и снизить финансирование, что ещё больше замедлит прогресс в универсальных CPU, считают исследователи.

Имхо, всё не так мрачно, свет клином не сошёлся на CPU, уже давно народ серьезно развивает GPU и FPGA. Гляньте на современные SoC, которые ставят в те же телефоны и прочее, сколько там всего на одном кристалле. Гляньте на системы с HBM. Я к тому, что и без прогресса в CPU можно поставлять увеличенную производительность смартфонов и компов, а как следствие их и дальше будут разметать как горячие пирожки и финансировать новый цикл технологических инноваций.
По мнению учёных Нейла Томпсона (MIT) и Свеньи Спануты (ETH Zurich), сейчас подобное происходит с универсальными компьютерами, см. статью «The Decline of Computers as a General Purpose Technology» (Communications of the ACM, March 2021, Vol. 64 No. 3, Pages 64-72, doi: 10.1145/3430936).

К слову, статья классная, но она не 2021, а 2018 года, с тех пор многое уже изменилось.

Именно о том и речь в статье: задачам, для которых разработан специализированный ускоритель, это плюс. Задачам, которые достаточно похожи на первые, чтобы прикинуться ими и ускорить значительный процент своих алгоритмов на том же спец. железе — тоже плюс. А всем остальным-то минус.
А всем остальным-то минус.

Вот с этим я и не согласен. Во-первых, специализированный ускоритель может быть обычным IP-ядрышком на кристалле с CPU (т.е. не будет стоить 80млн в разработке, а будет стоить 50К за лицензию разработчику процессора). Во-вторых, у нас тут уже времена тёмного кремния, так что такие ядрышки — это то, что доктор прописал, а большие процессорные ядра на их месте всё равно пришлось бы гасить и извращаться с энергопотреблением. В-третьих, ядрышки могут быть не фиксированными, а представлять собой логику ПЛИС (заметили, что два крупнейших процессорных вендора Intel и AMD купили двух крупнейших производителей FPGA?), в этом случае будет иметься возможность программировать в широких пределах ускорители под ваши редкие, кастомные задачи узкого профиля. В-четвёртых, у нас тут новые варианты оперативной памяти уже давно есть (HBM) с пропускной способностью в сотни гигабайт/с, которые процессоры внезапно никак не используют. В-пятых, про финансирование цикла инноваций, ажиотаж по видеокартам заметили? Это я к тому, что финансирование подтягивается, откуда не ждали.
Резюмируя, по-моему страхи надуманные, системы, в которых CPU обеспечивал всю производительность, уходят в прошлое, но их есть чем заменить, так что туда им и дорога, это развитие.
НЛО прилетело и опубликовало эту надпись здесь
скорее упор в Архитектуру ПО — мы тащим за собой слой совместимости «размером с Континент»только потому что реально где-то в 2-5% случаев оно должно запустится…
Тоже самое и по Архитектуре процессоров — пора Выходить за рамки и Переходить к чему-то похожему на Экзоядра(как основа взаимодействия) + IP блоки на базе ПЛИС
про HBM/HMC память — в текущей архитектуре её даже не внедрить, тк Архитектура сильно ограничена и абсолютно не рассчитана на работу с такой памятью.
НЛО прилетело и опубликовало эту надпись здесь
Там время на реконфигурацию будет больше, чем квант времени, выделяемый отдельному потоку.

Да, динамическая реконфигурация пока больная тема, хотя Xilinx роет в этом направлении (в том же Versal-e обещали гораздо живее всё). Но эти вещи можно делать ведь и в статике или в медленной динамике, т.е. продается унифицированное железо (SoC CPU+FPGA), а пользователь во время установки ОС или установки дровишек уже кастомизирует под свои цели, выбирает какие ядрышки поставить, какие убрать и т.д. + имеет возможность написать свои ядрышки и кастомизировать уж совсем под себя.
Вот не уверен что ПЛИС что-то даст на десктопе, где куча разных задач. Там время на реконфигурацию будет больше, чем квант времени, выделяемый отдельному потоку.

тут скорее будет как ускорители для задачи — при загрузке OS или приложения Генерируется набор ускорителей которые ему нужны… те по сути совмещение ядра общего назначения и ПЛИС которая разошьет узкие места о полной реконфигурации речи еще долго не будеn…
А так сильно ли они нужны? ИМХО, чаще упор идёт в задержки, и они относительно производительности ЦПУ только растут.

Если не ограничиваться CPU, то нужны очень. В CPU есть бутылочное горлышко кэша-оперативы, это его существенное ограничение. Для CPU в нынешней форме HBM и правда не пришей кобыле хвост. Но прочие молотилки, типа GPU, ПЛИС и др., не ограничены кэшем, и возможность поставки данных со скоростями сотни гигабайт в секунду позволяет накормить их вычислительные аппетиты. В результате, для распараллеливаемых задач производительность будет гораздо лучше чем у CPU, ещё и кушать будет меньше электричества. Представьте, что у вас на кристалле есть десятки, если не сотни портов оперативной памяти, у каждого из которых может быть свой мелкий кэш, и тысячи вычислителей, которые взаимодействуют с этими портами.
НЛО прилетело и опубликовало эту надпись здесь
Не совсем минус, особенно если ускорители будут удовлетворять 80% потребностей пользователей, а остальные 20% можно или заменить другим вариантом, с поддержкой ускорения, или потерпеть. Пример — ноутбучный процессор Эппла, который, благодаря своим ускорителям, по соотношению производительности на ватт кладёт на лопатки все остальные процессоры.
Пример — ноутбучный процессор Эппла, который, благодаря своим ускорителям, по соотношению производительности на ватт кладёт на лопатки все остальные процессоры.

Благодаря каким именно ускорителям и где кладёт?
Думаю что VR вполне может взбодрить рынок ПК. Но для VR как минимум нужны массовые видеокарты способные тянуть 8K дисплеи и массовые же дисплеи 8k которые можно «одеть на голову».
Но «видеокарты» — это и есть те самые специализированные процессоры, о которых статья.
Кроме того VR — довольно узкая ниша, которой самой бы неплохо взбодриться, иначе она уедет к 3D телевизорам и блюреям.

Окулус вполне так взбодрил эту нишу, теперь нужен прорыв из этой ниши в AR, ибо беда VR в долгом переключении из VR в реальность и обратно — найти достаточно места, надеть, настроить шлем, потыкаться по меню, запуская игру...


Сама VR реальность уже вполне на уровне лучших игр из мира ПК

Мне кажется 5 минут на подготовку это не то что останавливает. Останавливает в основном цена
Сейчас за 400 долларов вы легко получаете готовую к игре VR консоль, которая больше ничего не требует.
Давно не цена проблема в VR.
за 400 вы получаете нечто, что вроде бы как работает, но тормозит и тошнит.

а за 2000 долларов вы получаете нормальную готовую к игре VR консоль, в которой не тошнит 95%

Поэтому когда достаточно качественного уровня ВР будет стоить хотя бы 1000, а лучше 800$ — тогда и поговорим. Вполне возможно что это произойдет совсем скоро, но для массового перехода, нужно именно снижение цены еще раза в два-три.
Quest 2 один из лучших шлемов на рынке. Он в среднем не хуже Индекса, а по некоторым параметрам лучше. Что не удивительно, учитывая что между датами их релиза больше года прошло.
Автономные игры работают на нём прекрасно, ни о какой тошниловке речь не может идти.
И за 10 баксов он превращается в полноценный PC шлем.
Собственно поэтому он и взорвал VR рынок.
НЛО прилетело и опубликовало эту надпись здесь
Я с вами полностью согласен(хотя и не так пессимистичен).
Но речь была о доступности.
НЛО прилетело и опубликовало эту надпись здесь
Речь была про доступность по цене:
Останавливает в основном цена
Останавливает цена на нормальное устройство.
Я например легко могу себе позволить понакупать говношлемов на всю семью. Но не хочу покупать говношлемы.
А купить несколько Valve Pro — пока что кажется неразумной тратой денег.
А вот если бы они стоили по 300-400, то это не только было бы дешевле, но еще и их могло бы купить гораздо больше людей. А больше людей — больше рынок софта, и по кругу.
VR путем рендера по 4К на глаз — тупиковый путь. Нужен адаптивный рендер и трекинг, в ямке 4К на перифирии 720p но 1600 FPS. Нужен электромагнитный контроллер вестибулярного аппарата, иначе все это VR будет буквально головная боль и тошнота.
НЛО прилетело и опубликовало эту надпись здесь
Потому что если делать во все широкое поле зрения с учетом движения глаза, то будет видна пиксельная сетка, то есть эффективное разрешение будет хуже FHD. А если не все поле покрывать, то будет неполное погружение, не будет работать периферия взгляда.
Схему с переменным разрешением уже потихоньку используют

Подключаемые к компьютеру гарнитуры VR-3 и XR-3 от Varjo способны формировать очень чёткую картинку. В гарнитурах используется по два дисплея для каждого глаза. Разработчики разместили небольшой дисплей с разрешением 1920 × 1080 пикселей в центре поля зрения, а также дополнительный более крупный дисплей с разрешением 2880 × 2720 пикселей в периферийной области.


Такой подход позволяет обеспечить чрезвычайно чёткое изображение, когда пользователь смотрит перед собой, и более стандартное для периферийного зрения. В гарнитурах Varjo прошлого поколения использовался аналогичный подход, но были задействованы дисплеи с более низким разрешением. Обновлённая система дисплеев Bionic Display обеспечивает угол обзора по горизонтали в 115°, что значительно больше возможностей большинства потребительских гарнитур более низкого уровня. Обе представленные гарнитуры используют одинаковые дисплеи с частотой обновления 90 Гц.

(цена — вопрос отдельный)
А в более доступных железках — есть программная поддержка Fixed Foveated Rendering — именно что не рендерить в хайрез на периферии https://developer.oculus.com/documentation/unreal/unreal-ffr/

«В любом случае, программное обеспечение — это новая форма базовой грамотности современного человека. Если в стране или в компании низкий уровень грамотности, это невозможно компенсировать ничем другим. Всё теперь работает на софте.» — думаю, вывод не совсем верный, поскольку софт — это лишь инструмент по обработке данных (информации). Так что, возможно, «новая форма базовой грамотности» — это понимание, в чём отличие физических объектов от информации о них.

Надеюсь, это наконец заставит создателей операционных систем оптимизировать своё программное обеспечение. А то получается странность: вычислительные мощности растут экспоненциальной, а 5-летние компьютеры тормозят как 10 лет назад, так и сейчас.

Не всё так страшно, если мы возьмем типовые потребности, которые испытывает 90% пользователей компьютера — работа с текстами, несложной графикой, простые расчеты в таблицах, соцсети и видео с котиками — то неожиданно окажется, что для этих вещей вполне достаточно не то, что 5-летнего (уровня intel NUC\i5-4200u\8GB), а и 10-летнего компьютера за глаза хватит (уровня Intel Core i5-2450M\8GB), а то и почти 15-летнего (Core2Duo P8400\4GB).

На мой взгляд, современные топовые мощности требуются только для профессиональной работы, да для игр (но там мощности во все времена не хватало).

Я подразумеваю даже не прикладной софт, а хотя бы операционную систему. Как будет чувствовать себя этот компьютер, если поставить на него свежую Windows 10?

Не соглаушсь, 10-15 лет назад типовой офисный комп это была тормозящая железка на целероне за которой работать ну… не очень приятно, Сейчас офисная железка с 4 gb и каким нибудь pentium gold G4500 на ссд работает достаточно приятно чтобы это бы производительностью компьютера не раздражала.
Но если вы конечно пойдете купитие сейчас какой нибудь модный офисный ноутубк за 15000р т окак бы логично что там даже ssd не моможет и браузер будет тормозить в принципе сразу.
Ну и еще для сравнения в пользу операцоинных систем и железа — посмотрите смартфоны, как сейчас п оклику все открывается и приятно и его возможности раньше. Просто оптимизируют там где это нужно, а не везде.
Нормально будет. У меня ноутбук 2003 года вообще без ремонта на Win 7 вполне бодро работает. Дедушка ютуб смотрит, музыку слушает, пасьянс раскладывает, когда надо текст печатает. Какому ни будь офисному работнику больше и не надо.
Всё от задач.
НЛО прилетело и опубликовало эту надпись здесь
Так 1080p не заряжайте. 360 работает стабильно, тоже кстати ACER.
Просто как уже говорилось выше, для всего свои инструменты.
ВОт у меня есть старый смартфон FLy, он и при жизни то был полное г...., а сейчас на нем все лишние приложения затерты ADB, и телефон (очень маленький) используется как переносный WIFI роутер.
Девушка рада 360р ролики смотреть?

Дедушка. Ему в очках на 15 дюймовом мониторе, хоть 360 хоть 1080, вообще нет разницы.
Всё идёт от задач

НЛО прилетело и опубликовало эту надпись здесь
У дедушки Xiaomi Redmi Note 9PRO и телевизор 4K SMART QLED, он всё понимает. Просто у него ценности другие, удобство и стабильность важнее пафоса, в отсутствии практических выгод.
НЛО прилетело и опубликовало эту надпись здесь
У Вас ритм жизни другой, что для Вас тормозит, для него не «мельтишит» и позволяет следить за процессом. Да и что там может тормозить? Он больше двух выкладок не открывает, запускает максимум Winamp и пасьянс паук.
Когда то и МК-62 никого не смущал быстродействием. Ещё раз всё от задач.
НЛО прилетело и опубликовало эту надпись здесь

У меня ноут hp c core2duo. Брал в 2005 где-то. Петли уже сломались (метал), на "заплатки" посадил. Экран тускловатый стал. Однако, я туда воткнул ssd, памяти по максимуму, сколько поддерживает. И до сих пор норм работает. Отец всякие одноклассники смотрит. Win 7 стоит. На 8 винде шустрее даже работает, но она падает, из-за того что драйверов уже на неё нет, только на семерку. Сам на нем кодил до 13-го года, пока десктоп не собрал.

Вполне нормально. Все три примера, это живые компьютеры, которые используются в быту. И на всех стоит последний билд Win10. Последнему упомянутому, конечно, памяти уже начинает не хватать, но работать вполне можно.
Железу в этом году 15 лет, 14 лет использования.
Athlon x2 3600 (Windsor, 90нм), 2 x 2Gb DDR2, GeForce GTS 450, самсунговский HDD на 1.5 Tb, Windows 7.
Самое узкое горло тут — процессор, ну и медленный диск. С браузерами проблем нет вообще. С софтом тоже. Фотошоп нормально работает, идешки тем более. Для офисных задач такой «мощности» выше крыши.
Вообще я на нём даже Ведьмака 3 прошёл. Но тормозит сильно, пришлось даже фикс для процессора юзать. WOT без проблем, на разрешении… QHD.
С видео проблемы. В 30 фпс нормально идёт до 1080, в 60 начинает тормозить уже на 720. И это процессор. 10-летний i5-2520M без проблем пережёвывает 1440px/60f. Хотя о чём это я… 10 летний i5 через виртуализацию позволяет работать в макоси (Каталина).
Предлагаемая мощность домашних ПК очень сильно преувеличена. Даже для игровых конфигураций.
Вы уверены что 15-летний компьютер потянет котиков в 1080p60? Не говоря уже о 4к на большом экране
Насчет p60 и 4К не уверен, разве что за счет дискретной видеокарты, интеловская 4500HD точно не потянет, но мы точно говорим о 15-летнем компьютере с 4К монитором? :)

Да и FullHD тогда только начинали входить в бюджетный сегмент.
Могу подтвердить, что 10-летный Сэнди Бридж с ГТ540М плавно показывает демонстрашки 4К 60 FPS на FHD экране.
YMA, к сожалению, все-таки некомфортно. И это мягко говоря.
Говорю как пользователь девайса из 2010 года. i7-860, ОЗУ 8 ГГц, Win 7.
Не тормозят разве что Notepad, FAR, WinRAR и Office 2010.
Уже давно отказался от идеи обновлять Cubase (стоит 5), пакет от Adobe (стоит CS5).
Ладно, допустим, это специфичный софт.
Как и Visual Studio, но последний уже приходится регулярно обновлять, если хочешь последние плюшки языка, и с этим ничего не поделаешь. Не скажу, насколько каждый тормозит по сравнению с предыдущим.
Но интернеты… Это просто фейспалм.
Я иногда с тоской вспоминаю начало нового тысячелетия, когда IE vs Netscape Navigator (а особо прошаренные начали ставть Оперу), и не было вот это вашего вебдваноль с его соцсетями, б-гомерзким JS из каждой дырки и браузерами, которые только при запуске с пустой страницей жрут столько, сколько раньше не отнимали даже с несколькими рабочими вкладками. И все это тянули машинки на третьем пне.
Так что увы. И мой старенький конь мне регулярно об этом напоминает, когда я забываюсь в процессе серфинга, и два окна Vivaldi с примерно 15 вкладками могут заставить выбросить на экран системное окошко с требованием немедленно закрыть приложение, ибо недостаточно памяти. При этом в систрее из запущенных в фоне приложений лишь CIS.
И причем тут CPU? Добавить память по максимуму, заменить HDD на SSD — и все дела.
У меня куча старых компов, большинству проведена такая операция. Результат — фантастический. Даже Dual Core 1.7 вполне можно пользоваться для простых дел. Вообще, для интернетов 8Гб хватает вполне, достаточно заменить только HDD.
Я разве говорил, что CPU при чем? Речь шла о том, что комп 10-летней давности c ОЗУ 8 Гб уже далеко не везде комфортен сегодня. А 10 лет назад 8 Гб было вполне нормально для работы и для серфинга.
(Правда, YMA уже поправился, что, оказывается, не 8, а 16 Гб. Это, конечно, во многом снимет вопросы по количеству одновременно открытых вкладок.).
А SSD уже несколько лет стоит. Естественно, что он — не слабое место, и шустрости в запуске программ добавил ощутимо.

З.Ы. С CPU, к сожалению, по нынешним временам тоже не все гладко. Когда для запуска скрипта PROMETHEUS для перепрошивки роутера понадобилась установка VMware Workstation Player, внезапно выяснилось, что мой проц устарел и перестал поддерживаться. Пришлось идти другим путем, без VMware, и запускать Debian на еще более старой машинке.
И да, кодирование видео (1080p) по нынешним временам происходит несколько медленно. Впрочем, это тоже не повседневная задача обычного пользователя.
Тут еще прикол в том что совсем не в каждый в 10летний комп можно воткнуть больше 8Гб. Премиум материнки без вопросов, а вот дешевый офисный сегмент все с двумя слотами, две планки 4Гб — их потолок. Ну а ноуты это по определению 2 планки максимум.
Что мешало установить поддерживаемую версию VMPlayer? Или VirtualBox.
Так-то i7-860 идет вровень с упомянутым мной i5-4200u, и в многопотоке даже опережает, если верить www.cpubenchmark.net/compare/Intel-i7-860-vs-Intel-i5-4200U/6vs1947

А на 4200u работается вполне комфортно, конечно, там стоит SSD и 16 ГБ оперативки, тут я ошибся. Но процессор ровно такой же по производительности…

PS: Стоит посмотреть на сравнение — за 5 лет при сопоставимой производительности потребление упало почти в 5 раз…
Ха-ха, интернеты… Мне тут как-то сайт в поиске попался, с гифками. Т.е. там страницы буквально в блокноте сверстаны, почти без скриптов, рекламы и стилей. Тупо десяток 10-ти мегабайтных гифок на одной странице. Сайт отдает их достаточно быстро, где-то 500-1000 кб/сек. Вот только современные браузеры на нем просто помирают, у хрома половина гифок на странице даже первый кадр отобразить не может, а лиса еще как-то с трудом прогружает, но там тоже все сильно печально. А вот если запустить iexplore — так оно там всё летает практически, на фоне современных.

Представляю, как оно на чем-нить древнем в современных браузерах тужиться будет…
Сдается мне, что не в железе дело… Раньше помню, когда еще 1Гб ОЗУ казался ого-го как круто, в году так 2004-м, почему то и ОС этого объема ОЗУ хватало, и браузерам и т.д. А сейчас все как Вы описали. Тут дело в другом — оптимизация софта. Либо все на это забили, либо это «сговор» производителей железа и софта, либо это «прогресс», без которого нынче софт не пишут. Я вот, например, занимаюсь программированием МК, когда то начинал с AVR и ассемблера, сейчас STM32 и HAL, так вот здесь та же история — на ассемблере программы занимали мало памяти и работали шустро, на HAL же памяти уходит гораздо больше, но писать удобнее и быстрее. Думаю, аналогичная ситуация и с написанием ПО для ПК, программисты используют различные фреймворки, которые облегчают им жизнь, но за это приходится расплачиваться ресурсами ПК.
Позвольте, у меня есть опыт работы за старым офисным компьютером с Athlon II x2 250 и 4 гигабайтами памяти DDR2 (по таймингам и частоте не подскажу), так там с видео есть проблемы — кадры пропускаются, есть задержки при проигрывании
Сейчас уже не помню точно, но, вроде, при пересадке на ХР — мне не удалось запустить «Сапера» потому, что видеокарта не поддерживала 3d ускорение! ))))
Win10, все тормозит срашно, даже курсор мыши иногда лагает. Набор текста в Word иногда затсавляет подлагивать mp3-проигрыватель. Все из-за жесткого диска. SSD ему подавай. Десятителетиями работало на дисках все и было нормально, а теперь скорости диска (запредельной по меркам времен 20-летней давности) недостаточно для тех действий, для которых ее всю жизнь было достаточно. Обновления поотключал, все заблокировал, стало нормально. До тех пор, пока винда не начала качать какие-то просочившиеся обновления и не сломала сама себя, уйдя в бесконечный цикл обновлений. В итоге машинка скорее метрва, чем жива. Сносить все чтобы можно было работать 3 месяца нет желания, кое-как она все же шевелится, и ладно. Я точно знаю, что так не должно быть. Проблема в винде, в не в том, что ноут слабый. Он на порядок мощнее того, что были во времена XP или 7, но работает хуже.

В венде ещё лаги добавляют dcp и isr. На новом мощном игровом ноуте временами подлагивает мышь. Поэтому люди выбирают Mac для реалтайм обработки звука.

Зато практически в каждом release note пишут: «Стало ещё лучше, ещё надёжнее, ещё быстрее и эффективнее».
Видимо, врут.
Баян
«Оптимизировать будем по процессору или по памяти?»
«По времени разработки.»
Пока исправляли уязвимости Spectre, Meltdown, RIDL, Fallout и ZombieLoad, производительность просела на десятки процентов.
Как всегда — в разных задачах по-разному, немного подробностей:
habr.com/ru/post/421931
habr.com/ru/news/t/452014

Но как я понял, в самой «неудачной» задаче к середине 2019 осталась примерно половина производительности от начала 2018.
Как считал:
— просадка от исправления Spectre+Meltdown: 0-20%
— просадка от исправления ZombieLoad: до 40%
— итого остается 0.8 * 0.6 = 0.48

Увы, бенчмарки на разных процессорах и задачах до и после всех этих исправлений не видел, а у самого нет технической возможности.

Говорят что чем старше процессор тем больше производительности теряется. Если брать интел то около 5 поколений назад будет 5%, более современные пару процентов, те что старше как повезет. Заплатки Spectre и Meltdown можно частично отключить программами.

Странно, но мне этот «закат» больше напоминает рассвет :)
Наоборот, если раньше во все девайсы(не ПК) ставили какие-то специализированные процессоры, то сейчас практически везде универсальные (ARM,MIPS,RISC-V). И все из-за софта. Возьмем таких китов «спец процессоров» как TI или AD. Всеми их спец процессорами «руководят» универсальные. Специализированные на подхвате. Во всех SoC базовый процессор универсальный и куча помошников. Универсальный процессор обеспечивает хороший софт, ОС. хорошую отладку. А попробуй сейчас попытаться всунуть куда-то свой проприетарный специализированный процессор — до пенсии будешь писать только компилятор :)
Ещё 15 лет назад, в дипломные времена читал статью про новый тренд в эмбеде — архитектура микроконтроллеров оптимизируется под нюансы работы компилятора. Нынешние SoC сами по себе — сборники модулей, заточенных под конкретные алгоритмы.
Ага, именно поэтому все игровые консоли перешли с архитектуры кастомных процессоров на x86/arm(nintendo switch) уже лет 7 как. А embedded плавно перекатывается на стандартизированные армы. Вот так выглядит закат General Purpose CPU.

И да и нет, нельзя говорить на современные процессоры CPU, потому что они SoC, в котором куча всяких ядер как общей так и узкой специализации. Эпловский M1 наглядно демонстрирует результаты такого подхода.

Похоже, просто тормозящий прогресс, и тянущий за собой чемоданы говна, x86 наконец-то должен умереть и дать жить и развиваться другим, возможно, похоронив при этом интел (туда им и дорога). Лично мне это стало понятно ещё несколько лет назад, увидев скорость, с которой js бенчмарки проходит iPhone Х, в котором проц был уже несколько летней давности к моменту выхода.
А сейчас дело доводят до конца Apple с М1 и AWS со своими гравитонами.
А так то с процессорами общего назначения все хорошо. Linux скоро будет работать в каждой стиральной машине, ибо тупо проще взять low-end arm, чем что-то выдумывать. Подозреваю, что и в той же тесле их тоже достаточно. Врядли управляющий софт работает на чем-то экзотическом.

Например, Intel за последнее десятилетие потратила $183 млрд на НИОКР и новые производственные мощности. Это принесло огромные дивиденды: по некоторым оценкам, производительность процессоров с 1971 года увеличилась примерно в 400 000 раз.

Пример некорректного сравнения. За последнее десятилетие как раз производительность увеличилась вообще не революционно. Ну в 5 раз, может быть от силы, если считать вычислительную производительность хорошего десктопа по процессору. А денег вбухано, скорее всего больше, чем в предыдущие десятилетия.

В 5 раз увеличили производительность, или в 2 раза увеличили производительность и в 2,5 раза уменьшили потребление, в итоге мой новый ноут на tiger lake при большей скорости работы, чем старый на sandy bridge, от батареи работает 5...7 часов против 2...3 часа в первые годы жизни старого ноута. И при этом весит почти в 1,5 раза меньше. Вы действительно уверены, что за 10 лет революционного увеличения производительности не произошло? Иногда разница в 2 раза — уже революция, а тут аж в 5 раз.
Поддержу nixtonixto — если ноутбук 10-летней давности на коленях держать было не очень комфортно, особенно летом, то сейчас мой основной рабочий ноут на i5-10210u (HP430G7) практически холодный, и при ненапряжной работе даже вентилятор не включает.

При этом по производительности CPU он раза в 2 быстрее предыдущего ноутбука 5-летней давности на i5-6200u (HP430G3), плюс за счет того, что стоит m.2 SSD вместо SATA — скорость еще приросла.
Но в обычной работе это не ощущается — производительность избыточна, вижу эффект только в тяжелых числомолотилках (есть задачки на 4 потока и 10-12GB оперативки).
Хотя в фундаментальном смысле эти рынки по-прежнему контролируют музыкальные лейблы и книжные издательства, а не IT-компании, поскольку музыка, книги — всё это слишком мелкие, нишевые рынки по сравнению с IT.


Нет. Лейблы были значительно подвинуты тем же iTunes, а сейчас и другими цифровыми издателями, которые позволяют продавать не альбомы (которые появились чтобы продавать не пустующую пластинку или кассету, а хотя бы на 2/3 заполненную), а отдельные треки.

Большие лейблы в первую очередь предоставляли логистику музыки — издание пластинок, запись дисков, кассет и их продажу в розничных сетях. Сейчас эта вся логистика уже не нужна, и лейблы со своими заводами и розничными сетями остались максимум контролировать студии звукозаписи, которые не так уж сложно чуть ли не создать в гараже, опять таки благодаря цифровым технологиям, современным микшерам и возможности монтажа на компьютерах.
Тип Модель Параллельных вычислений
CPU Intel Xeon E5-2690v4 28


Хм, а почему не AMD EPYC 7002? 64 ядра, 128 потоков

Разве следующий шаг — не увеличение количества ядер в процессоре? Пусть, возможно, с ограниченной функциональностью…

Потом ещё совсем не раскрыта тема скорости передачи между процессором и памятью, в том числе их интеграцией (память в процессор или наоборот).

Впрочем наконец-то заняться оптимизацией было бы тоже интересно.
Вспоминается Станислав Лем:
Чем сложнее программа — тем проще для нее может быть процессор.
Отсюда вывод: бесконечно сложная программа может работать вообще без процессора ))
Отсюда вывод: бесконечно сложная программа может работать вообще без процессора ))

Всё-таки самый (бесконечно) простой процессор это не значит вообще без процессора. У него может быть минимальный алфавит, минимальное число состояний, минимальное число операций ниже которых опуститься уже нельзя. Прототип — машина Тьюринга.
Там еще другое вытекающее положение: написание бесконечно сложной программы займет бесконечное время — поэтому процессора может и не быть, это дзен-программирование — без запуска программы, ради самого процесса.
Природа справилась с такими программами за вполне внятные миллионы лет. ДНК без процессора работают.
DNA — это и процессор и программа в одном флаконе!!!
В таком случае, ДНК это программа, состоящая из нуклеотидов.
Благо их всего 4, почти как машкоманд в простых процессорах )

А процессор там какой-то другой, химический.
И судя по тому, что биологи до сих пор не определись с тем, какой именно там процессор…
Может его и нет вовсе. Программа работает сама )
ну это теоретическая выкладка )
Хотя кто ее знает, может она осуществима на практике

Всё это интересно, но пока правит миром капитал он будет диктавать, что нам важно и что полезно, не обращая на самих нас никакого внимания.

Касаемо книг. В этом году должны произойти два фундаментальных изменения:
1) совокупный доход онлайн-платформ, скорее всего, всё же превзойдёт доход от бумажных книг
2) Судя по графикам, средняя посещаемость author.today, ресурса, организованного «по-ITшному» всё же превзойдёт «классический» Литрес, опирающийся на издательства и выпуск готового продукта.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий