Comments 86
Вообще, у Samsung эксклюзивный контракт с Qualcomm, что SD835 первые месяцы после выхода S8 не получит никакой другой производитель. Из-за этого HTC перенесёт выпуск флагмана на лето, а LG выпустит на старом поколении SD.
Вот будет забавно, если Samsung свой флагман выпустит на Snapdragon, а конкурентам будет продавать Exynos.
Никто ничего не запрещает. Самсунг скупила все процессоры.
Только Самсунг может произвести SD835, потому что больше нигде нет технологии 10nm. И они согласилась их произвести, но сначала только для себя. Когда себе уже будет не надо, то можно и для других поделать.
Если бы всё было честно-рыночно, без эксклюзивных договоров, то
1. Неужели за 6 месяцев до продажи нельзя было запланировать увеличение объёмов производства, чтобы превзойти объёмы, которые Самсунг скупил. Они покупают, а мы ещё больше делаем.
2. Неужели нельзя задрать цены так, чтобы «скупить всё» было невыгодно. Чтобы скупил тот, кто готов платить больше.
Интересно сколько еще можно уменьшать техпроцесс.
Есть очевидная проблема:
Шаг кристаллической решетки кремния ~0.5 нм (т е при техпроцессе из статьи там 20 атомов в ширину это характерный размер элемента)
Даже если появится чудесный нано-сборщик то транзистор из пары атомов не выглядит хоть сколь-нибудь надежно
Сейчас проблема не в кристаллической решетке (до неё ещё далеко), а в длинне волны, которую используют для фотолитографии. В данный момент используется глубокий ультрафиолет ( что-то около 135нм ). Но его возможности уже на грани. Сейчас голландцы, которые являются главными поставщиками фотолитографов пытаются освоить EUV (Extreme Ultra Violet) с длинной волны 13.5 нм — это почти ренгтгеновское излучение. Фишка там в том, что все материалы поглощают этот свет, так что они пытаются сделать супер мощный источник. Грубо говоря, там будет стоять инфракрасный углеводородный лазер почти как на Звезде Смерти, который испаряет капли олова, которые излучают ультрафиолет. Там гиганская система зеркал, которые поглощают почти весь свет + там вакуум, т.к. воздух его бы тоже поглощал. И вдобавок ко всему миллион нерешённых проблем, от деградации материалов до отсутсвия прозрачных защитных плёнок (чтобы не падал мусор на чип). В общем, задачка не из лёгких. Но демонстраторы технологий уже есть.
В общем, когда я слышу нытьё по поводу того, что новые процессоры очень дорогие, у меня начинается праведный гнев, ведь на 1 пластину нужно потратить месяца 2-3 чтобы сделать готовое изделие. Там целая куча побочных проблем, о которых рядовой обыватель и слыхом не слыхивал. Уменьшая с этим источником света (135нм) техпроцесс, пластину нужно дольше держать под светом, соответственно падает выход пластин, соотсветственно растёт цена. Один только завод по производству новых чипов стоит около 10 млрд долларов =\
С традиционными транзисторами из кремния, квантовое туннелирование начинает вмешиваться в работу транзисторов уже на 5 — 7 нм, и не позволяет закрываться затворам корректно.
Число в названии техпроцесса это «маркетинговые нанометры»
http://www.electronics-eetimes.com/news/samsung%E2%80%99s-14-nm-lpe-finfet-transistors/page/0/3
Ну и для сложный чипов (а не оперативной памяти или флеша с простыми регулярными структурами) самой сложное это не тех процесс, а проектирование его схемы. Производительность и возможности давно этим ограничиваются, а не тем что «транзисторного бюджета» не хватает для реализации задуманного.
А ведь TSMC когда-то давно уже делала десктопные процы, если мне не изменяет память… Что-то вроде 486-586.
десктопных осей под ARM кроме линукс нет.
Microsoft пытается. В декабре была новость о том, что Windows 10 заработала на планшете под управлением Qualcomm Snapdragon 820.
Да, были хаки для этого, но рынок софта для «ломанных» устройств — это так себе рынок.
Из OpenSource, впрочем, много что смогли перенести. Вот список десктопного софта, портированного на RT на xda-developers.
так как для arm версии windows потребуется не просто пересборка а портирование приложения на новую платформу, у программистов будет выбор, менять платформу на linux/android (которая уже давно на рынке) или ставить на черную лошадку.
Насколько это все правда судить можно будет после релиза, но на данный момент запускали фотошоп и маловероятно, что его портировали.
Поэтому перспективы у такого решения весьма и весьма.
возможность запуска x86 приложений без портированиякак? точнее какой ценой? виртуализация на порядок понижает производительность,
Но факт запуска приложений без портирования имеет место быть, а следовательно основная проблема с экосистемой решена. А следовательно продукт найдет своего потребителя и отнимет часть рынка.
это уже было в windows-RT и оказалось никому не нужным.
все остальное через эмуляцию. а значит на порядки медленней. сейчас есть эмуляторы x86 и для Андроид, но никто ими не пользуется, потому как крайне медленно. а быстрее не будет…
Эмулятор выделяет некоторую «горячую» функцию, в которой процессор крутится 95% времени, транслирует её в псевдокод, а затем компилирует в ARM-инструкции, и вместо пошагового выполнения функции запускает нативный вариант. Если код на лету не меняется, замедления на порядки не будет. Тормоза только при старте, когда нужно скомпилировать код.
См. список эмуляторов, которые поддерживают эту фичу, в разделе Applications:
https://en.wikipedia.org/wiki/Dynamic_recompilation
Но теперь ситуация иная.
Эмуляция, вирутализация или что то иное это не известно, производительность неизвестна, так откуда такие выводы: «быстрее не будет».
В общем поживем увидим.
Кстати, когда маки переходили на интеловские процессоры, старые программы запускались через обычную эмуляцию. И как-то в таком режиме пережили период, пока программисты переделывали программы.
я не слышал чтобы у майкрософт была технология заметно производительней существующих решений.
Помним, что в данной ситуации платформа arm будет конкурировать с существующими решениями x86, и windows на arm должна предоставить какие то ощутимые бонусы,… даже при равных по цена/производительности решениях виртуализация съест все остальные бонусы типа энергопотребление и размер.
fillrate 1 пиксель/такт на ядро
triangle rate 1/32 на ядро
Для частоты, скажем, 850МГц на MP20 получаем
0.85*20 = 17Гпикс/с
0.85*20/32 = 531Mtri/с
Чтобы что-то убрать, это «что-то» нужно сперва добавить.
>> Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие)
Ни в какие свои смартфоны Asus не ставит Atom уже второй год как (ещё до того как Интел прекратил их производить).
Актуальное поколение — Asus Zenfone 3.
Про добавление я может быть не совсем понятно выразился: я имел в виду, что многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов. А если всё это лишнее из x86 CPU убрать, то получится Atom с близким к ARM-SoC уровнем производительности и TDP. Поэтому, чисто гипотетически, если «всё убранное в х86» добавить в процессор на ARM, то не факт, что выигрыш по TDP будет существенным. Может будет, может нет. Может они в идеале вообще близки по показателю TDP, кто его знает.
Единственное что там есть это космический потолок по TDP.
Apple A10 по устройству ядра и по сложности микроархитектуры сравним с актуальными процессорами Интел, и даже где-то лучше. Например ещё начиная с A7 декодируется 6 инструкций за такт, что на сегодняшнем топовом х86 возможно только при чтении инструкций из кеша микроопераций, т.е. грубо говоря только для «горячего» кода, и то лишь на последней микроархитектуре Skylake.
На данный момент A10 может уверенно соперничать с совсем не смартфонным Core-m по производительности.
Атом там даже рядом не стоял.
Да, инженеры Intel могут «выехать на скиле», но это единичные проценты производительности, либо следствие большего теплопакета — можно использовать более «тяжелые» методы чтобы делать больше действий за такт. Подсистема памяти очень требовательна и Интел умеет её делать.
Да банально 256-бит SIMD на смартфонах не взлетит — с ним и десктопы в тротлинг уходят.
слышал о проектах чего то типа xserver-а использующего драйвера android но похоже дело не очень двигается
Как-то сравнивал не нескольких задачах существующих под х86 и под ARM одновременно, так 1 ядро моего старого десктопного AMD Phenom II за единицу времени делает работу для выполнения который понадобится почти 10 ядер современных смартфонов на базе ARM ну или в 10 раз дольше считать на 1м.
Порядок был примерно такой, для одной и той же задачи:
на смартфонном ARM — считать несколько часов
на десктопном х86 — несколько десятков минут
при портировании на OpenCL и обработке на современном десктопном GPU — меньше 1 минуты
Мобильные процессоры (будь то arm или x86) принудительно замедляют работу при повышении температуры, на практике почти сразу после начала длительных ресурсоемких вычислений, усугубляет ситуацию еще и пассивный дизайн системы охлаждения.
если вы установите принудительное охлаждение мобильного чипа (полагаю даже простое охлаждение корпуса даст заметный плюс), результаты сравнения у вас будут менее 'шокирующими'
xiaomi redmi 3 (чуть больше минуты на тест, нагреться не успевает):
thread Mflops
1 1457
2 2743
4 3153
аналог linpack для pc для разных моделей процессора дает от 15Gflops (intel i3 530) до 57Gflops (amd phenom II x6 1605t, 6 thread)
так что да, 10-кратное превосходство в скорости при еще большем превосходстве энергопотребления и занимаемого места
Ну а большая энергоэффективность ARM в основном за счет малой частоты работы достигается. Если на х86 пропорционально сбросить частоту и понизить напряжение работы, то энергоэффективность вырастет примерно до уровня ARM. Чудес не бывает.
Например мой Phenom II X4 может жрать до 110 Вт при работе на 3.6 Ггц, при этом скорость в линпак 34 Gflops. — в 10 с лишним раз выше чем у хорошего современного ARM процессора и в 20-30 раз выше чем у старых 4х ARM. Но ценой примерно в 30 раз большего потребления энергии
Но еще много лет назад AMD выпускала серверную версию работающую на сниженных частотах (2,2-2,6 Ггц) и сниженном напряжении питания. Где в те же самые 120 Вт укладывалось уже 12 таких же ядер Phenom II — потребление тоже, но общая скорость примерно в 2 раза выше.
Если взять не Phenom, а более современное х86 ядро, еще дальше скинуть частоту, где-то до уровня типичного для ARM (~1.5 Ггц) и за счет этого поставить еще ниже напряжение, то энергоэффективность получим не хуже чем у ARM.
Например в суперэконономичном режиме (800 МГц, 0,7-0,9в) современный 4х ядерный х86 потребляет на уровне смартфонных и планшетных ARM, но при этом остается все еще быстрее в большинстве задач.
P.S.
В работе по ссылке у рябят ошибка очень жирная — энергоэффективность х86 сильно занизили, взяв потребление для 2х процессорного сервера, а посчитав скорость только для 1 процессора. В результате разница в эффективности использования энергии с серверными х86 не 4х кратная примерно как они вывели, а только 2х кратная. Которая легко свести в 0 или до преимущества х86 просто скинув частоты.
Во вторых есть еще момент лицензирования фич чипсета для конкретной страны или оператора. Это уже производитель смартфона договаривается с производителем SoC. Так что для России к примеру или для Европы могут просто залочить всякие 5СА и оставить 3СА которые к примеру Мегафон обеспечить может.
Ну и третий момент. Не нашел информации как конкретно у сансунга сделано, но у Qualcomm с их Snapdragon черным по белому написано, что модем X16 требует хотя бы 20MHz лицензируемого спектра, X20 допускает использование 10MHz лицензированных частот. Все остальное соответственно допускается размещать в не лицензируемом спектре. 20MHz есть почти у каждого оператора. Ну а как будет жить гигабит на не лицензируемом спектре — покажет практика :)
— B3 1800 75MHz занято GSM/3G хотя в Москве уже потихоньку переделывают на LTE
— B7 2600 70MHz разделено поровну между операторами
— B20 800 30MHz разделено между операторами
— B31 450 4.2Mhz исторически принадлежит Tele2
Так что если разделить на 3-4 оператора получится по чуть-чуть у каждого? и ни про какие 5СА речи быть не может.
Все так, но B7 не поровну разделено. У мегафона 40 мегагерц (благодаря покупке йоты). У остальных по 10
B31 450 4.2Mhz исторически принадлежит Tele2Полез проверять, и узнал, что SkyLink и правда присоединили к Теле2. Не знал.
Однако учитывая то, что нет абсолютно идентичных референсных устройств (с одинаковыми ТТХ кроме процессора), на которых бы и проводилось сравнение Exynos и Apple A процессоров — сравнение обычно довольно субъективное.
Последние несколько лет все тестировщики говорят, что все работает идеально на обоих флагманах (iPhone и Galaxy S), а дальше всё сводится к фишкам ОС и субъективной любви тестировщика к одной из платформ.
HSA? Интересно… AMD еще со времен Llano пудрит голову GPU вычисления и особо эффективными в случае расположения GPU на кристалле с ЦРУ. Но, как я понимаю, поддержки в прикладном ПО не было. Если теперь это будет не только у AMD, может это наконец станет реально использоваться.
Samsung представила мобильный чип Exynos 9 8895 — 8 ядер, 10 нм, гигабитный LTE