Pull to refresh

Comments 86

Конечно. Для него как раз и делают.
Во всех анонсах — Qualcomm SD835.
Вообще, у Samsung эксклюзивный контракт с Qualcomm, что SD835 первые месяцы после выхода S8 не получит никакой другой производитель. Из-за этого HTC перенесёт выпуск флагмана на лето, а LG выпустит на старом поколении SD.

Вот будет забавно, если Samsung свой флагман выпустит на Snapdragon, а конкурентам будет продавать Exynos.
Samsung всегда делал две версии Galaxy: со Snapdragon для Америки и Китая и с Exynos для остальных стран. Это связано в первую очередь со стандартами связи. Ясное дело, что сайты и их анонсы в основном ориентируются на американский вариант.
Это так, но всё равно получается красивая комбинация для захвата рынка — запрещаем поставлять SD другим вендорам и продаём им свой новый Exynos как единственную сопоставимую альтернативу.

Никто ничего не запрещает. Самсунг скупила все процессоры.

Нет, там всё сложнее.

Только Самсунг может произвести SD835, потому что больше нигде нет технологии 10nm. И они согласилась их произвести, но сначала только для себя. Когда себе уже будет не надо, то можно и для других поделать.

Если бы всё было честно-рыночно, без эксклюзивных договоров, то
1. Неужели за 6 месяцев до продажи нельзя было запланировать увеличение объёмов производства, чтобы превзойти объёмы, которые Самсунг скупил. Они покупают, а мы ещё больше делаем.
2. Неужели нельзя задрать цены так, чтобы «скупить всё» было невыгодно. Чтобы скупил тот, кто готов платить больше.
Никто не будет просто так переходить на другой чипсет. Нужно целиком переделывать прошивку, менять цепочки снабжения. Слишком дорого, проще подождать лета.

Интересно сколько еще можно уменьшать техпроцесс.
Есть очевидная проблема:
Шаг кристаллической решетки кремния ~0.5 нм (т е при техпроцессе из статьи там 20 атомов в ширину это характерный размер элемента)
Даже если появится чудесный нано-сборщик то транзистор из пары атомов не выглядит хоть сколь-нибудь надежно

Сейчас проблема не в кристаллической решетке (до неё ещё далеко), а в длинне волны, которую используют для фотолитографии. В данный момент используется глубокий ультрафиолет ( что-то около 135нм ). Но его возможности уже на грани. Сейчас голландцы, которые являются главными поставщиками фотолитографов пытаются освоить EUV (Extreme Ultra Violet) с длинной волны 13.5 нм — это почти ренгтгеновское излучение. Фишка там в том, что все материалы поглощают этот свет, так что они пытаются сделать супер мощный источник. Грубо говоря, там будет стоять инфракрасный углеводородный лазер почти как на Звезде Смерти, который испаряет капли олова, которые излучают ультрафиолет. Там гиганская система зеркал, которые поглощают почти весь свет + там вакуум, т.к. воздух его бы тоже поглощал. И вдобавок ко всему миллион нерешённых проблем, от деградации материалов до отсутсвия прозрачных защитных плёнок (чтобы не падал мусор на чип). В общем, задачка не из лёгких. Но демонстраторы технологий уже есть.
В общем, когда я слышу нытьё по поводу того, что новые процессоры очень дорогие, у меня начинается праведный гнев, ведь на 1 пластину нужно потратить месяца 2-3 чтобы сделать готовое изделие. Там целая куча побочных проблем, о которых рядовой обыватель и слыхом не слыхивал. Уменьшая с этим источником света (135нм) техпроцесс, пластину нужно дольше держать под светом, соответственно падает выход пластин, соотсветственно растёт цена. Один только завод по производству новых чипов стоит около 10 млрд долларов =\

Сейчас используются 193 нм эксимерные лазеры.

вот была статья про это — https://geektimes.ru/post/282408/
p.s. доля себестоимости комплектующих, а тем более процессора, пусть и SoC, в стоимости конечного устройства мала, если не ничтожна
В 2016 в Berkeley Lab создали 1 нм затвор из углеродных нано-трубок и полупроводником из MoS2, вместо кремния, и замеры показали, что затвор в паре с MoS2 работает и позволяет контролировать поток электронов, но до конечного устройства там еще далеко.
С традиционными транзисторами из кремния, квантовое туннелирование начинает вмешиваться в работу транзисторов уже на 5 — 7 нм, и не позволяет закрываться затворам корректно.

Транзисторы из 2D TMD делают года с 2011 и без нанотрубной экзотики что, впрочем, не делает из серьёзной научной работы потенциального технологического процесса.
>> 20 атомов в ширину это характерный размер элемента

Число в названии техпроцесса это «маркетинговые нанометры»
http://www.electronics-eetimes.com/news/samsung%E2%80%99s-14-nm-lpe-finfet-transistors/page/0/3
Тех процессы частично маркетинговые сейчас. И в лучшем случае при минимуме маркетинга эти 14-10 нм примерно соответствуют толщине затвора — самой узкой и маленькой части транзистора. Сам транзистор целиком имеет линейные размеры в десятки нм (30-50 нм для самых современных тех процессов) и все еще состоит из сотен тысяч или миллионов атомов каждый.

Ну и для сложный чипов (а не оперативной памяти или флеша с простыми регулярными структурами) самой сложное это не тех процесс, а проектирование его схемы. Производительность и возможности давно этим ограничиваются, а не тем что «транзисторного бюджета» не хватает для реализации задуманного.
Лет через 5 никто не удивится процессору в настольном компьютере от Samsung? :)
А ведь TSMC когда-то давно уже делала десктопные процы, если мне не изменяет память… Что-то вроде 486-586.
Не думаю, на десктопах время устаревания теперь очень низкое, а вот в мобильных устройствах год-два, поэтому будут зарабатывать деньги дам.
Если они сохранятся через 5 лет. Такими темпами развития процессоров от сторонних производителей думаю через 5 лет мы будем сидеть на smartbox/планшетах.
отличная новость… теперь VR станет еще ближе.
Давно мучает вопрос. Почему столь мощные чипы не вставляют в обычный десктопный комп? как в своё время Ageia додумалась использовать чип для просчёта физики, по той же технологий можно сделать супер функциональную плату расширения и не только для физики. Какой нибудь офисный пентиум обрадуется такой мощности по цене тв андройд коробки.
Во первых это ARM, во вторых десктопных осей под ARM кроме линукс нет.
Насчет платы расширения — очевидно это не нужно производителям. Сопроцессоры давно уже отмерли.
десктопных осей под ARM кроме линукс нет.

Microsoft пытается. В декабре была новость о том, что Windows 10 заработала на планшете под управлением Qualcomm Snapdragon 820.
Именно что пытается — RT неудачна без приложений, а на 10 еще нет полноценных uwp программ.
Так всё потому, что они пытаются не только на ARMе запуститься, но ещё и Metro/UWP/whatever в нагрузку навязать. Если бы они не заблокировали на RT запуск/установку WinAPI-программ, такой напряжёнки с софтом бы на ней не было.
Да, были хаки для этого, но рынок софта для «ломанных» устройств — это так себе рынок.
ЕМНИП, программы пересобранные под arm win 32 требовали обязательной подписи MS.
Во времена Windows Mobile — нет )))
Только вот где эти программы под WinAPI на арм взять?
Я про это и пишу, что close-source софта не было потому, что мало какая компания решится вкладывать свои деньги в портирование на малопопулярную платформу софта, который и установить-то туда смогут только гики. Не было спроса — не было и предложения.
Из OpenSource, впрочем, много что смогли перенести. Вот список десктопного софта, портированного на RT на xda-developers.
Вроде как Windows 10 для ARM в процессе
Винда 10 на ARM может заработать в виде запуска через эмулятор команд ARM. Такой для ARM делала команда от Эльбруса. Обещали выкатить в 14 году, но как-то оно затихло.
Как только выйдет обещанный Windows 10 под ARM кто-то потеряет часть рынка.
выход windows ничего не решает, так как само оно не нужно, а нужны программы, которые собирают под эту платформу.

так как для arm версии windows потребуется не просто пересборка а портирование приложения на новую платформу, у программистов будет выбор, менять платформу на linux/android (которая уже давно на рынке) или ставить на черную лошадку.
На данный момент Windows 10 под ARM процессоры позиционирует себя как полноценная ОС имеющая возможность запуска x86 приложений без портирования, в отличии от RT.
Насколько это все правда судить можно будет после релиза, но на данный момент запускали фотошоп и маловероятно, что его портировали.

Поэтому перспективы у такого решения весьма и весьма.
возможность запуска x86 приложений без портирования
как? точнее какой ценой? виртуализация на порядок понижает производительность,
Ну какой смысл до релиза делать какие либо выводы о производительности?

Но факт запуска приложений без портирования имеет место быть, а следовательно основная проблема с экосистемой решена. А следовательно продукт найдет своего потребителя и отнимет часть рынка.
эта часть — это .NET-приложения.
это уже было в windows-RT и оказалось никому не нужным.
все остальное через эмуляцию. а значит на порядки медленней. сейчас есть эмуляторы x86 и для Андроид, но никто ими не пользуется, потому как крайне медленно. а быстрее не будет…
Речь тут не о компиляции MSIL в код процессора, а о динамической рекомпиляции, которую умеют продвинутые эмуляторы.

Эмулятор выделяет некоторую «горячую» функцию, в которой процессор крутится 95% времени, транслирует её в псевдокод, а затем компилирует в ARM-инструкции, и вместо пошагового выполнения функции запускает нативный вариант. Если код на лету не меняется, замедления на порядки не будет. Тормоза только при старте, когда нужно скомпилировать код.
Эм, чего-то вы загнули. Всё гораздо проще: при сабмиттинге в магазин, IL код транслируется в код всех поддерживаемых архитектур уже на серверрах MS.
Это не какая-то фантастика, а общепринятый на данный момент подход к эмуляции.

См. список эмуляторов, которые поддерживают эту фичу, в разделе Applications:
https://en.wikipedia.org/wiki/Dynamic_recompilation

С RT сразу было всё понятно, т.к. экосистемы никакой (вернее минимальная), нужно создавать с нуля и зависит от заинтересованности людей выпускать ПО под такие платформы. Те же метро-приложения из той же оперы.

Но теперь ситуация иная.

Эмуляция, вирутализация или что то иное это не известно, производительность неизвестна, так откуда такие выводы: «быстрее не будет».

В общем поживем увидим.
по идее можно делать JIT компиляцию. И если программа не модифицирует свой код, то должно работать почти как родное.
Кстати, когда маки переходили на интеловские процессоры, старые программы запускались через обычную эмуляцию. И как-то в таком режиме пережили период, пока программисты переделывали программы.
в теории все выглядит красиво, но на практике ни одна виртуальная машина с полной виртуализацией процессора не работает достаточно быстро чтобы это стало незаметно!
я не слышал чтобы у майкрософт была технология заметно производительней существующих решений.

Помним, что в данной ситуации платформа arm будет конкурировать с существующими решениями x86, и windows на arm должна предоставить какие то ощутимые бонусы,… даже при равных по цена/производительности решениях виртуализация съест все остальные бонусы типа энергопотребление и размер.
Вероятно потому, что они все-равно слабее десктопных видях и процов. Не будете же вы GTX 1080 сравнивать с Mali G71MP20? Если по полосе пропускания шины памяти сравняться ещё худо-бедно они могут, то вот по филлрейту GTX 1080 будет далеко впереди (увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта).
>> увы, я так и не нашёл ни в одной «спецификации» G71MP20 филлрейта

fillrate 1 пиксель/такт на ядро
triangle rate 1/32 на ядро

Для частоты, скажем, 850МГц на MP20 получаем
0.85*20 = 17Гпикс/с
0.85*20/32 = 531Mtri/с
Что и требовалось показать: речь идёт о топовом ARM SOC'е, насколько я понял. По филлрейту видяха не дотягивает и половины до далеко не топовой gtx 960m (~70Гпикс/c).
Довольно странно сравнивать встроенную графику (которая сильно ограничена по тепловыделению) с дискретной GTX1080. Сравнивайте тогда уж со встроенной в процессор Intel HD 530.
Сравниваем «топчик с топчиком», поэтому и такое сравнение. В добавок, чип то «4k vr», давайте сравнивать с десктопными решениями, которые позиционируются аналогично, раз уж спрашивают, почему «такие мощные чипы» не ставят на десктопы (хотя, какой-нибудь radeon с аналогичными характеристиками должен быть дешевле такого чипа).
какое-нибудь ушлое подразделение выпустит мультипроцессорное arm-решение или что-нибудь типа paralella со своим 1024-ядерным risc процессором, и картина на ват/гигафлопс станет совсем другой
А может, AMD выпустит вслед за Opteron A1100 ещё и APUшки с ARM-ядром и встроенным Radeon'ом.
Это только узкой категории надо, ну и любителям играть. Для рабочих машин, в большестве, и для печатанья, интернета, мультимедиа хватит с лихвой.
Для таких уже давно выпускают процессоры со встроенными видяшкам: смотреть кинцо и сидеть в браузере и т.д. и т.п. их возможностей хватает, благо существуют аппаратные кодеки, которые пихаются абсолютно везде.
Вообще вспомнилось ещё вот что. Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU. А десктопные CPU сделаны так, чтобы на них можно было делать всё что душе угодно. Согласитесь, было бы сложновато разрабатывать и выпускать 50 разных процессоров на x86 для того, чтобы ни у кого не было избыточной производительности. Видимо, с экономической точки зрения данная задача решается выпуском CPU «всё в одном и для всех». А когда из x86 убрали всё «лишнее для смартфона», то получился Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие) и производительность у него емнип похуже Snapdragon 820.
Не знаю что ж именно не устроило Intel в мобильных Atom-ах, но от мобильных процессоров сине-голубые отказались полностью ещё летом.
>> Кажется в SoC для смартфонов очень многое убрано по сравнению с десктопными CPU
Чтобы что-то убрать, это «что-то» нужно сперва добавить.

>> Intel Atom, который сейчас Asus ставит во все свои смартфоны (может не во все, но во многие)
Ни в какие свои смартфоны Asus не ставит Atom уже второй год как (ещё до того как Интел прекратил их производить).
Актуальное поколение — Asus Zenfone 3.
Благодарю за пояснение по асусам, не знал.
Про добавление я может быть не совсем понятно выразился: я имел в виду, что многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов. А если всё это лишнее из x86 CPU убрать, то получится Atom с близким к ARM-SoC уровнем производительности и TDP. Поэтому, чисто гипотетически, если «всё убранное в х86» добавить в процессор на ARM, то не факт, что выигрыш по TDP будет существенным. Может будет, может нет. Может они в идеале вообще близки по показателю TDP, кто его знает.
>> многое из того, что есть в десктопных x86 (Intel Core iX, AMD FX и т.д.) отсутствует в ARM-based SoC для смартфонов

Единственное что там есть это космический потолок по TDP.
Apple A10 по устройству ядра и по сложности микроархитектуры сравним с актуальными процессорами Интел, и даже где-то лучше. Например ещё начиная с A7 декодируется 6 инструкций за такт, что на сегодняшнем топовом х86 возможно только при чтении инструкций из кеша микроопераций, т.е. грубо говоря только для «горячего» кода, и то лишь на последней микроархитектуре Skylake.
На данный момент A10 может уверенно соперничать с совсем не смартфонным Core-m по производительности.
Атом там даже рядом не стоял.
Да, инженеры Intel могут «выехать на скиле», но это единичные проценты производительности, либо следствие большего теплопакета — можно использовать более «тяжелые» методы чтобы делать больше действий за такт. Подсистема памяти очень требовательна и Интел умеет её делать.
Да банально 256-бит SIMD на смартфонах не взлетит — с ним и десктопы в тротлинг уходят.
Справедливости ради, Core M3/5/7 нельзя назвать совсем уж несмартфонным чипом. Его TDP составляет 4,5 Вт и у некоторых моделей он может быть занижен до 3,5 Вт, а у QS820 тдп оценивается в 4-6 Вт. Может поэтому Intel и отказался от Atom.
потому что драйвера есть только под android стек, он не очень удобный для десктопа.
слышал о проектах чего то типа xserver-а использующего драйвера android но похоже дело не очень двигается
Даже видеокарты невозможно компоновать таким образом, а тут целый комп в компе.
Они только в попугаях и маркетинге мощные.

Как-то сравнивал не нескольких задачах существующих под х86 и под ARM одновременно, так 1 ядро моего старого десктопного AMD Phenom II за единицу времени делает работу для выполнения который понадобится почти 10 ядер современных смартфонов на базе ARM ну или в 10 раз дольше считать на 1м.
Порядок был примерно такой, для одной и той же задачи:
на смартфонном ARM — считать несколько часов
на десктопном х86 — несколько десятков минут
при портировании на OpenCL и обработке на современном десктопном GPU — меньше 1 минуты
Есть маленький нюанс, — throttling
Мобильные процессоры (будь то arm или x86) принудительно замедляют работу при повышении температуры, на практике почти сразу после начала длительных ресурсоемких вычислений, усугубляет ситуацию еще и пассивный дизайн системы охлаждения.

если вы установите принудительное охлаждение мобильного чипа (полагаю даже простое охлаждение корпуса даст заметный плюс), результаты сравнения у вас будут менее 'шокирующими'
Я на андроид «смарт-тв» приставке тестировал, там с питанием(от сети) и охлаждением порядок — на чипе радиатор стоит. Он пассивный, но при потреблении <5 Вт принудительный обдув и не нужен, конвекции хватает.
Тест rgbenchmm (нагуглил первое попавшееся исследование производительности, там использовали этот тест) есть для android и pc
xiaomi redmi 3 (чуть больше минуты на тест, нагреться не успевает):
thread	Mflops
1	1457
2	2743
4	3153

аналог linpack для pc для разных моделей процессора дает от 15Gflops (intel i3 530) до 57Gflops (amd phenom II x6 1605t, 6 thread)
так что да, 10-кратное превосходство в скорости при еще большем превосходстве энергопотребления и занимаемого места
При этом это еще без оптимизации под SIMD инструкции современных х86. Версия линпак поддерживающая AVX дает на современных десктопных х86 (i5, i7, FX-8xxx) больше 100 Gflops.

Ну а большая энергоэффективность ARM в основном за счет малой частоты работы достигается. Если на х86 пропорционально сбросить частоту и понизить напряжение работы, то энергоэффективность вырастет примерно до уровня ARM. Чудес не бывает.
Например мой Phenom II X4 может жрать до 110 Вт при работе на 3.6 Ггц, при этом скорость в линпак 34 Gflops. — в 10 с лишним раз выше чем у хорошего современного ARM процессора и в 20-30 раз выше чем у старых 4х ARM. Но ценой примерно в 30 раз большего потребления энергии

Но еще много лет назад AMD выпускала серверную версию работающую на сниженных частотах (2,2-2,6 Ггц) и сниженном напряжении питания. Где в те же самые 120 Вт укладывалось уже 12 таких же ядер Phenom II — потребление тоже, но общая скорость примерно в 2 раза выше.

Если взять не Phenom, а более современное х86 ядро, еще дальше скинуть частоту, где-то до уровня типичного для ARM (~1.5 Ггц) и за счет этого поставить еще ниже напряжение, то энергоэффективность получим не хуже чем у ARM.
Например в суперэконономичном режиме (800 МГц, 0,7-0,9в) современный 4х ядерный х86 потребляет на уровне смартфонных и планшетных ARM, но при этом остается все еще быстрее в большинстве задач.

P.S.
В работе по ссылке у рябят ошибка очень жирная — энергоэффективность х86 сильно занизили, взяв потребление для 2х процессорного сервера, а посчитав скорость только для 1 процессора. В результате разница в эффективности использования энергии с серверными х86 не 4х кратная примерно как они вывели, а только 2х кратная. Которая легко свести в 0 или до преимущества х86 просто скинув частоты.
в недалёком будущем видится мне некая универсальная дешёвая плантация ячеек, типа FPGA, на которой в режиме реального времени можно выстраивать любую нужную инфраструктуру под требования софта. нужно физику считать — быстро поднялось 1000 ядрышек для физики. нужно видео крутое — 2000 ядрышек под видео. нужно ещё какую-то байду — загружается соответственная «схема». так же проще… вроде.
UFO just landed and posted this here
Энергоэффективность будет низкой. Специализированные ядра меньше и быстрее, а значит будут потреблять меньше.
UFO just landed and posted this here
фемто-соты в офисе или дома, например?
Ну во первых проблемы оператора для производителя SoC это как проблемы индейцев для шерифа :)

Во вторых есть еще момент лицензирования фич чипсета для конкретной страны или оператора. Это уже производитель смартфона договаривается с производителем SoC. Так что для России к примеру или для Европы могут просто залочить всякие 5СА и оставить 3СА которые к примеру Мегафон обеспечить может.

Ну и третий момент. Не нашел информации как конкретно у сансунга сделано, но у Qualcomm с их Snapdragon черным по белому написано, что модем X16 требует хотя бы 20MHz лицензируемого спектра, X20 допускает использование 10MHz лицензированных частот. Все остальное соответственно допускается размещать в не лицензируемом спектре. 20MHz есть почти у каждого оператора. Ну а как будет жить гигабит на не лицензируемом спектре — покажет практика :)
UFO just landed and posted this here
так свободных частот уже давно нет… Изначально была утопично-здравая идея создать одного оператора который бы заведовал всеми частотами и обеспечивал бы радиодоступ для всех остальных операторов. Не взлетело, каждый в итоге строит сам. Хорошо хоть технологическую нейтральность приняли и теперь в России LTE можно строить в диапазонах:
— B1 2100 65MHz наглухо занято 3G
— B3 1800 75MHz занято GSM/3G хотя в Москве уже потихоньку переделывают на LTE
— B7 2600 70MHz разделено поровну между операторами
— B20 800 30MHz разделено между операторами
— B31 450 4.2Mhz исторически принадлежит Tele2
Так что если разделить на 3-4 оператора получится по чуть-чуть у каждого? и ни про какие 5СА речи быть не может.
UFO just landed and posted this here
Да, в 5G именно это и сделали. там от 6GHz и выше. С одной стороны чем выше тем свободнее. Но дальность сильно падает. в районе 28GHz можно и 200MHz и 400MHz ширину канала взять, но дальность покрытия будет десятки метров, а значит БС надо ставить плотнее и т.д.

Все так, но B7 не поровну разделено. У мегафона 40 мегагерц (благодаря покупке йоты). У остальных по 10

B31 450 4.2Mhz исторически принадлежит Tele2
Полез проверять, и узнал, что SkyLink и правда присоединили к Теле2. Не знал.
В бенчмарках — хз. Обычно Apple в них лидирует по одноядерному режиму, а в многоядерном где-то в середине-конце списка.

Однако учитывая то, что нет абсолютно идентичных референсных устройств (с одинаковыми ТТХ кроме процессора), на которых бы и проводилось сравнение Exynos и Apple A процессоров — сравнение обычно довольно субъективное.

Последние несколько лет все тестировщики говорят, что все работает идеально на обоих флагманах (iPhone и Galaxy S), а дальше всё сводится к фишкам ОС и субъективной любви тестировщика к одной из платформ.
Ну понятно что все субъективно. Хотя насчет многоядерных тестов, вроде как A10 если не на первых позициях, то очень близко к верхней строчке. Но есть и более приземленные тесты — где запускают по-кругу приложения и игры, выполняют одинаковые действия и подобное. Айфон тоже обычно оказывается впереди, хотя насколько высок в этом вклад процессора непонятно.

HSA? Интересно… AMD еще со времен Llano пудрит голову GPU вычисления и особо эффективными в случае расположения GPU на кристалле с ЦРУ. Но, как я понимаю, поддержки в прикладном ПО не было. Если теперь это будет не только у AMD, может это наконец станет реально использоваться.

Sign up to leave a comment.

Articles

Change theme settings