Comments 124
В разных источниках написано по разному: где то говорится про разработку устройств, где то про разработку приложений. В любом случае можно ссылку на сам конкурс?
0
Вот это уже интереснее, чем минновобоард.
+1
То есть, SD-ху уже не надо препарировать, чтобы достучаться до консоли?
+7
Теперь, дополнительно к паяльнику и осциллографу, надо будет покупать еще и микроскоп.
+39
Выходы, питание, производительность?
+5
400 MHz, выводы похоже как у SD карты
вот еще картиночка покрупнее
вот еще картиночка покрупнее
+13
UFO just landed and posted this here
Да любопытно, что на вашей фото Intel Edison изображено несколько другое размещение и разводка микросхем, чем на фото в заглавии статьи.
К чему бы это?
Изображены разные экспериментальные вариации Intel Edison?
Или в Intel не смогли накупить одинаковых микросхем?
Да и что там по вашему изображено?
По-моему тут очевидно, что есть:
1. сам чип Intel Quark SoC;
2. наверное есть Флеш-память;
3. наверное есть Генератор тактовых импульсов;
4. и что-то ещё?
К чему бы это?
Изображены разные экспериментальные вариации Intel Edison?
Или в Intel не смогли накупить одинаковых микросхем?
Да и что там по вашему изображено?
По-моему тут очевидно, что есть:
1. сам чип Intel Quark SoC;
2. наверное есть Флеш-память;
3. наверное есть Генератор тактовых импульсов;
4. и что-то ещё?
0
3. наверное есть Генератор тактовых импульсов;Часто устанавливается только кварц (+возможно конденсаторы), а сам генератор и PLL — внутри SoC, с него уже тактирование памяти и периферии.
Для современного проца на плате точно должны быть:
— DC-DC преобразователь;
— преобразователи уровней (выходы sd-карты — 3.3v)
— EEPROM биоса или efi (мы же о x86), может быть на самом SoC
— EEPROM для пользовательских данных (скорее всего — чип над процом)
— SDRAM (может быть на самом SoC, но, скорее, четыре чипа сверху)
— RF-фронтенд и, вероятно, baseband процессор (на фото это скорее всего чип справа от проца, судя по наличию чип-антенны и противовеса в этом углу)
+1
мм, а зачем его сделали по форме SD карты, он что в слот вставляться может?
+7
Наверное что бы подчекнуть миниатюрность. Мол у нас в размер карты памяти влез целый компютер. Все же SD вещь общеиспользуемая, и в некотором плане может служить мерой размера.
+5
Возможно. Маркетологи посмотрели, на то что сделали инженеры, и сказали «Уголочек отпилить! Будем PR-ить на тему размера SD-карты»
+25
Ага "… и по бокам выемки сделать!"
Судя по тому что на внешней стороне ничего нет, выходы и питание на обратной стороне как у SD, так что скорее всего они действительно совместимы.
Судя по тому что на внешней стороне ничего нет, выходы и питание на обратной стороне как у SD, так что скорее всего они действительно совместимы.
+1
И почему никто ещё не задумался о том, какой прекрасный серверный шкаф получится с такими-то девайсами?
+12
+4
Ну и у Intel всё же не ARM, а x86
0
Но вот вопрос: а какое там ядро x86?
Разные ядра x86-архитектуры — обладают совершенно разной производительностью работая на одной и той же частоте.
Intel упорно не желает рассказывать подробностей про ядро Intel Quark.
Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.
Да ещё мы знаем, что Технология производства этих чипов = 32 нм — т.е. такая же как у современных Intel Atom.
Дальше можно включить логику и начать рассуждать: за счёт чего они так сильно уменьшили ядро Intel Atom — просто выкинули пару лишних функций типа: поддержки расширений SIMD (MMX, SSE) — и нет же за счёт всего-лишь удаления этих функций не возможно добиться значительного уменьшения ядра. А значит это не ядро Intel Atom!
Ещё варианты — тупо взять и перепроектировать по новым технологическим нормам (на 32 нм) какое-нито ядро 32-битного старого процессора типа: Intel 486 (1989) или даже ещё более древнее Intel 80386 (1985).
Скорее всего Intel поступило именно так (это обычная практика Intel — они очень любят долго эксплуатировать свои старые наработки) и если это так, то Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486:)
— Тормоза вы мои 486-тормоза:))))
Хотя для встраиваемых систем без графического интерфейса может вполне хватить тормозных 400 МГц Intel Quark, но я бы не стал утверждать, что Intel Quark (на 400 МГц) и на старой архитектуре x86 будет заведомо быстрее и мощнее современного 32-битного ARM-чипа на 200 МГц — они могут быть вполне равны по своей производительности, а вот по энергопотреблению современный 200 МГц ARM-чип явно выиграет!
Разные ядра x86-архитектуры — обладают совершенно разной производительностью работая на одной и той же частоте.
Intel упорно не желает рассказывать подробностей про ядро Intel Quark.
Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.
Да ещё мы знаем, что Технология производства этих чипов = 32 нм — т.е. такая же как у современных Intel Atom.
Дальше можно включить логику и начать рассуждать: за счёт чего они так сильно уменьшили ядро Intel Atom — просто выкинули пару лишних функций типа: поддержки расширений SIMD (MMX, SSE) — и нет же за счёт всего-лишь удаления этих функций не возможно добиться значительного уменьшения ядра. А значит это не ядро Intel Atom!
Ещё варианты — тупо взять и перепроектировать по новым технологическим нормам (на 32 нм) какое-нито ядро 32-битного старого процессора типа: Intel 486 (1989) или даже ещё более древнее Intel 80386 (1985).
Скорее всего Intel поступило именно так (это обычная практика Intel — они очень любят долго эксплуатировать свои старые наработки) и если это так, то Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486:)
— Тормоза вы мои 486-тормоза:))))
Хотя для встраиваемых систем без графического интерфейса может вполне хватить тормозных 400 МГц Intel Quark, но я бы не стал утверждать, что Intel Quark (на 400 МГц) и на старой архитектуре x86 будет заведомо быстрее и мощнее современного 32-битного ARM-чипа на 200 МГц — они могут быть вполне равны по своей производительности, а вот по энергопотреблению современный 200 МГц ARM-чип явно выиграет!
+3
Единственно что известно про Intel Quark, что это: 32-битная x86-совместимая система-на-кристалле, которая меньше по размеру, энергопотреблению и вычислительной мощности, чем процессоры Atom.Ну, ещё мы знаем, например, что кэш — 16кб и MaxTDP 2.2Вт, поддерживается NX-бит, скорость работы с памятью до
См. официальную страницу характеристик: ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz
+1
Сума сойти — этот Quark жрёт целых 2.2 Вт!
Да современные Intel Atom жрут почти столько же — по 3 Вт!
В чём тут разница-та? И чего же они сумели добиться в энергоэффективности (Производительность / Ватт).
Intel Quark вроде как спроектирован для носимой электроники и предполагает встраивание в устройства типа SmartWatch — и что я теперь должен в Intel`овских часах менять батарейку каждую неделю?
Как всегда Intel с продвижением своей x86-архитектуры оторвалась от реальности:(
Полноценные чипы для планшетов ARM-архитектуры значительно более энергоэффективны и потребляют в среднем 0,5 — 2 Вт.
Например мощный 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».
А уж энергоэффективность чипов MIPS-архитектуры вообще для Intel является недостижимой планкой, потому как даже одни из самых мощных на сегодняшний день экземпляров — например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (кстати он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
Да современные Intel Atom жрут почти столько же — по 3 Вт!
В чём тут разница-та? И чего же они сумели добиться в энергоэффективности (Производительность / Ватт).
Intel Quark вроде как спроектирован для носимой электроники и предполагает встраивание в устройства типа SmartWatch — и что я теперь должен в Intel`овских часах менять батарейку каждую неделю?
Как всегда Intel с продвижением своей x86-архитектуры оторвалась от реальности:(
Полноценные чипы для планшетов ARM-архитектуры значительно более энергоэффективны и потребляют в среднем 0,5 — 2 Вт.
Например мощный 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».
А уж энергоэффективность чипов MIPS-архитектуры вообще для Intel является недостижимой планкой, потому как даже одни из самых мощных на сегодняшний день экземпляров — например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (кстати он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
+4
современные Intel Atom жрут почти столько же — по 3 Вт!Процессоры, или вся система? Quark же включает не процессор, но и 2Гб ОЗУ и встроенные контроллеры сети, USB и PCIe. Сомневаюсь, правда, что туда включено по 150мА на каждый из трёх USB портов, но всё же больше, чем один ЦП.
Кстати, со страницы описания есть ссылка на страницу с даташитами: communities.intel.com/community/makers/documentation/quarkdocuments в том числе полный 920-страничный Intel® Quark Datasheet
Можно качать и читать.
+2
Технология производства 22нм, а не 32нм. Это несколько меняет дело.
+1
А в какую сторону, по вашему, это меняет дело?
То, что Intel умудрилась сделать по новейшим технологическим нормам в 22 нм чип для носимой электроники жрущий целых 2.2 Вт — вот это достижение:)))))
Да, для этого надо было очень сильно постараться:))))))))))
На мой взгляд — это всего лишь доказываете, что они даже и не пытались хоть как-то оптимизировать по энергоэффективности старое 32-битное ядро P54C процессора Intel Pentium от 1993 года.
Флаг им в руки и электричка на встречу — с таким ленивым (и даже хамским) отношением к потребителям.
См.: «Intel заморозила завод стоимостью $5 млрд по выпуску процессоров нового поколения» — эта последняя новость как раз подтверждает, то что если корпорация Intel не начнёт кардинальные реформы, и не перестанет впихивать свою неэффективную по энергопотреблению x86-архитектуру в носимую электронику и мобильные гаджеты — то их в ближайшее десятилетие ждёт банкротство.
Например такое же, какое произошло в 2012 году, с когда-то громадной и страшной корпорацией Eastman Kodak.
Я лично считаю, что для Intel единственный идеальный вариант идти по стопам корпорации AMD — и выделить все свои заводы в независимую компании, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как: TSMC, UMC, GlobalFoundries, и т.д.
То, что Intel умудрилась сделать по новейшим технологическим нормам в 22 нм чип для носимой электроники жрущий целых 2.2 Вт — вот это достижение:)))))
Да, для этого надо было очень сильно постараться:))))))))))
На мой взгляд — это всего лишь доказываете, что они даже и не пытались хоть как-то оптимизировать по энергоэффективности старое 32-битное ядро P54C процессора Intel Pentium от 1993 года.
Флаг им в руки и электричка на встречу — с таким ленивым (и даже хамским) отношением к потребителям.
См.: «Intel заморозила завод стоимостью $5 млрд по выпуску процессоров нового поколения» — эта последняя новость как раз подтверждает, то что если корпорация Intel не начнёт кардинальные реформы, и не перестанет впихивать свою неэффективную по энергопотреблению x86-архитектуру в носимую электронику и мобильные гаджеты — то их в ближайшее десятилетие ждёт банкротство.
Например такое же, какое произошло в 2012 году, с когда-то громадной и страшной корпорацией Eastman Kodak.
Я лично считаю, что для Intel единственный идеальный вариант идти по стопам корпорации AMD — и выделить все свои заводы в независимую компании, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как: TSMC, UMC, GlobalFoundries, и т.д.
+4
Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.
По поводу энергоэфективности можно будет что-то говорить достоверно только когда продукт попадёт в руки пользователей и можно будет протестировать производительность, энергопотребление и сравнить с конкурентами.
К тому же Ваше утверждение о том, что х86 архитектура не энергоэффективна — это ваше личное мнение, попахивающее популизмом и желтизной. Для начала логика говорит о том, что гораздо важнее микроархитектура (наличие OutOfOrder, размеры различных буферов для предсказания ветвления, кешей и прочего), а не архитектура (под коей в данном случае подразумевают просто систему команд). Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам. Проблема х86 чимов в мобильном сегменте больше заключается в отсутствии нужной обвязке в SoC и достаточного количества мелких и средних производителей научившихся быстро и дёшево клепать устройства на основе х86 чипов. АРМы же при попытке получить сравнимую с х86 производительность греются куда сильнее, а производительность всё как-то хуже — это всё говорит о том, что дальнейшие пути повышения производительности в современных архитектурах присутствующих на рынке заключаются в реализации сложного оборудования внутри чипов, которое очень хорошо жрёт энергию. И это объектиный процесс, не зависящий от системы команд.
Да, и кстати, на новости о приостановке введения в строй завода акции Интела неплохо подросли.
По поводу энергоэфективности можно будет что-то говорить достоверно только когда продукт попадёт в руки пользователей и можно будет протестировать производительность, энергопотребление и сравнить с конкурентами.
К тому же Ваше утверждение о том, что х86 архитектура не энергоэффективна — это ваше личное мнение, попахивающее популизмом и желтизной. Для начала логика говорит о том, что гораздо важнее микроархитектура (наличие OutOfOrder, размеры различных буферов для предсказания ветвления, кешей и прочего), а не архитектура (под коей в данном случае подразумевают просто систему команд). Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам. Проблема х86 чимов в мобильном сегменте больше заключается в отсутствии нужной обвязке в SoC и достаточного количества мелких и средних производителей научившихся быстро и дёшево клепать устройства на основе х86 чипов. АРМы же при попытке получить сравнимую с х86 производительность греются куда сильнее, а производительность всё как-то хуже — это всё говорит о том, что дальнейшие пути повышения производительности в современных архитектурах присутствующих на рынке заключаются в реализации сложного оборудования внутри чипов, которое очень хорошо жрёт энергию. И это объектиный процесс, не зависящий от системы команд.
Да, и кстати, на новости о приостановке введения в строй завода акции Интела неплохо подросли.
+2
Да, да — акции Intel`а неплохо подросли именно потому, что инвесторы вкладывающие деньги в акции Intel наконец-таки увидели адекватное действие руководства Intel.
Всем инвесторам уже давно ясно, что для падающего рынка PC-компьютеров (падение которого постепенно происходит уже несколько лет — см.: «В 2013 году рынок ПК показал новые антирекорды», и ещё: «IDC предрекает мрачное будущее ПК») глупо строить ещё один новый завод за 5 миллиардов $
— Это уже всем давно ясно (кроме самого Intel), что Intel просто выбрасывает деньги на ветер (притом, что другие уже существующие заводы Intel НЕ полностью загружены заказами и порой простаивают).
Инвесторы уже давно настаивают, чтобы Intel пошла по стопам корпорации AMD — и выделила все свои заводы в независимую компанию, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как GlobalFoundries.
Но при предыдущем руководстве Intel упрямо не хотела замечать проблем (как будто там вся верхушка обкурилась), и упрямо твердила, что вот щас-щас они уж как выйдут на мобильный рынок, прижмут всех конкурентов делающих свои еретические ARM-чипы и тогда-то загрузят все свои заводы (и старые и новые) бесконечной работой — наштампуют миллиарды своих x86-чипов и будут подсчитывать свои монополистские сверхприбыли:))))
Да, но это к сожалению просто сны и мечты оторванных от реальности старых дядек привыкших руководить монопольно господствующей на PC-рынке корпорацией.
А реальность такова, что рынку НЕ нужны x86-чипы для планшетов и носимой электроники — рынок их не принимает.
Хоть сколько-нибудь реально потеснить дешёвые и энергоэффективные ARM-чипы Intel`у никак не удаётся.
И получается, что реальный-то рынок для Intel x86-процессоров — это всего-лишь падающий рынок PC-компьютеров:(
— Вот и всё, поезд приехал, дальше ехать некуда — тупик! Нужны новые инновационные идеи в чипостроении, нужны эксперименты с архитектурой для мобильных чипов.
А оказалось, всё что умеет громадная, монстрообразная корпорация Intel — это строить новые заводы с передовыми техпроцессами, и модернизировать свои старые x86-процессоры — и ничего нового сделать они просто не могут (к сожалению это беда всех старых корпораций-монополистов) :(
Всем инвесторам уже давно ясно, что для падающего рынка PC-компьютеров (падение которого постепенно происходит уже несколько лет — см.: «В 2013 году рынок ПК показал новые антирекорды», и ещё: «IDC предрекает мрачное будущее ПК») глупо строить ещё один новый завод за 5 миллиардов $
— Это уже всем давно ясно (кроме самого Intel), что Intel просто выбрасывает деньги на ветер (притом, что другие уже существующие заводы Intel НЕ полностью загружены заказами и порой простаивают).
Инвесторы уже давно настаивают, чтобы Intel пошла по стопам корпорации AMD — и выделила все свои заводы в независимую компанию, создав нового контрактного производителя полупроводниковых интегральных микросхем — такого же как GlobalFoundries.
Но при предыдущем руководстве Intel упрямо не хотела замечать проблем (как будто там вся верхушка обкурилась), и упрямо твердила, что вот щас-щас они уж как выйдут на мобильный рынок, прижмут всех конкурентов делающих свои еретические ARM-чипы и тогда-то загрузят все свои заводы (и старые и новые) бесконечной работой — наштампуют миллиарды своих x86-чипов и будут подсчитывать свои монополистские сверхприбыли:))))
Да, но это к сожалению просто сны и мечты оторванных от реальности старых дядек привыкших руководить монопольно господствующей на PC-рынке корпорацией.
А реальность такова, что рынку НЕ нужны x86-чипы для планшетов и носимой электроники — рынок их не принимает.
Хоть сколько-нибудь реально потеснить дешёвые и энергоэффективные ARM-чипы Intel`у никак не удаётся.
И получается, что реальный-то рынок для Intel x86-процессоров — это всего-лишь падающий рынок PC-компьютеров:(
— Вот и всё, поезд приехал, дальше ехать некуда — тупик! Нужны новые инновационные идеи в чипостроении, нужны эксперименты с архитектурой для мобильных чипов.
А оказалось, всё что умеет громадная, монстрообразная корпорация Intel — это строить новые заводы с передовыми техпроцессами, и модернизировать свои старые x86-процессоры — и ничего нового сделать они просто не могут (к сожалению это беда всех старых корпораций-монополистов) :(
-1
Они, мягко выражаясь, нужны в:
— ноутбуках,
— рабочих станциях,
— серверах.
Падение рынка десктопов не означает, что чипы Intel стали никому не нужны.
Это, конечно, если вы имели ввиду x86-64, а не чистый x86, который уже давно никому не нужен (и фактически вымер на десктопах, в ноутбуках и оставался только в виде atom'а на нетбуках).
— ноутбуках,
— рабочих станциях,
— серверах.
Падение рынка десктопов не означает, что чипы Intel стали никому не нужны.
Это, конечно, если вы имели ввиду x86-64, а не чистый x86, который уже давно никому не нужен (и фактически вымер на десктопах, в ноутбуках и оставался только в виде atom'а на нетбуках).
+2
Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.
— Откуда вы это взяли?
Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).
Советую вам внимательно прочитать статьи:
* IBM PC-совместимый компьютер;
* Персональный компьютер.
«Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
— Этот огромный рынок включает в себя все перечисленные вами виды компьютеров: — IBM PC-совместимые Ноутбуки, — IBM PC-совместимые Десктопы, — IBM PC-совместимые Рабочие станции, — IBM PC-совместимые Сервера.
Именно этот самый рынок IBM PC-совместимых компьютеров (на котором последние ~25 лет правят бал два старых монополиста Intel и Microsoft — консорциум Wintel) сегодня падает и ежегодно сокращается всё более возрастающими темпами.
Теснимый со стороны мобильных устройств: Планшетов и Смартфонов — разработанных на ARM-процессорах и никаким местом НЕ совместимых с IBM PC-стандартом и никакого отношения НЕ имеющих НИ к Intel, НИ к Microsoft.
Именно это очень сильно раздражает как Intel так и Microsft — и поэтому оба эти игрока пытаются каким-то образов влезть на этот новый мобильный рынок Планшетов/Смартфонов.
Соответственно Intel пытается выпускать новые мобильные процессоры Intel Atom/Intel Quark для Планшетов/Смартфонов и Носимых устройств.
А Microsoft выпустила новую ОСь MS Windows RT for ARM, выпустила свой Планшетник Surface RT, и даже купила целую компанию Nokia.
Но у обоих старых монополистов пока ничего не выходит и они не могут занять сколько-нибудь значимые позиции на новом рынке Планшетов/Смартфонов!
И обе компании очень боятся остаться «у разбитого корыта» замкнувшись в своём усыхающем Wintel`е.
* Microsoft уже почуяла что пахнет жареным — она теряет ширпотребный рынок: начала глобальные реформы и смену руководителя — см.:«Спасут ли Microsoft реформы Балмера?», и ещё: «Стивен Элоп перестроит бизнес Microsoft, если станет главой компании».
* Intel пока только лишь осмелилась сменить руководителя — см.: «Кто такой Брайан Кржанич, новый директор Intel?» — да и того выбрали из своей старой команды, так что он пока всё ещё не решается на кардинальные реформы:(
— Откуда вы это взяли?
Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).
Советую вам внимательно прочитать статьи:
* IBM PC-совместимый компьютер;
* Персональный компьютер.
«Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
— Этот огромный рынок включает в себя все перечисленные вами виды компьютеров: — IBM PC-совместимые Ноутбуки, — IBM PC-совместимые Десктопы, — IBM PC-совместимые Рабочие станции, — IBM PC-совместимые Сервера.
Именно этот самый рынок IBM PC-совместимых компьютеров (на котором последние ~25 лет правят бал два старых монополиста Intel и Microsoft — консорциум Wintel) сегодня падает и ежегодно сокращается всё более возрастающими темпами.
Теснимый со стороны мобильных устройств: Планшетов и Смартфонов — разработанных на ARM-процессорах и никаким местом НЕ совместимых с IBM PC-стандартом и никакого отношения НЕ имеющих НИ к Intel, НИ к Microsoft.
Именно это очень сильно раздражает как Intel так и Microsft — и поэтому оба эти игрока пытаются каким-то образов влезть на этот новый мобильный рынок Планшетов/Смартфонов.
Соответственно Intel пытается выпускать новые мобильные процессоры Intel Atom/Intel Quark для Планшетов/Смартфонов и Носимых устройств.
А Microsoft выпустила новую ОСь MS Windows RT for ARM, выпустила свой Планшетник Surface RT, и даже купила целую компанию Nokia.
Но у обоих старых монополистов пока ничего не выходит и они не могут занять сколько-нибудь значимые позиции на новом рынке Планшетов/Смартфонов!
И обе компании очень боятся остаться «у разбитого корыта» замкнувшись в своём усыхающем Wintel`е.
* Microsoft уже почуяла что пахнет жареным — она теряет ширпотребный рынок: начала глобальные реформы и смену руководителя — см.:«Спасут ли Microsoft реформы Балмера?», и ещё: «Стивен Элоп перестроит бизнес Microsoft, если станет главой компании».
* Intel пока только лишь осмелилась сменить руководителя — см.: «Кто такой Брайан Кржанич, новый директор Intel?» — да и того выбрали из своей старой команды, так что он пока всё ещё не решается на кардинальные реформы:(
-2
Я ведь ничего и не говорил конкретно про Десктопы — Настольные компьютеры.При этом в статьях, на которые вы ссылаетесь, речь о рынке ПК не включает сервера (и не факт, что включает рабочие станции).
— Откуда вы это взяли?
Может быть выражение «рынок ПК» вы воспринимаете как рынок Десктопов — но извините, это совершенно ошибочно (какая-то безграмотность).
«Рынок ПК» — это общепризнанный термин — обозначающий ВЕСЬ рынок IBM PC-совместимых компьютеров построенных на x86 / x86-64-процессорах!
Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%, но возрос в количестве на 4%. По IDC выручка -6.2%, количество -1.2%.
Статьи, на которые вы ссылались описывают падение массового потребительского рынка ПК, как вытеснение домашних ПК и ноутбуков планшетами, т. е. касаются только потребительского железа. И вымирать рынок серверов на архитектуре amd64 пока не собирается. Или вы считаете, что там ARM — достойная замена? Может, пора ещё суперкомпьютеры собирать не на Opteron'ах, а ARM-based?
И да, я считаю, что, используя ваше выражение, «безграмотно» ссылаться на статьи не осознав их содержание.
Советую вам внимательно прочитать статьи:Википедия, особенно русская, слабый аргумент. Но даже, если бы вы удосужились заглянуть туда самостоятельно, то увидели бы, что ПК — «настольная микроЭВМ, имеющая эксплуатационные характеристики бытового прибора и универсальные функциональные возможности», что чуть-чуть не совпадает с общепринятым значением понятия «рабочая станция», а тем более «сервер».
* IBM PC-совместимый компьютер;
* Персональный компьютер.
ARM хорош по энергоэффективности (соотношение производительность к мощности), amd64 — по производительности.
Если бы вы перестали фанатично набрасываться на MS и Intel, то увидели бы рациональное зерно в моих словах, что x86-64 не уходит с рынка, т. к. есть в них потребность. Ибо не всё применение компьютеров — потребление контента в сети. Кто-то этот контент должен на чем-то производить и предоставлять, как минимум.
+1
Да, но вы ведь всё равно заметили, что «Рынок серверов на x86-64 в 2013 году по отчету Gartner упал в деньгах на 3.8%… По IDC выручка -6.2%» — всё равно же упал (и для бизнеса важна именно прибыль в денежном выражении, а не количество произведённого товара).
У Intel в I квартале 2013 года «прибыль снизилась на 25 %» — см.: «Кто такой Брайан Кржанич, новый директор Intel?».
Так что, в Intel есть серьезные проблемы с прибыльным сбытом своих x86-процессоров во всех сегментах ранка IBM PC-совместимых компьютеров (включая сервера).
Да и уже совсем скоро ещё появятся и сервера на ARM64 — см.: «Facebook предпринимает новые шаги для использования чипов ARM в своих серверах», и ещё: «AMD начнёт поставки 64-битных ARM-процессоров для серверов в 2014 году».
И причём рынок x86-процессоров падает не только из-за наступления ARM-чипов на всех фронтах, но и просто по объективным обстоятельствам сокращения всей мировой экономики в связи с продолжающимся Мировым экономическим кризисом
(Тот самый кризис который вошёл в первую активную стадию в 2008 году и по некоторым прогнозам именно в 2014 году может перейти на новую более глубокую кризисную стадию — так что спрос может сократится во всех сегментах экономики).
Вот и получается, что Света в конце тёмного тоннеля для Intel`а я лично пока не вижу :(
У Intel в I квартале 2013 года «прибыль снизилась на 25 %» — см.: «Кто такой Брайан Кржанич, новый директор Intel?».
Так что, в Intel есть серьезные проблемы с прибыльным сбытом своих x86-процессоров во всех сегментах ранка IBM PC-совместимых компьютеров (включая сервера).
Да и уже совсем скоро ещё появятся и сервера на ARM64 — см.: «Facebook предпринимает новые шаги для использования чипов ARM в своих серверах», и ещё: «AMD начнёт поставки 64-битных ARM-процессоров для серверов в 2014 году».
И причём рынок x86-процессоров падает не только из-за наступления ARM-чипов на всех фронтах, но и просто по объективным обстоятельствам сокращения всей мировой экономики в связи с продолжающимся Мировым экономическим кризисом
(Тот самый кризис который вошёл в первую активную стадию в 2008 году и по некоторым прогнозам именно в 2014 году может перейти на новую более глубокую кризисную стадию — так что спрос может сократится во всех сегментах экономики).
Вот и получается, что Света в конце тёмного тоннеля для Intel`а я лично пока не вижу :(
0
Учитывая что рынок процессоров и рынок серверов в сборе — это две большие разницы, не факт, что второй сократился в серверном сегменте.
Кроме того, исследование IDC, приведенное выше, например, затрагивает только Dell, Oracle, IBM, Fujitsu, Hewlett-Packard, Cisco.
Учитывая, что Google, Facebook, Amazon, потребность которых в серверах огромна, покупают whitebox'ы. А агенства оценивают рынок серверов в основном по финотчетам вендоров, делая прикидки, но не зная реальной картины рынка ODM (http://www.wired.com/wiredenterprise/2011/11/server-world-bermuda-triangle/).
На 4Q12 Google входил в top-5 производителей серверов на базе процессоров Intel (http://www.wired.com/wiredenterprise/2012/09/29853/). Но при этом Гугл не продает эти сервера. Аналогичная ситуация у Amazon и Facebook.
Id est значительная часть рынка серверов не фигурирует в отчетах по продажам серверов. Логично, что вышеперечисленные компании, производя сервера для себя, сократили или прекратили покупку серверов у вендоров.
А появление серверных ARMv8 является приятным моментом, который, в том числе, может снизить цены на чипы от Intel.
Кроме того, исследование IDC, приведенное выше, например, затрагивает только Dell, Oracle, IBM, Fujitsu, Hewlett-Packard, Cisco.
Учитывая, что Google, Facebook, Amazon, потребность которых в серверах огромна, покупают whitebox'ы. А агенства оценивают рынок серверов в основном по финотчетам вендоров, делая прикидки, но не зная реальной картины рынка ODM (http://www.wired.com/wiredenterprise/2011/11/server-world-bermuda-triangle/).
На 4Q12 Google входил в top-5 производителей серверов на базе процессоров Intel (http://www.wired.com/wiredenterprise/2012/09/29853/). Но при этом Гугл не продает эти сервера. Аналогичная ситуация у Amazon и Facebook.
Id est значительная часть рынка серверов не фигурирует в отчетах по продажам серверов. Логично, что вышеперечисленные компании, производя сервера для себя, сократили или прекратили покупку серверов у вендоров.
А появление серверных ARMv8 является приятным моментом, который, в том числе, может снизить цены на чипы от Intel.
+2
У вас всё так красиво написано, но факты упрямая вещь.
См: «Intel огорчила рынок слабым финансовым прогнозом»:
«Генеральный директор компании Брайен Крзанич говорит, что Intel сталкивается с падением спроса на ПК в Азии, а также бизнес-заказами на серверные чипы по всему миру...»
«Брайен Крзанич возглавил крупнейшего мирового чипмейкера в мае 2013 года. Сейчас он предпринимает большие усилия на фокуссировании компании на мобильно-планшетном направлении, однако существенных подвижек здесь у intel пока нет...»
«intel заявила, что компания не надеется на рост показателей на протяжении всего 2014 года...»
«По итогам всего года компания ожидает падения продаж на 1,2% до 52,7 млрд долларов.»
См: «Intel огорчила рынок слабым финансовым прогнозом»:
«Генеральный директор компании Брайен Крзанич говорит, что Intel сталкивается с падением спроса на ПК в Азии, а также бизнес-заказами на серверные чипы по всему миру...»
«Брайен Крзанич возглавил крупнейшего мирового чипмейкера в мае 2013 года. Сейчас он предпринимает большие усилия на фокуссировании компании на мобильно-планшетном направлении, однако существенных подвижек здесь у intel пока нет...»
«intel заявила, что компания не надеется на рост показателей на протяжении всего 2014 года...»
«По итогам всего года компания ожидает падения продаж на 1,2% до 52,7 млрд долларов.»
+1
Вы с упорством, достойным лучшего применения продолжаете холиварить, несмотря на то, что Вам указали на то, что это энергопотребление всей системы, в которой кроме самого процессора есть ещё память, вся системная обвязка и беспроводные модули.Поддержу zboris. Зайдите на ark.intel.com/products/79084/Intel-Quark-SoC-X1000-16K-Cache-400-MHz и посмотрите.
Только SoC жрет 2.2 W. Это без учета SDRAM, EEPROM, RF-frontend и broadband processor.
Далее факты говорят, что современные Атомы уже не проигрывают в энергоэффективности современным АРМам.Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.
+2
Приведите, пожалуйста, эти факты. Крайне желательно — не из маркетинговых материалов Intel.
Например вот: www.extremetech.com/computing/144778-atom-vs-cortex-a15-vs-krait-vs-tegra-3-which-mobile-cpu-is-the-most-power-efficient
При этом если говорить о производительности, то Bay Trail (таблеточный Атом) превосходит ARM на голову и сравнивают его теперь всё больше с настольными товарищами. Термический пакет при этом сравнимый и ограниченый батарейкой таблеки.
www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/3
+1
В статье по первой ссылке первоисточник — тот же anandtech. Если посмотреть на методологию сравнения — то она «странненькая». Сравнивать энергопотребление двух процессоров «в idle» по потреблению при открытом home screen'е win rt или android — это ни о чём, извините. Даже перевод в airplane mode, снижающий всплески потребления, не позволяет этим измерениям стать адекватными.
Сравнение приложений (тех же js-тестов в браузере) также сложно назвать адекватным. Стоит помнить, что, кроме железа, отличались компиляторы (а история развития оптимизирующих компиляторов под x86/amd64 куда дольше), ядро, стек драйверов и, вероятно, браузеры.
Это даже не считая того, что тестирование, направляемое инженером Intel, вызывает некоторые сомнения.
Сравнение приложений (тех же js-тестов в браузере) также сложно назвать адекватным. Стоит помнить, что, кроме железа, отличались компиляторы (а история развития оптимизирующих компиляторов под x86/amd64 куда дольше), ядро, стек драйверов и, вероятно, браузеры.
Это даже не считая того, что тестирование, направляемое инженером Intel, вызывает некоторые сомнения.
+1
Lenovo Thinkpad Tablet 2 работает 8-10 часов в режиме просмотра видео через Wi-Fi.
У меня есть этот планшет, действительно работает.
На x86 (Intel Clovertrail) под Windows 8.
И платформа вышла полтора года назад. Так что не надо тут рассказывать про неэффективную по энергопотреблению архитектуру.
И благодаря x86, можно, если сильно нужно, и Visual Studio запустить, и Adobe, и полноценный офис — на аппарате менее 500 грамм.
У меня есть этот планшет, действительно работает.
На x86 (Intel Clovertrail) под Windows 8.
И платформа вышла полтора года назад. Так что не надо тут рассказывать про неэффективную по энергопотреблению архитектуру.
И благодаря x86, можно, если сильно нужно, и Visual Studio запустить, и Adobe, и полноценный офис — на аппарате менее 500 грамм.
+2
Интересно, откуда такой вывод? На ark.intel.com/products/family/79047/Intel-Quark-SoC/embedded есть только один чип. И произведен он по технологии 32nm, как можно убедится, заглянув на соответствующую страницу.
+1
Как я писал ниже, это отсюда www.intel.com/content/www/us/en/do-it-yourself/edison.html
Информация противоречивая. Похоже придётся подождать чтобы узнать наверняка.
Информация противоречивая. Похоже придётся подождать чтобы узнать наверняка.
+1
Хотя конечно я возможно перегнул палку, предположив, что Intel Quark — имеет всего лишь немного модернизированное и выполненное на 32 нм ядро процессора Intel 486 (1989 года).
Ещё можно предположить, что с большой долей вероятности Intel Quark имеет немного модернизированное и выполненное по 32 нм техпроцессу ядро Intel Pentium.
Скорее всего даже конкретно P54C (1993 года).
Потому как Intel заявляет, что Intel Edison является «персональным компьютером класса Pentium» (см.: «Intel продемонстрировала компьютер размером с SD-карту»), и так как именно ядро P54C Intel активно эксплуатирует последние годы в таком проекте как Intel Larrabee плавно переросшем в современные чипы Intel MIC.
Так, что 32-битное ядро P54C давно уже перепроектировано по современным технологическим нормам и последние годы уже много лет находится в активной переработке у инженеров Intel.
Но всё-равно это устаревшая архитектура и она никак не может сильно обогнать современные ARM-чипы по параметру энергоэффективности (Производительность / Ватт).
Ещё можно предположить, что с большой долей вероятности Intel Quark имеет немного модернизированное и выполненное по 32 нм техпроцессу ядро Intel Pentium.
Скорее всего даже конкретно P54C (1993 года).
Потому как Intel заявляет, что Intel Edison является «персональным компьютером класса Pentium» (см.: «Intel продемонстрировала компьютер размером с SD-карту»), и так как именно ядро P54C Intel активно эксплуатирует последние годы в таком проекте как Intel Larrabee плавно переросшем в современные чипы Intel MIC.
Так, что 32-битное ядро P54C давно уже перепроектировано по современным технологическим нормам и последние годы уже много лет находится в активной переработке у инженеров Intel.
Но всё-равно это устаревшая архитектура и она никак не может сильно обогнать современные ARM-чипы по параметру энергоэффективности (Производительность / Ватт).
+2
Возможно, это именно так.
Чем меньше размер, тем неудобней воткнуть mini\micro usb, а любой распространенный стандарт лучше своего велосипеда.
Судя по распиновке SD в википедии (ну и логика, да) есть пины на питание и землю. Т.е. для упрощения отладки, её можно поместить в слот, и она будет питаться от него (хотя не понятно, хватит ли этого по питанию), а связь через wifi/bt.
Ну и удобный доступ к внутреннему хранилищу мини-компьютера с обычного компьютера.
Чем меньше размер, тем неудобней воткнуть mini\micro usb, а любой распространенный стандарт лучше своего велосипеда.
Судя по распиновке SD в википедии (ну и логика, да) есть пины на питание и землю. Т.е. для упрощения отладки, её можно поместить в слот, и она будет питаться от него (хотя не понятно, хватит ли этого по питанию), а связь через wifi/bt.
Ну и удобный доступ к внутреннему хранилищу мини-компьютера с обычного компьютера.
+1
Может потому что существует большое количество готовых комплектующих (разъемы внутренние, внешние, накладные, шилды) для SD?
+2
Возможно, разводка и разводка как у SD сделана для удобства питания и подключения к макетной плате и т.д. Ведь достать разьём под SD карту сейчас можно практически везде, а городить ещё один стандарт не стали.
Предполагаю, что её можно запхнуть в любой, допустим, фотоаппарат и она заработает.
Предполагаю, что её можно запхнуть в любой, допустим, фотоаппарат и она заработает.
0
Почему бы нет? Вставляешь в фотоаппарат, и сделанные фотографии моментально заливаются в Инстаграм :) Или на ноутбук.
0
да, это именно так и работает сейчас с Eye-Fi
как вариант, на телефон — самое удобное, когда в пути
карточка сама создаёт wifi-сеть, телефон через их приложение подрубается и скачивает новые фотки
с телефона уже сам решаешь, как выложить
если напрямую с карточки — они ж неизменными будут валиться
а с телефона можно подредактировать, выбрать, уменьшить…
как вариант, на телефон — самое удобное, когда в пути
карточка сама создаёт wifi-сеть, телефон через их приложение подрубается и скачивает новые фотки
с телефона уже сам решаешь, как выложить
если напрямую с карточки — они ж неизменными будут валиться
а с телефона можно подредактировать, выбрать, уменьшить…
0
Ну и чем оно отличаеться от большинства ARM-подобных SoC? Тут бы информацию поконкретней, а то пока что получаеться очередной SoC, которых множество.
-6
Было бы интересно воткнуть такую карту в dSLR и делать, например, in-camera HDR.
+1
Современные камеры и так уже это умеют, но правда без затей и поэтому результат так себе получается, во всяком случае в Canon 70D. Все-таки к процессу создания HDR надо подходить творчески, а такой ИИ еще не изобрели.
+3
Да, согласен. А что в 70D, уже что-то для этого встроено? Я помню exposure bracketing даже был в камерах достаточно тупой, +-N, то есть один шаг. Сейчас лучше?
0
Ну там, конечно, есть и просто брекетинг, который можно довольно гибко настроить — максимальный разброс +-3 EV и в этом интервале вроде как можно до 7-ми кадров делать (или даже 11, но я больше 3-х никогда не делал, поэтому тут могу наврать). Причем центр этого интервала необязательно должен быть в нуле. Короче, из этого можно потом на компе собирать хорошие HDR.
А есть отдельная фича — внутрикамерный HDR, там тоже надо задать +- 1, 2, 3 или Auto EV. Можно включить Auto Alignment, но нет Anti Ghosting'а. И после нажатия на спуск камера, конечно, все равно делает брекетинг (тут вроде 3 кадра без вариантов), но сама склеивает по какому-то алгоритму и пишет на карточку уже готовый hdr jpeg (raw не умеет), а промежуточные результаты выбрасывает. Делается это довольно быстро, секунд 10, наверное.
А есть отдельная фича — внутрикамерный HDR, там тоже надо задать +- 1, 2, 3 или Auto EV. Можно включить Auto Alignment, но нет Anti Ghosting'а. И после нажатия на спуск камера, конечно, все равно делает брекетинг (тут вроде 3 кадра без вариантов), но сама склеивает по какому-то алгоритму и пишет на карточку уже готовый hdr jpeg (raw не умеет), а промежуточные результаты выбрасывает. Делается это довольно быстро, секунд 10, наверное.
+1
Интересно, спасибо за инфу. Я как-то привык мучаться в Photomatix, но конечно хочется сразу видеть ориентировочный результат. Тут правда есть еще нюанс что я люблю панорамы снимать, но мне кажется в этом плане софт тоже должен уже дотягивать… по крайней мере в мобильниках панорамы сшиваются. Правда иногда неточно :)
0
Не умеет софт нормально сшивать. Точнее, либо с артефактами, либо с серьезным уменьшением разрешения. К тому же для сшивки многопиксельной картинки, к какой я привык надо около 10 минут работы 4 ядер i3. Сколько она на этом кварке будет сшиваться? Час, два?
+1
Нда, для такой задачи может даже что-нибудь вроде FPGA было бы и лучше — можно было бы заточить под задачу. А что Photomerge быстро работает, это да, кстати не подскажете, есть ли какие-то альтернативы которые сшивают лучше и быстрее. Что-то мне подсказываеть что при сшивании Photoshop ни GPU ни SIMD не использует, хотя я возможно ошибаюсь.
0
а промежуточные результаты выбрасывает.
В 5D III можно настроить, что б оставляла 3 промедуточных кадра + HDR jpg.
0
Ключевой момент — цена. Если будет в районе 20$ для оптовых партий, то это бомба. Если больше, то там уже сильно больше конкурентов и придется играть на чем-то еще.
+8
Например? Что-то соизмеримое по цене ($30~40) с BT+WiFi на борту, пусть даже бОльшего размера?
+2
+1
Спасибо… но тут ключевая фраза — без BT. Месяца 2 уже ищу «такой же, только с Wi-Fi + BT», по цене $30~40.
0
Там стоит простой микроконтроллер с крохами памяти и ресурсов.
+1
На оффсайте говорят, что там какой-то Cortex-M3, и «Robust embedded operating system with fail-safe firmware updates» и «Virtual machine for vendor firmware». Деталей сходу не нашел.
-1
ну да, ST-шный М3 там, 256КБ ОЗУ, 1МБ флеша, часть из этого отдано на виртуалку
по частоте он проиграет раза в 2,5-3, по производительности значительно больше
по памяти тут не понятно, но даже при скромной конфигурации скажем 128МБ ОЗУ + 64МБ флеш разница в памяти будет огромной
не говоря о том, что на процессоре будет крутиться полноценных линукс, а на микроконтроллере виртуалка с простеньким приложением
это мопед и минивэн, сравнивать их бессмысленно
по частоте он проиграет раза в 2,5-3, по производительности значительно больше
по памяти тут не понятно, но даже при скромной конфигурации скажем 128МБ ОЗУ + 64МБ флеш разница в памяти будет огромной
не говоря о том, что на процессоре будет крутиться полноценных линукс, а на микроконтроллере виртуалка с простеньким приложением
это мопед и минивэн, сравнивать их бессмысленно
+2
Класс. А есть где почитать про использование такой чудо-карточки на русском? Чтобы с хардкорными примерами, типа «поднимаем сервак на sd-карте».
0
Ну сервак не подняли, но полный доступ к руту получили: habrahabr.ru/post/191742/
+1
Вещь «отличная», лежит 3 штуки, думал будет счастье, НО, эти заразы работают только с их облачным сервисом.
Только через интернет. И точка. Счастья не случилось, лежат в тумбочке.
Только через интернет. И точка. Счастья не случилось, лежат в тумбочке.
0
Без блутуса есть куча роутерных мозгов под OpenWRT, даже дешевле 20$. Можете погуглить в сторону AR9331.
+1
Спасибо! Но Ключевая фраза Wi-Fi + BT на одной плате.
+1
А какой юзкейс? Добавить BT USB-свисток в TP-Link TL-MR3020 — и уложитесь в 30$.
0
Для мелкопартийного производства навесные элементы в виде usb-свистков, в моем случае, не применимы. Поэтому и ищу одноплатный вариант с wi-fi + bt.
Данное решение от Intel, на первый взгляд, идеально подходит. Аналогов, к сожалению, не нашел. Если кто-то предложит еще варианты $20-40 одноплатных linux-based систем с bt и wi-fi, буду премного благодарен.
Вариант «спроектируйте да закажите изготовление сами» — пока не рассматривается…
Данное решение от Intel, на первый взгляд, идеально подходит. Аналогов, к сожалению, не нашел. Если кто-то предложит еще варианты $20-40 одноплатных linux-based систем с bt и wi-fi, буду премного благодарен.
Вариант «спроектируйте да закажите изготовление сами» — пока не рассматривается…
0
Вообще это wireless-модули такого плана дешево делаются на базе Arduino + RF.
Примеры:
moteino.com
pinocc.io
www.rfduino.com
В вашем случае подойдет разве что такое.
Примеры:
moteino.com
pinocc.io
www.rfduino.com
В вашем случае подойдет разве что такое.
0
Как там IO делается-то? В смысле, что оно умеет кроме математики?
+6
del
+2
и может конектиться к специальному app store
Интересно, это опять речь идет о монополизации процесса установки ПО на компьютер в руках компании Intel с последующим цензурированием ПО, или это просто как опция в дополнение к возможности установки ПО из других источников?
0
Интересный сценарий использования мог бы быть для роутера, что бы увеличить его производительность.
0
UFO just landed and posted this here
О, секундочку… Дык оно же х86 совместимо, вот в чём основная фишка же получается!
+1
Да а толку. Кризисы на 400MHz камне без FPU (или все-же с ним?) вряд-ли потянет. Винду выше версии 3.0 (или 2.1, уже не помню точно) тоже не удастся поюзать — начиная с версии 3.11 начинает страшно материца и не запускаться при отсутствии видео карты. ДОС или какой насмерть кастрированный (с тремя с половиной процессами) линух — самое оно. Но опять же, тот же линух есть под любую архитектуру, и особых прелестей юзать x86 линух, а скажем, не MIPS линух — никаких. x86 было бы хорошо, если бы оно могло всем привычные Автокады и прочие Ворды, но сабж этого явно не может. Поэтому остается только одно — DOS!
-1
А откуда такая уверенность в отсутствии видео?
-1
Да ну, работает винда вообще без видеокарты, сам проверял, заходил на удаленной рабочий стол. Тут больше от материнки зависит — говорят не на каждой так можно. С другой стороны нафиг винда на 400MHz? Linux и причем не особо кастрированный!
+1
Думаю имелась ввиду установка. Работать-то без видео, оно работает, факт.
А 400 МГц это не так уж и плохо вообще-то, у меня был в своё время Pentium II 333 МГц на вполне себе функциональной 2k. Про первые распространённые в народе пеньки с 266 МГц (да-да, те что с гордой приставкой MMX) вообще можно даже не упоминать — тоже всё отлично работало, хотя 98-ая винда это уже не серьёзно, конечно.
А 400 МГц это не так уж и плохо вообще-то, у меня был в своё время Pentium II 333 МГц на вполне себе функциональной 2k. Про первые распространённые в народе пеньки с 266 МГц (да-да, те что с гордой приставкой MMX) вообще можно даже не упоминать — тоже всё отлично работало, хотя 98-ая винда это уже не серьёзно, конечно.
+1
266 MHz, если память не подводит, это уже pentium 2 были, первые пеньки они бывали и без MMX начиная от 75 MHz.
Про первый распространенный вы, наверное, с 166 MMX перепутали.
Установку можно сделать через образ, может быть не совсем тривиально но точно реально.
Я вообщем то написал к тому, что нафиг тут винда вообще, какие реальные задачи тут может решить винда, которые не сможет linux.
Плюс же сей штуки на самом деле x86, но как выше писали — неясно что выкинули из чипа, может он будет тормознее схожего ARM.
Про первый распространенный вы, наверное, с 166 MMX перепутали.
Установку можно сделать через образ, может быть не совсем тривиально но точно реально.
Я вообщем то написал к тому, что нафиг тут винда вообще, какие реальные задачи тут может решить винда, которые не сможет linux.
Плюс же сей штуки на самом деле x86, но как выше писали — неясно что выкинули из чипа, может он будет тормознее схожего ARM.
+1
Ну да, без подробностей это гадание на гуще получается…
0
Подробности должны быть в даташитах.
Например:
Например:
Блочная диаграмма
Фичи процессорного ядра
И более тысячи страниц прочей инфы.• Single processor core
• Single Instruction 5-stage pipeline
• 32-bit processor with 32-bit data bus
• Integrated Floating Point Unit
• 16 Kbyte, 4-way shared instruction and data L1 write-back cache
• Integrated local APIC
• Support for IA 32-bit Pentium x86 ISA compatibility
• Supports C0, C1, and C2 states
• Supports Supervisor Mode Execution Protection (SMEP)
• Supports Execute-Disable Page Protection (PAE.XD)
• Single Instruction 5-stage pipeline
• 32-bit processor with 32-bit data bus
• Integrated Floating Point Unit
• 16 Kbyte, 4-way shared instruction and data L1 write-back cache
• Integrated local APIC
• Support for IA 32-bit Pentium x86 ISA compatibility
• Supports C0, C1, and C2 states
• Supports Supervisor Mode Execution Protection (SMEP)
• Supports Execute-Disable Page Protection (PAE.XD)
+1
Да может этот Quark и не тормознее схожего ARM, но для носимой электроники (области его применения) самым важным становится его потребление — а он поразит жрёт целых 2.2 Вт — см.: Intel® Quark SoC X1000 (16K Cache, 400 MHz)!
Но извините, ведь мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».
Или MIPS-чип, например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (притом, что он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
С одной стороны Intel Quark — это по-сути целая материнская плата, уже вместе с памятью. И его потребление = 2.2 Вт — это по-видимому потребление не только ядра процессора, но и всего его окружения: всех контроллеров и памяти.
Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
Зачем Intel тратит кучу деньги на впихивание x86-чипов в носимую электронику совершенно не понятно — потому как для этой новой области применения, нужен совершенно новый софт (ну не нужна там MS Windows), и НЕ нужна там совместимость с классическим x86/IBM-PC софтом:(
Так зачем же Intel хочет запихать свой Pentium в часы? Ну они же когда то выпускали ARM-чипы (StrongARM/XScale) — и делали это неплохо, зачем нужно сегодня зацикливаться на своёй x86-архитектуре, которая ну никак не подходит для часов?
По моему они должны либо разработать свою новую энергоэффективную архитектуру для мобильных процессоров (не совместимую с x86, типа RISC-процессоров Intel i860/i960), либо смирится и делать ARM-чипы для носимой электроники, выплачивая очень незначительные отчисления за лицензию компании ARM Ltd.:)
Но извините, ведь мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт! — см.: «Freescale создала экономичный ARM-процессор для нетбуков с поддержкой открытых платформ Android и Xandros».
Или MIPS-чип, например 32-битный 1-ГГц чип Ingenic JZ4770 потребляет лишь 0,25 Вт при 100% нагрузке процессора и видеоблоков (притом, что он производится с соблюдением устаревших 65-нм норм) — см.: «MIPS готовится к противостоянию с ARM и x86 на мобильном рынке?».
С одной стороны Intel Quark — это по-сути целая материнская плата, уже вместе с памятью. И его потребление = 2.2 Вт — это по-видимому потребление не только ядра процессора, но и всего его окружения: всех контроллеров и памяти.
Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.
Зачем Intel тратит кучу деньги на впихивание x86-чипов в носимую электронику совершенно не понятно — потому как для этой новой области применения, нужен совершенно новый софт (ну не нужна там MS Windows), и НЕ нужна там совместимость с классическим x86/IBM-PC софтом:(
Так зачем же Intel хочет запихать свой Pentium в часы? Ну они же когда то выпускали ARM-чипы (StrongARM/XScale) — и делали это неплохо, зачем нужно сегодня зацикливаться на своёй x86-архитектуре, которая ну никак не подходит для часов?
По моему они должны либо разработать свою новую энергоэффективную архитектуру для мобильных процессоров (не совместимую с x86, типа RISC-процессоров Intel i860/i960), либо смирится и делать ARM-чипы для носимой электроники, выплачивая очень незначительные отчисления за лицензию компании ARM Ltd.:)
+2
мощный ARM-чипы для планшетов, например 5-ядерный процессор Freescale i.MX515 (выпущенный ещё в 2009 году) потребляет всего 0,5 Вт!Он «мощный» только по сравнению с мобильниками того года. Более поздний и более быстрый четырёхъядерный i.MX6Quad в Zealz gk802 без тормозов даже голую Lubuntu не показывает, при том, что греется в металлическом корпусе так, что можно обжечься.
Но всё равно Intel`свская x86-архитектура не может тягаться по энергоэффективности (Производительность/Ватт) с ARM`мами и MIPS`мими — это уже ранее было многократно доказано.Intel, видимо, так не считает.
+1
практически по теме: мы недавно купили попробовать карточку Eye-Fi
идея неплоха, но пока куча баттхёрта с настройками и тыканий-пыканий, пока заработает…
По идее, этот эдисон (как один из вариантов применения) должен породить «более лучшую» Eye-Fi-подобную карточку.
А что — компьютер установлен в виде карточки в фотоаппарате, и никаких компьютерных функций самому фотоаппарату уже и не нужно. Управляешь этим компом с телефона, скажем, или с компа. Как тот же Eye-Fi, только лучше, больше возможностей.
И фотоаппараты могут стать легче и дешевле.
идея неплоха, но пока куча баттхёрта с настройками и тыканий-пыканий, пока заработает…
По идее, этот эдисон (как один из вариантов применения) должен породить «более лучшую» Eye-Fi-подобную карточку.
А что — компьютер установлен в виде карточки в фотоаппарате, и никаких компьютерных функций самому фотоаппарату уже и не нужно. Управляешь этим компом с телефона, скажем, или с компа. Как тот же Eye-Fi, только лучше, больше возможностей.
И фотоаппараты могут стать легче и дешевле.
0
Фотоаппарату в любом случае нужен свой «компьютер», перекладывать его функции на подобную карточку — глупо. Там почти всегда стоят специализированные SoC, процессоры общего назначения не справятся.
Вот смотрю я на свой фотоаппарат, который способен пережевывать 6 равок в секунду, делая постпроцессинг, да сжимая все это дело в jpeg. Мощная настольная станция не то что с проявкой равок на такой скорости не справится, даже обычный резайс не сделает.
Да и меньше и легче фотоаппараты не станут — вес и стоимость процессора в современной камере, это мизер по сравнению со всем остальным.
А вот кастомные прошивки для карточек типа Eye-Fi все же очень нужны. Нестабильность зачастую связана с глюками софта, да и хочется просто какие то стандартные протоколы обмена.
Вот смотрю я на свой фотоаппарат, который способен пережевывать 6 равок в секунду, делая постпроцессинг, да сжимая все это дело в jpeg. Мощная настольная станция не то что с проявкой равок на такой скорости не справится, даже обычный резайс не сделает.
Да и меньше и легче фотоаппараты не станут — вес и стоимость процессора в современной камере, это мизер по сравнению со всем остальным.
А вот кастомные прошивки для карточек типа Eye-Fi все же очень нужны. Нестабильность зачастую связана с глюками софта, да и хочется просто какие то стандартные протоколы обмена.
+1
Сервер выпал из бумажника и закатился куда-то под шкаф…
+5
Ждём microSD, можно будеть апгрейдить смартфоны (но зачем?),
0
Вопрос к автору статьи:
А откуда вы взяли, что «Intel представил двухядерный компьютер размером с SD-карту со встроенным WiFi и Bluetooth на представленной ранее Quark SoC»?
Почему компьютер-то получился двухядерный, когда Intel Quark SoC X1000 — является ОДНОядерным чипом?
А откуда вы взяли, что «Intel представил двухядерный компьютер размером с SD-карту со встроенным WiFi и Bluetooth на представленной ранее Quark SoC»?
Почему компьютер-то получился двухядерный, когда Intel Quark SoC X1000 — является ОДНОядерным чипом?
+2
www.intel.com/content/www/us/en/do-it-yourself/edison.html
The Intel Edison board features a low-power 22nm 400MHz Intel® Quark processor with two cores, integrated Wi-Fi and Bluetooth*, and much more.
The Intel Edison board features a low-power 22nm 400MHz Intel® Quark processor with two cores, integrated Wi-Fi and Bluetooth*, and much more.
+2
Ну т.е. в Intel Edison впихнули не совсем тот самый Intel Quark SoC X1000, который был представлен ранее!
Вы тогда из своей статьи уберите пожалуйста ссылку и фразу: "… на представленной ранее Quark SoC".
Потому как то, что было ранее представлено в виде Intel Quark SoC X1000 — имеет ОДНО ядро и выполнено по 32 nm техпроцессу — см.: Intel Quark SoC X1000.
Да и ещё если возможно попробуйте пожалуйста объяснить: зачем же в носимой электронике типа SmartWatch нужны целых ДВА CPU-ядра?
На мой взгляд в носимой электроники нужно минимальное энергопотребление:(
И мне очень интересно как Intel собирается использовать эти ДВА ядра в часах?
Вы тогда из своей статьи уберите пожалуйста ссылку и фразу: "… на представленной ранее Quark SoC".
Потому как то, что было ранее представлено в виде Intel Quark SoC X1000 — имеет ОДНО ядро и выполнено по 32 nm техпроцессу — см.: Intel Quark SoC X1000.
Да и ещё если возможно попробуйте пожалуйста объяснить: зачем же в носимой электронике типа SmartWatch нужны целых ДВА CPU-ядра?
На мой взгляд в носимой электроники нужно минимальное энергопотребление:(
И мне очень интересно как Intel собирается использовать эти ДВА ядра в часах?
0
Одно ядро будет таймером, а второе — выводить время на экран, конечно же ,)
+1
Например, одно реал-тайм, жрёт мало и всегда работает. Второе включается когда нужно что-то посчитать. И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.
Расскажите нам зачем в смартфонах 8 ядер big.LITTLE, а мы тут дружно посмеёмся над идиотами производителями, которые не знают как правильно делать чипы.
Кстати, а если в Edison окажется более свежая версия Quark, то вы заявите что вас обманули и на этом основании скажете, что продукт отстой? :)
Расскажите нам зачем в смартфонах 8 ядер big.LITTLE, а мы тут дружно посмеёмся над идиотами производителями, которые не знают как правильно делать чипы.
Кстати, а если в Edison окажется более свежая версия Quark, то вы заявите что вас обманули и на этом основании скажете, что продукт отстой? :)
0
Ну во-первых если бы в Intel сделали более свежую версия Quark — о-ооо, да ихние маркетологи бы не упустили такой возможности, чтобы раструбить об этом на весь мир — об очередной победе на пути к коммунизму одержанной славной корпорацией Intel.
Ну, что вы реально думаете, что вот в IV-ом квартале 2013 года они с такой помпой только-только запустили в производство версию Intel Quark SoC X1000 (16K Cache, 400 MHz, 1 Cores, 32 nm) — не продали ещё ни одного чипа (только лишь бесплатно раздали всю выпущенную партию заинтересованным разработчикам).
— И вдруг тут же в I-ом квартале 2014 года, тихо безо всякого шума, запустили производство нового Intel Quark SoC (400 MHz, 2 Cores, 22 nm) — и никому об этом не объявили, и даже не вывесили никакой строчки на странице Products family: Intel Quark SoC.
Как-то чудно:(
Какая-то небывалая скромность для корпорации Intel (они обычно на 10 MHz повысят частоту какого-нито своего чипа и то об этом раструбят).
Я думаю, что тута всё намного проще, просто какие-то маркетологи Intel перепились на Новый год и всё перепутали (не могли на своём же сайте проверить информацию прежде чем публиковать), а может даже и специально вводят несведущую публику в экстазирующий восторг и пугают конкурентов.
Ну, что вы реально думаете, что вот в IV-ом квартале 2013 года они с такой помпой только-только запустили в производство версию Intel Quark SoC X1000 (16K Cache, 400 MHz, 1 Cores, 32 nm) — не продали ещё ни одного чипа (только лишь бесплатно раздали всю выпущенную партию заинтересованным разработчикам).
— И вдруг тут же в I-ом квартале 2014 года, тихо безо всякого шума, запустили производство нового Intel Quark SoC (400 MHz, 2 Cores, 22 nm) — и никому об этом не объявили, и даже не вывесили никакой строчки на странице Products family: Intel Quark SoC.
Как-то чудно:(
Какая-то небывалая скромность для корпорации Intel (они обычно на 10 MHz повысят частоту какого-нито своего чипа и то об этом раструбят).
Я думаю, что тута всё намного проще, просто какие-то маркетологи Intel перепились на Новый год и всё перепутали (не могли на своём же сайте проверить информацию прежде чем публиковать), а может даже и специально вводят несведущую публику в экстазирующий восторг и пугают конкурентов.
+1
> И Quark — это чип, Edison — полноценная система, там даже на фотографии видно что там много чипов внутри.
Вот этой фразой вы вообще меня насмешили:)))
Т.е. вы утверждаете, что Intel Edison — это ДВУХ-ПРОЦЕССОРНЫЙ компьютер!
Нет, ну двух-ядерный чип это ещё как-то можно переварить (хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек).
Вы тут вспомнили смартфоны — так вот по-моему пока-что никто ещё не догадался выпустить НИ ОДНОГО — ни Смартфона, ни даже Планшета, ни Смартбука, ни Ультрабука ни даже компактного Ноутбука на ДВУХ-ПРОЦЕССОРНОЙ платформе — ну таких просто не бывает.
Пока обычно в IT-отрасли встречаются лишь ДВУХ-процессорные Рабочие станции и Сервера.
Да и на фотографии прекрасно видно, что все чипы Intel Edison являются разного размера, разного вида и предназначения, ну нету тама никаких двух одинаковых чипов Intel Quark SoC.
Ну может быть Intel Edison — это настоящий сервер — га-га-га :)))))))))))
Вот этой фразой вы вообще меня насмешили:)))
Т.е. вы утверждаете, что Intel Edison — это ДВУХ-ПРОЦЕССОРНЫЙ компьютер!
Нет, ну двух-ядерный чип это ещё как-то можно переварить (хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек).
Вы тут вспомнили смартфоны — так вот по-моему пока-что никто ещё не догадался выпустить НИ ОДНОГО — ни Смартфона, ни даже Планшета, ни Смартбука, ни Ультрабука ни даже компактного Ноутбука на ДВУХ-ПРОЦЕССОРНОЙ платформе — ну таких просто не бывает.
Пока обычно в IT-отрасли встречаются лишь ДВУХ-процессорные Рабочие станции и Сервера.
Да и на фотографии прекрасно видно, что все чипы Intel Edison являются разного размера, разного вида и предназначения, ну нету тама никаких двух одинаковых чипов Intel Quark SoC.
Ну может быть Intel Edison — это настоящий сервер — га-га-га :)))))))))))
+1
Если я всё понимаю правильно, то речь о совершенно разных ядрах для разных целей, а не о двухядерном процессоре в классическом понимании.
Если вам надо что-то отобразить на дисплее 96х96, то вам хватит микросхемы, в которой на несколько порядков меньше транзисторов. Идея в том, чтобы устройство было умным — а это значит что там или можно гонять какие-то сложные алгоритмы (машинное обучение, например, не слышали про такое?), или взять какие-то фреймворки/языки из более взрослых платформ и заэнейблить их на маленьком девайсе для простоты работы с ними / скорости прототипирования — тот же JS, например. Это, конечно, прекрасно когда приходится программировать контролеры на Embedded C с ассемблером, но не всех это устраивает.
хотя я так и не понял, что там надо посчитать-то в носимой электронике типа часов с дисплеем 96х96 точек
Если вам надо что-то отобразить на дисплее 96х96, то вам хватит микросхемы, в которой на несколько порядков меньше транзисторов. Идея в том, чтобы устройство было умным — а это значит что там или можно гонять какие-то сложные алгоритмы (машинное обучение, например, не слышали про такое?), или взять какие-то фреймворки/языки из более взрослых платформ и заэнейблить их на маленьком девайсе для простоты работы с ними / скорости прототипирования — тот же JS, например. Это, конечно, прекрасно когда приходится программировать контролеры на Embedded C с ассемблером, но не всех это устраивает.
+1
Извините, но это фантазии:(
Об этом Intel нигде ничего не говорит!
Не надо фантазировать, ну согласитесь, что двухядерный Intel Edison — это просто ошибка маркетологов.
На сайте Intel: ark.intel.com/products/family/79047/Intel-Quark-SoC — нету никаких двухядерных Intel Quark SoC
И Intel Edison просто не может быть двухпроцессорным компьютером — материнская плата двухпроцессорных систем намного сложнее, на ней на много больше, чем на однопроцессорной системе всяких дополнительных микросхем организующих связь и взаимодействие двух (тем более разных) процессоров.
Об этом Intel нигде ничего не говорит!
Не надо фантазировать, ну согласитесь, что двухядерный Intel Edison — это просто ошибка маркетологов.
На сайте Intel: ark.intel.com/products/family/79047/Intel-Quark-SoC — нету никаких двухядерных Intel Quark SoC
И Intel Edison просто не может быть двухпроцессорным компьютером — материнская плата двухпроцессорных систем намного сложнее, на ней на много больше, чем на однопроцессорной системе всяких дополнительных микросхем организующих связь и взаимодействие двух (тем более разных) процессоров.
0
www.engadget.com/2014/01/06/intel-edison/
Процессор точно 22нм. На keynote сладах CEO ошибок такого рода не бывает. И ядра точно два то тойже причине. Ещё раз — спеки на сайте и слайды CEO — это разные вещи.
На счёт природы двухядерности — я останусь при своей гипотезе. К сожалению, до новой порции публичной информации об этом спекулировать дальше не имеет смысла. Но то, что Quark в Edison — это несколько другой кварк, нежели представленный ранее, похоже на правду.
Процессор точно 22нм. На keynote сладах CEO ошибок такого рода не бывает. И ядра точно два то тойже причине. Ещё раз — спеки на сайте и слайды CEO — это разные вещи.
На счёт природы двухядерности — я останусь при своей гипотезе. К сожалению, до новой порции публичной информации об этом спекулировать дальше не имеет смысла. Но то, что Quark в Edison — это несколько другой кварк, нежели представленный ранее, похоже на правду.
+1
Всё оказывается очень просто — в конце статьи Engadget сказано:
«It'll be available sometime in mid-2014.»
И конечно же к середине 2014 года, Intel вполне может запустить производство новой версии Quark SoC — на 22 нм и с 2-мя ядрами — это похоже на правду:)
Только я так и не смогу понять зачем же устройствам типа SmartWatch нужны два ядра — наверное, чтобы быстрее сожрать и прикончить батарейку:)
«It'll be available sometime in mid-2014.»
И конечно же к середине 2014 года, Intel вполне может запустить производство новой версии Quark SoC — на 22 нм и с 2-мя ядрами — это похоже на правду:)
Только я так и не смогу понять зачем же устройствам типа SmartWatch нужны два ядра — наверное, чтобы быстрее сожрать и прикончить батарейку:)
0
Не имея достовеной информации по этой теме, я поддерживаю ваш последний комментарий. Сейчас есть одноядерные модели, через полгода появятся двухядерные. Это — нормальная практика развития.
+1
Я проконсультировался с товарищами, занимающимися проектом Edison, и они мне подтвердили, что чип действительно 22нм, действительно двухядерный (в классическом понимании этого слова — два одинаковых ядра на одном кристалле).
Как ядра будут использованы в итоге может зависеть от того, где чип будут применять, но один из вариантов — одно ядро бежит в энергосберегающем режиме, а второе включается для того, чтобы посчитать ресурсоёмкие задачи. Факт, что железо допускает такой сценарий использования, всё остальное — моя интерпретация.
Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа. Просто я не думал, что удастся реализовать настолько хорошее управление питанием, что можно будет включать-отключать ядро и сильно варьировать его энергопотребление.
Да, кстати, всё сказаное мной является публичной информацией, которая озвучивалась во время CES в многочисленных интервью техническим изданиям. Странно, что так мало информации в итоге оказалось в статьях ведущих изданий.
Одно из следствий того факта, что чип 22нм — это то, что кушать он будет не 2.2Вт, а заметно меньше.
Как ядра будут использованы в итоге может зависеть от того, где чип будут применять, но один из вариантов — одно ядро бежит в энергосберегающем режиме, а второе включается для того, чтобы посчитать ресурсоёмкие задачи. Факт, что железо допускает такой сценарий использования, всё остальное — моя интерпретация.
Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа. Просто я не думал, что удастся реализовать настолько хорошее управление питанием, что можно будет включать-отключать ядро и сильно варьировать его энергопотребление.
Да, кстати, всё сказаное мной является публичной информацией, которая озвучивалась во время CES в многочисленных интервью техническим изданиям. Странно, что так мало информации в итоге оказалось в статьях ведущих изданий.
Одно из следствий того факта, что чип 22нм — это то, что кушать он будет не 2.2Вт, а заметно меньше.
+3
Так там, значит, не Кварк? По крайней мере, не тот Кварк, что уже был представлен и числится на ark'е?
+1
Стоп. Теперь уже я перестала понимать. Кварк в Edison — НЕ тот, который уже выпущен и есть в ARK. Да? Так что же такое это «Так что посыпаю голову пеплом за свою теорию, что будет два разных чипа»? Или я что-то пропустила?
+1
Выше я писал, что возможно двухядерность значит два разных ядра возможно на разных кристаллах. Это не так. Чип двухядерный в классическом понимании этого слова (два одинаковых ядра на одном кристалле).
И да, ещё раз, это не тот Кварк, который в ARK, ибо в ARK 32нм одноядерный. Тот, что в Edison он 22нм и двухядерный. Это всё на CES подробно рассказывали в интервью различным изданиям, только как-то всё это затерялось за короткими аннонсами на один абзац, которые всплывают в Гугле на первой странице.
И да, ещё раз, это не тот Кварк, который в ARK, ибо в ARK 32нм одноядерный. Тот, что в Edison он 22нм и двухядерный. Это всё на CES подробно рассказывали в интервью различным изданиям, только как-то всё это затерялось за короткими аннонсами на один абзац, которые всплывают в Гугле на первой странице.
+1
Sign up to leave a comment.
Встречайте Intel Edison — компьютер размером с SD-карту