Как стать автором
Обновить

Комментарии 41

Это будет новым глотком воздуха на рынке. В этой области как раз не хватает технических новинок, а интел и амд в этом плане как-то не сильно шевелятся, продолжая растить ядра и мегагерцы. Если вспомнить ION от Nvidia, то очень хочется верить, что и тут у них будет достойное предложение.
Хорошо бы если новым глотком воздуха. С бóльшей вероятностью nVidia перекроет последний кислород AMD, а Интел сохранит свои ~80% рынка.
Зелёные слишком зелены в разработке x86 совместимых камней.
NVIDIA хотела купить VIA (может уже и купила), а VIA в свое время купила Cyrix.
И все 3 в свое время выпускали процессоры:
NVIDIA — графические
VIA & Cyrix x86

Так что опыт-то есть…
Вы путаетесь. AMD сейчас особо и нечего предложить на рынок нетбуков, на который расчитывает nVidia. Кроме как порезанные до немогу ULV Турионы. AMD все так же будет боротся на рынке десктопов и серверов. nVidia наверняка перекупит у VIA разработки в области холодных x86 совместимых процессоров.
Чушь. Это _сейчас_ AMD «особо нечего» предложить, а что будет к моменту выхода гипотетического проца от nVidia (2-3 года) — это большой вопрос. В любом случае — будет Intel и «others» бодающиеся за свою дольку оставшихся 10-20% рынка.
Чушь? Вы обладаете машинной времени? Если нет, то с чего вы взяли, что AMD будет что предложить? У AMD никогда не было полноценного ответа на C2D M, только менее производительные, но более дешевые турионы. Единственный ответ на Atom — это модификация Geode, максимально упрощенный и охлажденный вариант старого Athlon XP.

VIA и nVidia объявляли про стратегическое партнерство в сфере строения мобильной платформы в апреле прошлого года. Разрабатывать процессор с нуля, и тянуть еще 2-3 года nVidia не будет, ибо будет уже поздно. Если не вывести за полгода-год альтернативу — о рынке процессоров для нетбуков можно будет забыть. И я думаю, что у nVidia + VIA — уже огромные сподвижки, а эта новость — так, для затравки.
2-3 года — это цифра «озвученная» в посте и прочих «интернетах». И не вижу ни одной причины почему AMD за такой срок не может выкатить достаточно привлекательный вариант нетбучного CPU.

PS: Есть ли у меня машина времени? Я арендую её там же где и Вы. :)
И хорошо, что не шевелятся так активно, как производители видеокарт. Ибо каждый год менять видео — это одно, а каждый год менять проц и ещё пол-системника (мать, память) под него — другое. Даже те относительно редкие переходы на новые сокеты, которые случаются раз в несколько лет, общественность воспринимает, мягко говоря, не очень позитивно.
интересно, будет ли востребован x86 через три года… Сейчас ведь софт пишут на C++, или на еще более высокоуровневых языках. Не должно быть особых проблем для компиляции под любую платформу. Если из Windows платформозависимый код уберут к тому времени, можно будет на ARM перейти, например
Плтвормозависмость всё равно остаётся. Порядок байт, доступ к невыровненым данным, работа с виртуальной памятью — это очень даже платформозависимые вещи. Это не считая того, что вообще не понятно зачем переходить на более медленный (хоть и более экономичный) ARM?
Экономичность, продуманность архитектуры и команд, отсутствие накопленного х86 багажа — чем не повод?

Вспомним домашний ARM based home server от Marvel, Nokia N8X0, концепты MID — позиции х86 не настолько и непоколебимы.

P.S. Debian, Maemo, NetBSD отлично живут как на х86 так и на ARM.
Экономичность, продуманность архитектуры и команд, отсутствие накопленного х86 багажа — чем не повод?
На самом-то деле есть только экономичность — и то под вопросом. Архитектура уже давно испорчена (вот первые ARM'ы — это была вещь, а потом они пошли по тому же пути, что и x86), багажа тоже уже хватает…

Вы можете привести примеры чем испорчена архитектура ARM и каким багажом обременена?
Thumb mode и вообще новые дополнения. То есть если с первоначальной системой команд всё было просто и понятно — такой вполне себе RISC, где практически все команды могли быть условными, barrel shifter мог использоваться везде, практически все регистры могли использоваться взаимозаменяемо и всё было красиво. А потом появились команды без поддержки и barrel shifter'а, дальше — Thumb (где если регистры «первого класса» и «второго класса», часть режимов адресации выделена, появилась специальная обработка sp и т.п.), ну и под занавес всякие загадочные вещи типа USAD8 или 32битных инструкций в Thumb-mode (ADD Rd, Rn, #<imm12> или MLS Rd, Rm, Rs, Rn). Короче это уже давно не RISC, а вполне себе полноценный CISC — пусть и несколько менее уродливый чем x86…
Вспомним домашний ARM based home server от Marvel, Nokia N8X0, концепты MID — позиции х86 не настолько и непоколебимы.
На выставке можно показать что угодно — хоть Sparc, хоть PowerPC. Вопрос «как это продаётся»…
ВАЗ продается на постсоветском пространстве в количествах превышающих в разы продажи Mercedes или BMW — неужели он лучше чем они?!
Вопрос не в том что лучше, вопрос в том, что жизнеспособнее. Если бы Mercedes и BMW продавались только в постсоветском пространстве, то вопрос об их жизнеспособности стоял бы на повестке дня. Но они продаются не только там…
Это прекрасно! Тогда почему мы не видем стапроцессорных чудо-серверов на ARM?
Кстати, арихитектура весьма плохенькая — многого не хватает. Система команд тоже так себе. За счёт множетсва расширений там зоопарк не на много меньше чем у x86. Производительность сильно хромает, даже у распоследнего Coretx, которого толком ещё никто и не видел. Единственный плюс — малое потребление. Но для серверов и десктопов это совершенно не критично.
Зачем? WinCE успешно собирается и работает под ARM. Вот только зачем ARM'у приходить на десктоп? Он не обеспечит нужной производительности. Ему уютно в MID, смартфонах.

nVidia как видно из новости, желает создать SoC, т.е. есть расчет на то, что он будет малопотреблять (иначе засунуть все это в одну упаковку — не выйдет). Значит они нацелились на рынок нетбуков и портативных компьютеров, домашних медиацентров и т.д.
Святая наивность. Неважно на каких языках пишут код — важно где и как его запускают. Бо́льшая часть пользователей не имеет доступа к исходному коду. А компании заставившей что-либо работать совершенно не улыбается тратить время на всю эту кроссплатформенность. Windows NT 3.1 поддерживала IA-32, MIPS R3000/R4000 и Alpha, Windows NT 3.51 — ещё и PowerPC, но Windows Vista — уже только IA-32 и x86-64…
НЛО прилетело и опубликовало эту надпись здесь
Может быть ещё и следующий будет работать. Собственно это доказывает что если очень надо — перевести программу на другую платформу всё-таки можно. Но если только очень надо, не в том случае когда можно выиграть пару долларов.
Ну, Atom надежд на недорогие и долгоживущие MID'ы не оправдывает. Так что продолжаем надеяться ;-)
У Atom'а прожорливый чипсет — уверяю вас, решить проблемы с чипсетом гораздо проще, чем разработать новый процессор…
Верю, что проще. Но, может, наличие альтернативы хотя бы подтолкнет разработку в этом направлении? А то качественного прогресса в области MID не видно уже несколько лет…
У новых атомов новый чипсет
Еще более прожорливый чем 945GC… Зато быстрее и лучше. Странные они. Лучше бы тотже 945GC на новый техпроцесс перевели и снизили бы энергопотребление. Это все кризис гадкий, на новые разработки денег жалко.
Я думаю это произойдет в любом случае, потому что технология вычислений на видеокарте набирает обороты и nvidia может очень хорошо выехать на этом если начнет делать оптимизированные процессоры, которые будут отлично работать в связке с их видеокартами. Может даже они выпустят x86 видеокарту и на ней можно будет запускать операционные системы. Поправьте меня если такое невозможно по каким то причинам.
Если не ошибаюсь, то раньше все вычисления графические были именно задачей процессора. Теперь же перспектива наоборот, хотя суть одна.
Это только на платформе PC так было. А на других платформах… MSX уже имел GPU, которое по некоторым показателям мощности превосходило CPU… Это больше четверти века назад…

Конечно тогда GPU был гораздо более ограничен, но принцип остаётся неизменным: GPU очень хорошо работает для некоторых задач, CPU — неплохо для всех. Как бы nVidia не пыжилась, но без процессора ей не обойтись. Другое дело что если не гнаться за самой максимальной производительностью, то сделать процессор не сложнее чем видеокарту — только лицензии на несколько ключевых патентов нужны… Дешевле всего, наверно, купить VIA — благо у неё сейчас дела швах и стоит она явно недорого…
У VIA очень хорошие встраиваемые материнки для промышленных компьютеров (mini-itx, pico-atx, nano-itx) и пр. так что я бы так горячо не стал бы их хоронить. Особенно учитывая что одноядерный VIA Nano производительнее одноядерного Intel Atom.

P.S. В случае дружбы NVidia ION + VIA Nano против Intel Atom последняя может и проиграть на рынке нетбуков и домашних серверов-медиацентров.
У VIA есть кой-какие наработки, но статистика убойная: доход в 2005м году — 590.59 миллионов, в 2006м — 660.56 миллионов, но в 2007м — 446.88 миллионов, а в 2008м — 252.73 миллионов! За первые два месяца этого года — 22.05… Это ещё не конец — но как-то недалеко от него…
Можно ознакомится со ссылками на статистику?

P.S. После того как аналитики прохлопали кризис в США точность их прогнозов приблизилась к точности прогнозов синоптиков — с погодой угадали, но ошиблись с датой.
Статистика лежит у них на сайте (погуляйте по пресс-релизам). Конечно неясно насколько ей можно верить, но обычно компании склонны преуменьшать свои проблемы, а не преувеличивать.
Спасибо!

Жаль конечно… Мне очень нравятся продукты этой компании.
Графические вычисления — очень узкая задача из всего семейства вычислительных задач, но, к сожалению, x86 — не самая оптимальная для этото платформа по производительности.
А так, конечно, можно и в телефоны x86 пихать. Только толку?
есть все предпосылки к тому, что производитель GPU все же в скором времени может стать прямым конкурентом Intel.

Разделяй и властвуй © AMD (ATi)
Гетерогенная архитектура Intel уже не за горами.
Объединить CPU и GPU на одном чипе… я думаю это уже будет прорывом! Надеюсь у них все получится!
имхо, это надо только на мид, нетбуках и бюджетных десктопах и ноутах.
бля игр всё же неообходимо внешняя карта. Хотя если будет это реализовано как в Гибрид Сли от нвидиа — то былобы просто супер. Базово отрисовку и вычисления отвечает встроеное ядро, если нехватает, то подключаем внешнее
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории