Pull to refresh

Comments 76

Тут еще не написано про представленный Project Shield — игровую консоль на андроиде, аналог ouya, но еще и с мини дисплеем. Так что да, ждем ответа от Qualcomm и Samsung
Кстати, эта консоль позволит играть в ПК-игры по WiFi. Правда для этого потребуется видеокарта не ниже GeForce GTX 650 и процессор от Core i5 и выше.
UFO just landed and posted this here
Хейтеры не шутят — они минусуют
UFO just landed and posted this here
Ну вот вам шутка:
Утекшие в сеть бенчмарки Tegra 4 - 32,6 fps в Egypt-HD
image


Для сравнения, у Google Nexus 10 в том же тесте 36 fps, у iPad 4 — 52 fps.
UFO just landed and posted this here
UFO just landed and posted this here
Хм, а три года назад были неплохие посты. Взломали что ли?
UFO just landed and posted this here
Ох и NVidia… АЙ молодэээц…
Только вроде брал девайс на Tegra 3 и мог смело кричать, что у меня «ну ваще крутой девайс»… Теперь уже так не скажешь =)
Похоже на историю с iPad-ом. Вроде в начале прошлого года выпустили хорошую модель, а осенью ещё лучше. То же самое видно и у китайских планшетостроителей — только заказал планшет, он ещё и доехать до меня успел, а вышла модель получше за те же деньги.
Да вы знаете, оно как-то уже не торкает… год с чем-то назад купил себе 2ой, и как-то до сих пор вообще не обламывает, у жены гэлакси таб первый, вот там чувствуется что это уже гавно мамонта, при условии что разница в пол года… IPhone-ом не пользуюсь, может там как-то по другому, а вот с IPad-ом, пока не знаю что меня заставит его обновить…
У меня galaxy tab 8.9, с цианогеновым 4.1. Весьма ОК, нет никакого желания менять на что-то другое. Хотя… я вот на нём видео не смотрю, иначе бы на стенку бы лез уже, да.
Поставьте жене cyanogenmod 10, сборку желательно 20121116. У самого такой же таб, есть небольшие тормоза, но оно много лучше 2.3.
А как же Retina? По-моему, самый существенный повод для обновления.
в чем существенность? читать мне и с этого экрана комфортно, да видел, да красивый, но функционала не прибвелось, а вот весу, субьективно, прибавилось…
Мне после покупки ретинового iPad пришлось сменить ноутбук на макбук с ретиной и телефон на iPhone с ретиной… не обновляйте свой iPad!
какая разница, главное чтобы железяка была в состоянии выполнять возложенные на нее задачи, а при нынешнем прогрессе никаких денег нехватит чтобы всё постоянно обновлять
Вот с этим полностью согласен! Я не знаю дело ли в продукции яблочной компании или сам изменился, но после перехода на мак и айпад, практически пропало желание что-либо обновлять. Раньше сидел на ноутах с виндой и на андройдах, и каждый раз уже буквально после покупки хотелось обновить девайс, а сейчас даже обновления ПО качаю неохотно! Самое приятное для себя открыл что не хочется даже холливарить о мегагерцах и мегабайтах, у меня все работает и все…
Если бы Nvidia еще полные даташиты на Tegra в открытый доступ выложила, было бы вообще замечательно.
UFO just landed and posted this here
Давно интересовало: шейдерные процессоры Tegra допустимо сравнивать с десктопными? Ну например с древним G80?
Корректнее как раз не с древними G80, а с современными Fermi и Kepler, где тоже упор на многопоточность и этих шейдерных процессоров сотни.
У G80 не сотни, а сотня, плюс-минус. С точки зрения количественных характеристик они ближе к тегре. Ну и «сотня» — достаточно для упора на многопоточность…

Блин, великий и могучий 8800GTS 320/640 имел 96 потоковых процессоров. 5-6 лет назад он был очень хорош. Вполне тянул не менее великий и могучий Crysis :) Сейчас у мобильника/планшета может быть схожая производительность?

Вот бы ARM чипы еще догнали Conroe по производительности на такт, не жертвуя энергоэффективностью…
Сейчас у мобильника/планшета может быть схожая производительность?

Ещё нет. Но есть предпосылки что в следующем году топы приблизятся к уровню текущих консолей.
По слухам в данном GPU лишь 20битные шейдерные ALU и не унифицированная архитектура.
Т.е. не будет OpenCL, OpenGL ES3.0.
GPU в Tegra4 опять на поколение отстаёт по фичам от современных MALI T6xx и скоро обещаемого PowerVR 6.
Но что там с производительностью ещё не ясно.

Вот бы ARM чипы еще догнали Conroe

1 ядро A15 @ 1.9GHz должно быть не намного медленней Conroe 2GHz (10-30%)

«в следующем году топы приблизятся к уровню текущих консолей.»
Вроде уже давно обогнали.

«1 ядро A15 @ 1.9GHz должно быть не намного медленней Conroe 2GHz (10-30%)»
Оно не намного медленнее Atom'а. Отставание от производительных x86 архитектур катастрофическое.
Вроде уже давно обогнали.

Кого обогнали и в чём?

Оно не намного медленнее Atom'а.

Давайте посмотрим, например www.7-cpu.com/
В отличии от большинства бенчмарков, этот тест не является потоковым и создаёт комплексную нагрузку как на подсистему памяти так и на конвеер и чувствителен к качеству реализации предсказателя ветвлений, количеству стадий и взаимосвязи почти всех частей целочисленного конвеера.

скорость сжатия/распаковки LZMA
Atom N270 @1.6GHz — 700/900 (десктопный Атом)
Cortex-A15 @1.7GHz — 1350/1830
Intel Core 2 @2GHz — 2000/2000 (референс)

На одной частоте A15 будет уже быстрее на распаковке чем Conroe.
«Кого обогнали и в чём?»
На презентации Kal-El (Tegra 3) NVIDIA заявила, что данный чип по производительности сравним с интегрированной в PS3 графикой.
(никто не будет спорить, что железо в текущем поколении приставок устарело катастрофически?)

«Давайте посмотрим, например»
Еще примеры будут? Нет? О том и речь. Кроме ALU есть и FPU. И даже в мире Intel vs AMD есть комплексные бенчмарки, в которых то один, то другой выигрывает. А вы дали узкозаточенный… И на самом деле вполне себе многопоточный (очень заметен почти линейный рост производительности в зависимости от числа ядер). Неизвестно, какие в каком случае расширения ЦП использовались,

Вот другое сравнение:
www.androidauthority.com/iphone-5-bests-galaxy-s3-intel-atom-sunspider-browser-benchmark-116370/
Вторая строчка — ущербный смартфонный атом. N270 вроде побыстрее z-серии.

Так что давайте еще хоть один тест. Желательно — которым хоть кто-нибудь в мире пользуется…
На презентации Kal-El (Tegra 3) NVIDIA заявила, что данный чип по производительности сравним с интегрированной в PS3 графикой.

Это просто смешно. 8GFlops и 6.4GB/s ПСП против RSX. Ну да, ну да.

Вторая строчка — ущербный смартфонный атом.

Ооо, это просто вершина адекватности — сравниваются разные версии Javascript машины на разных платформах.

Еще примеры будут? Нет?

Да пожалуйста
«8GFlops и 6.4GB/s ПСП против RSX. Ну да, ну да.»
Измеряем производительность видеочипов в гигафлопах и в ПСП. Шедевр. Видимо, ЦП по мегагерцам сравниваете. На досуге возьмите две примерно одинаковые по игровой производительности карты от NVIDIA и AMD и гляньте, насколько последняя быстрее в попугаях. А потом ознакомьтесь с различными подходами к архитектуре вычислительных ядер.

«сравниваются разные версии Javascript машины на разных платформах.»
Сравнивается все одинаковое для A9 и Atom. Результаты для А15 гуглятся легко (почему-то сейчас не смог найти нужный обзор, еще поищу).

«Да пожалуйста»
Спасибо за ссылку, прекрасная демонстрация того, насколько катастрофически А15 отстает от Conroe (на самом деле там Arrandale, но между ними разницы 10-20% в самых тяжелых случаях). Не забудьте остальные страницы полистать.
Измеряем производительность видеочипов в гигафлопах и в ПСП. Шедевр

Представляете, именно в этом она и измеряется =)
По-сути, у современного GPU есть всего несколько блоков, выполняющих всю работу — ALU, ROP, TF и тесселятор.
От ПСП напрямую зависит филлрейт, скорость текстурирования.
От производительности ALU (гигафлопсов) — скорость выполнения шейдеров.
Растеризатор и прочее — мелочи. А вот тормозные FP32 операции (или их отсутствие в Теграх) это фатально.

и гляньте, насколько последняя быстрее в попугаях

Это вопрос баланса конкретных приложений / глюков. У каждого GPU есть свой sweet-spot. Nvidia прогоняет выходящие игры и изучает их проблемные места. У AMD такой команды нет. Им пофиг.

Результаты для А15 гуглятся легко

Я вам помогу — 660ms

на самом деле там Arrandale

i3 330m это SandyBridge
Хотя да, моя ошибка — Arrandale
«От ПСП напрямую зависит филлрейт, скорость текстурирования.»
Неверно. Только в пределах возможностей блока текстурирования.

«От производительности ALU (гигафлопсов) — скорость выполнения шейдеров.»
Еще раз предлагаю внимательно изучить причины, по которым архитектура AMD дает большие гигафлопсы при равной игровой производительности.

«А вот тормозные FP32 операции (или их отсутствие в Теграх) это фатально.»
Ох уж эти диванные аналитики :)
Почитайте www.engadget.com/2011/01/27/the-sony-psp2/ и сделайте выводы. В PS Vita SGX543MP4.
Почему-то приставочные игры запускаются на данном чипе без особых телодвижений.

«Это вопрос баланса конкретных приложений / глюков.»
Неверно. Думайте дальше. Намекаю: причина очень похожа на причину, по которой имеющийся в той же PS3 CELL, будучи очень быстрым в попугаях, на деле оказывается крайне неторопливым.
Неверно. Только в пределах возможностей блока текстурирования.

У разных чипов разные соотношения пропускной способности текстурников к возможностям подсистемы памяти. Но если ПСП превышает возможности текстурников, это говорит о плохом балансе чипа (естественно я не говорю о тяжелых режимах фильтрации где может понадобиться масса семплов).
GPU спроектирован так, что латентность памяти (при чтении текстур) скрывается путём отслеживания множества параллельных запросов и обработке их в порядке поступления данных.

Почему-то приставочные игры запускаются на данном чипе без особых телодвижений.

На Vita запускаются «приставочные игры» расчитанные именно на неё.
Шейдеры с PS3 (при соблюдении множества ограничений) можно завести на Vita (как делали, скажем, авторы Wipeout), только они будут тормозить.

Неверно. Думайте дальше. Намекаю: причина очень похожа на причину, по которой имеющийся в той же PS3 CELL, будучи очень быстрым в попугаях, на деле оказывается крайне неторопливым.

А можно в шокирующих подробностях, очень интересно :-)

Ну а вообще, о чем мы продолжаем спорить?

Я — не спорю. Я рассказываю.

Вы доказали, что A15 даже до устаревших настольных x86 архитектур как до Китая раком

Если мне не изменяет память, кто-то доказывал что A15 медленнее атома =)

Sony доказала, что современный мобильный видеочип вполне может запускать игры с безнадежно устаревшей приставки.

Хахаха. 543MP4 МИНИМУМ на ПОРЯДОК медленнее RSX (и это на очень вылизанном коде). Возможностей современных мобильных чипов едва хватает на простейшие шейдеры.
«Безнадёжно устаревшие» приставки тянут все современные игры.

выдавая сравнимую производительность

Покажите, наконец, хоть какой-нибудь Crysis 2 или GTA 4 на Vita.

Или хотя бы Journey — там всего-то обрабатывается 8 миллионов движимых ветром микрозеркал в каждом кадре для симуляции песка.

Ох уж эти диванные аналитики

Да вообще! Hint: Смотрите инфо

«Но если ПСП превышает возможности текстурников, это говорит о плохом балансе чипа»
Это нормальная ситуация. См. анализы разгона любого среднего либо топового десктопного чипа. По общему мнению, память имеет смысл разгонять только когда битва идет за единицы баллов в каком-нибудь 3DMark. В остальных случаях разгон памяти на 20% даст один-два процента прироста производительности. Несущественно.

«На Vita запускаются «приставочные игры» расчитанные именно на неё.»
На ней запускали вполне обычные приставочные игры, прошедшие минимальную конвертацию. Внешних различий в графике не было. Это я про презентации, как дело обстоит сейчас — не знаю, но наверняка были созданы новые игры специально для нее.

«А можно в шокирующих подробностях, очень интересно»
А слабо равномерно загрузить все SPE — реальными задачами? Вот лидерам геймдева — слабо.
У радеона каждый шейдерный кластер состоит из 5-и SPU, которые тоже решительно отказываются равномерно прогружаться, кроме как на узкозаточенных бенчмарках.

«кто-то доказывал что A15 медленнее атома»
Да, я отстал от жизни. Оказывается, он уже немного обогнал атом. Достижение, однако.
Помнится, кто-то доказывал, что ядро A15 на пару десятков процентов отстает от ядра Conroe, а потом сам это и опроверг…

«543MP4 МИНИМУМ на ПОРЯДОК медленнее RSX (и это на очень вылизанном коде). Возможностей современных мобильных чипов едва хватает на простейшие шейдеры.»
Знаете, мне вспоминается, как AMD представлял Bulldozer, убийцу Conroe. Сначала были опубликованы спецификации чипа. Толпы диванных аналитиков, изучив их, пришли к выводу, что продукт Intel неизбежно будет смешан с грязью — у AMDшного чипа преимущества по всем фронтам. А потом выяснилось, что на практике это, мягко говоря не так, и вообще феномы оказались весьма паршивыми в деле, а не на бумаге.

Вспомним, что RSX — кастрированная нвидия 7800, и все встанет на свои места. Шейдеры? Какие там шейдеры? :) Ах, да, аж третьи.

Ну и «на порядок» — интересное заявление, много чего демонстрируящая. Учитывая, что сейчас интеловская интегрированная графика отстает от того самого RSX максимум в 2 раза, да и то в основном по причине плохой оптимизации игр/тестов под эту платформу.

«Покажите, наконец, хоть какой-нибудь Crysis 2 или GTA 4 на Vita.»
Вы, надеюсь, не отрицаете, что приставочный Crysis 2 выглядит куда отвратительнее PCшного первого Crysis даже на компьютере, не говоря уже о приставках? Отлично, идем дальше.

«Или хотя бы Journey — там всего-то обрабатывается 8 миллионов движимых ветром микрозеркал в каждом кадре для симуляции песка.»
Любопытное заявление. Учитывая, что приставочное железо не в силах и миллион полигонов в одном кадре уместить — расскажите, откуда такая информация. Ну и какие идиоты решили настолько неэффективный движок создать.

«Смотрите инфо»
Посмотрел. И? Я в институтские годы тоже, так сказать, в геймдеве был. Даже змейку на паскале писал — круто, правда? :)
В остальных случаях разгон памяти на 20% даст один-два процента прироста производительности. Несущественно

Если шейдеры длинные и мало текстур, утилизация подсистемы памяти будет низкой.

Внешних различий в графике не было

У PowerVR шейдеры могут работать почти как SM3.0, только медленно и не годно для реалтайма.

А слабо равномерно загрузить все SPE — реальными задачами?

Открою страшную тайну — их НЕ НУЖНО равномерно загружать.
Нужно чтобы в определённый момент они сделали свою работу и ушли спать. В 3D играх нагрузка не линейна. В один момент мы смотрим в пустое небо, а в другой на экране творится хаос. Поэтому бюджет фрейма рассчитан на тяжелую самую ситуацию — в остальное время нагрузки может и не быть.

А в качестве гипотетического вопроса скажу — в этом нет ничего особо сложного, при условии вменяемости оригинального кода.

У радеона каждый шейдерный кластер состоит из 5-и SPU

CELL SPU не имеет ничего общего с радеоновским SPU.

Помнится, кто-то доказывал, что ядро A15 на пару десятков процентов отстает от ядра Conroe, а потом сам это и опроверг…

В тестах не было Conroe.
У Phoronix хроническая проблема с огранизацией компиляции под ARM, в частности где-то отключена оптимизация и т.п. Он уже бывал замечен за переделкой своих неудачных тестов. Я предпочитаю доверять профессионалам =)

Ну и «на порядок» — интересное заявление, много чего демонстрируящая.

Это означает лишь то, что я в курсе истинного положения вещей.

Вы, надеюсь, не отрицаете, что приставочный Crysis 2 выглядит куда отвратительнее PCшного первого Crysis

Я прошел C2 на PS3. Выглядит он хорошо. Что до тех PC-геймеров, что люто мастурбируют на текстуры и «тот самый» Крайзис, то мне нет никакого до них дела.
Ну так вы так и не показали ни одной игры уровня PS3 на тегре 3.

Любопытное заявление. Учитывая, что приставочное железо не в силах и миллион полигонов в одном кадре уместить

А вы-то откуда знаете? Неужели сам Huang рассказал? =)
На видеокарте такого класса — миллион полигонов это пустяк.

расскажите, откуда такая информация

От разработчиков.

Песчинки песка обсчитываются на SPU, анализируется их ориентация и генерируется текстура для конкретного кадра. Как-то так.

Ну и какие идиоты решили настолько неэффективный движок создать.

Странная логика.

«Если шейдеры длинные и мало текстур, утилизация подсистемы памяти будет низкой.»
И там, где в одном кадре много текстур и полигонов, ПСП всегда с запасом. Советую отвлечься от теории и хоть немного ознакомиться с практикой. Можно даже самостоятельно тестирование устроить. Берете и понижаете частоту памяти на 10%, смотрите результат.

«Открою страшную тайну — их НЕ НУЖНО равномерно загружать.

в другой на экране творится хаос»
Замечательные взаимоисключающие параграфы :)
Нет, ресурс надо использовать по максимуму (само собой в тяжелых сценах). А не получается. Слишком это трудоемко.

«А в качестве гипотетического вопроса скажу — в этом нет ничего особо сложного, при условии вменяемости оригинального кода.»
Лень искать конкретные названия студий, но вот пример: www.3dnews.ru/news/625451. Почему-то настоящие разработчики как раз ненавидят cell…

«CELL SPU не имеет ничего общего с радеоновским SPU.»
Но проблема аналогичная.

«В тестах не было Conroe.»
Что-то мешает посмотреть разницу между Arrendale и Conroe, а затем аппроксимировать результат для последнего?

«У Phoronix хроническая проблема с огранизацией компиляции под ARM»
Ну начинается… Знаете, это было чертовски предсказуемо.

«Это означает лишь то, что я в курсе истинного положения вещей.»
Ложь.

«Ну так вы так и не показали ни одной игры уровня PS3 на тегре 3.»
Речь не конкретно про тегру 3. Откройте список игр под PS Vita и лицезрейте. Там вполне обычное смартфонное железо.

«А вы-то откуда знаете? Неужели сам Huang рассказал? =)
На видеокарте такого класса — миллион полигонов это пустяк.»
«Такого класса»? RSX древний как говно мамонта. Как я уже говорил, порезанная версия десятилетней давности 7800GTX. На данный момент он сравним лишь с самым бюджетным, а то и интегрированным видео.

С fill rate в 4Гпикс/с — ну да, миллион однотонных полигонов на кадр при 30FPS, может, и не будет проблемой для PS3. Наверное.

«Что до тех PC-геймеров, что люто мастурбируют на текстуры и «тот самый» Крайзис, то мне нет никакого до них дела.»
То есть мы уже отказываемся от обсуждения графики? Или все-таки признаем, что среднего класса видеокарта почти десятилетней давности (8800GT как пример) способна выдать более красивую картинку, чем примитивный RSX?

Еще раз: сейчас интегрированная в интеловские процессоры графика способна потолкаться с RSX, и если анонсы не врут — следующее ее поколение однозначно побьет порезанный 7800-й (для этого более чем достаточно двухкратного прироста).

«От разработчиков.»
То есть выдумка. Понятно.

«Песчинки песка обсчитываются на SPU, анализируется их ориентация и генерируется текстура для конкретного кадра.»
Я правильно понял, что там по текстуре на каждую песчинку? Ничего удивительного, что устаревшее железо не вытягивает 1080p.

«Странная логика.»
Вполне нормальная.
Почитайте при случае, сколько разных хаков применили в Source, чтобы, к примеру, вода выглядела красиво, колыхалась, отражала-преломляла, и при этом не кушала ресурсы. Подход разработчиков Journey: полноценный fluid simulation на миллионы шариков-капель. Подход Valve: отразить нарисованное выше уровня воды и применить несколько шейдерных эффектов.

Хотя то, что я увидел в www.youtube.com/watch?v=FjXbS_26PzU, произвело впечатления чего-то настолько технологически сложного, что оно в таком же виде не тормозило бы и на телефоне моей бабушки, который только Java ME поддерживает.
Советую отвлечься от теории и хоть немного ознакомиться с практикой.

Спасибо, практикой я и без ваших советов занимаюсь =)

Замечательные взаимоисключающие параграфы :)

Подумайте получше.
Нужно делать только ту работу, которая необходима.
Не нужно обсчитывать 100 персонажей, потому как их нет.
Если SPU работает как сопроцессор RSX, то он ждёт когда RSX дорисует до определённого момента.

Слишком это трудоемко.

Что до трудоёмкости, то код на SPU может работать практически без изменений. Любые C++ извращения. И работать будет быстро.
А вот когда нужно ускорить в 20-30 раз, нужно переписывать с нуля уже по-человечески.

Почему-то настоящие разработчики как раз ненавидят cell

Хахаха. Почему-то ребята из ICE team и других топовых команд (DICE, UBI) обожают CELL.

Но проблема аналогичная.

Нет ничего общего. CELL SPU, а точнее SPE, это процессор общего назначения.

Откройте список игр под PS Vita и лицезрейте

Я и на спектруме могу написать такие игры. Названия будут совпадать.

С fill rate в 4Гпикс/с — ну да, миллион однотонных полигонов на кадр при 30FPS, может, и не будет проблемой для PS3

Как это связано с филлрейтом? Или вы не понимаете разницы? =)
Может вы перестанете высасывать цифры из своего воображения и ознакомитесь с доступной информацией о том, сколько полигонов может выжать 7800.

среднего класса видеокарта почти десятилетней давности (8800GT как пример)


8800GT видеокарта 2003г? Вы совсем зафантазировались =)
8800 появился ПОСЛЕ 7800.

способна выдать более красивую картинку, чем примитивный RSX?

У 8800 наверное появились команды, которые отвечают за «красоту»? =)
Там нет ничего, что нельзя было бы сделать на PS3.

Еще раз: сейчас интегрированная в интеловские процессоры графика способна потолкаться с RSX

О как. Сначала у нас с PS3 боролась Tegra3, потом SGX543MP4+, теперь уже интеловская встроенная графика. Отлично, просто отлично.

и если анонсы не врут

Я уже понял что вы специалист по анонсам.

Я правильно понял, что там по текстуре на каждую песчинку?

Нет

Подход разработчиков Journey: полноценный fluid simulation на миллионы шариков-капель.
CELL позволяет это делать без проблем. Результат достойный.
Это маленький штришок к великолепной игре. GOTY 2012 по версии IGN.

Хотя то, что я увидел в www.youtube

Нужно не ютуб смотреть, а поиграть и посмотреть как себя ведёт песок, как скатывается с барханов.
«Нужно делать только ту работу, которая необходима.»
Чуть ниже вам уже написали, что не получается на приставках выполнить ту работу, которая необходима. Вы почему-то считаете, что раз иногда игрок может уставиться в небо, значит, хватит и чего-нибудь уровня 286-го…

«Не нужно обсчитывать 100 персонажей, потому как их нет.»
Даже когда персонаж не смотрит на них, они все равно продолжают обсчитываться. Не в плане прорисовки, а в плане ИИ.

«то код на SPU может работать практически без изменений. Любые C++ извращения.»
На одном SPU, с массой ограничений (прежде всего по памяти). А вот чтобы сразу несколько заработало — тут все совсем непросто. Ну и Cell славится тем, что программирование под него сильно низкоуровневое.

«Почему-то ребята из ICE team и других топовых команд (DICE, UBI) обожают CELL.»
Ну а никому не известная фирма EA говорит «as you guys know it’s very exotic and tough to develop for»
www.gamernode.com/why-no-red-alert-for-ps3-ea-says-too-tough/
А можно ссылки на примеры обожания теми самыми «топовыми командами» данной платформы? Или, как обычно, «мне пацаны говорили»?

«8800 появился ПОСЛЕ 7800»
Через весьма непродолжительное время.

«У 8800 наверное появились команды, которые отвечают за «красоту»? =)
Там нет ничего, что нельзя было бы сделать на PS3.»
Есть. Называется эта штука «производительность». Например, вроде бы одной из красивейших игр под PS3 считается Uncharted (даже какие-то награды получала). Мне даже лень искать тот скриншот с физиономией на пять полигонов. Еще, если мне память не изменяет — статическое освещение (весьма неплохо пререндеренное), минимальная детализация всего чего только можно и т.д.
Имея производительность в достаточном количестве — да, можно сэмулировать любую тесселяцию. Только тут RSX внезапно сталкивается с закономерной проблемой — у него вообще нет производительности.

«Сначала у нас с PS3 боролась Tegra3, потом SGX543MP4+, теперь уже интеловская встроенная графика.»
Сначала у нас с PS3 боролась любая имеющаяся в мобильных аппаратах графика. Про Kal El, кстати, я ни разу не заявлял подобного, он действительно уже староват, да и изначально относительно слабоват.

«Я уже понял что вы специалист по анонсам.»
Ну я, в отличие от некоторых, хотя бы краем глаза слежу за актуальным состоянием дел :)

«CELL позволяет это делать без проблем.»
Результат там никакой, и свидетельствует лишь о типичном индусском подходе к решению любой задачи — «в лоб». Потому приставка и с трудом справляется с крайне примитивной игрушкой.

Cell архитектурно ближе к ГП, чем к ЦП, с соответствующим результатам. И 256кб LS как бы дают о себе знать :)
Вы почему-то считаете, что раз иногда игрок может уставиться в небо, значит, хватит и чего-нибудь уровня 286-го

Ещё раз. Я говорю что в один момент у наc нет нагрузки и поэтому процессор не занят работой, а в другой момент есть, а временной бюджет выделяется под наихудший случай. Поэтому никакой равномерной загрузки ядер нет и быть не может.

На одном SPU, с массой ограничений (прежде всего по памяти).

Ну да, расскажите ещё как под SPU разрабатывать =)
Data-parallel задачи разбиваются элементарно и им пофиг на 2 или 6 процессоров. А это 90% параллелизма в играх.

А вот чтобы сразу несколько заработало — тут все совсем непросто. Ну и Cell славится тем, что программирование под него сильно низкоуровневое

Это кого-то должно испугать? Как раз вся сила именно в нём.

Ну а никому не известная фирма EA говорит

Я не утверждаю что под CELL проще разрабатывать. Немного сложнее и что? К тому же тот же DICE принадлежит EA.
Ссылки ищите сами, почитайте пейперы с GDC и т.п. Поищите народ в твиттере — там много спецов.

Есть. Называется эта штука «производительность».

8800 позволит лишь несколько улучшить IQ и разрешение поставить побольше по сравнению с консолями при сохранении фреймрейта.
И что дальше?

Мне даже лень искать тот скриншот с физиономией на пять полигонов

Вообще-то полигонов там немного больше чем в PC Crysis =)
Вот здесь игровые модели с сетками и тэк.
www.rd3d.com/coppermine/thumbnails.php?album=12
www.slideshare.net/naughty_dog/uncharted-2-character-pipeline

Еще, если мне память не изменяет — статическое освещение

Изменяет.
www.slideshare.net/ozlael/hable-john-uncharted2-hdr-lighting
Можете освежить память со страницы 233.

Только тут RSX внезапно сталкивается с закономерной проблемой — у него вообще нет производительности.

Об этом судить разработчикам.

Сначала у нас с PS3 боролась любая имеющаяся в мобильных аппаратах графика.

И как успехи?

Про Kal El, кстати, я ни разу не заявлял подобного

Да? А кто писал «Вроде уже давно обогнали.» «данный чип по производительности сравним с интегрированной в PS3 графикой»?

Результат там никакой, и свидетельствует лишь о типичном индусском подходе к решению любой задачи

Задача решена на отлично. Профессиональный кодинг вдруг стал индусским — смешно. Ну конечно, пара убогих шейдерных эффектов его бы заменила. LOL

Потому приставка и с трудом справляется с крайне примитивной игрушкой.

Что значит «с трудом»? У игры нет проблем с производительностью.

Cell архитектурно ближе к ГП, чем к ЦП, с соответствующим результатам. И 256кб LS как бы дают о себе знать

SPE гораздо ближе к обычным процессорам чем к GPU.
GPU, они совсем другие.
256кб дают знать о чём? У современных x86 2*32KB L1 + 256кб L2.
LS это аналог L1 без компромисов по обьёму.
«Поэтому никакой равномерной загрузки ядер нет и быть не может.»
Наверное, вам очень тяжело осилить концепцию «в тяжелых сценах имеющиеся ресурсы должны быть задействованы максимально»…

«Data-parallel задачи разбиваются элементарно и им пофиг на 2 или 6 процессоров. А это 90% параллелизма в играх.»
Вот вам еще мнение руководителя никому не известной студии Epic.

But he did comment specifically on how difficult it is to program for multi-core processors and the even more complex Cell chip used in the PlayStation 3. He noted that it «takes about twice the effort and development cost to develop for a multi-threaded CPU,» compared to a single-core CPU. Even more than that, according to Epic's analysis, fully exploiting the PS3 Cell chip «required about 5 times as much cost and development time than single-core.»

www.gamasutra.com/php-bin/news_index.php?story=10974#.UO8hoG8z0YU

Но вы как почетный теоретик конечно лучше всех все знаете :)

«Ссылки ищите сами»
Ну к тому, что вы ни одно свое слово не можете подтвердить, нечаянно не опровергнув его, я уже успел привыкнуть.

«Вообще-то полигонов там немного больше чем в PC Crysis =)»
Все-таки не удержусь.
i0.kym-cdn.com/entries/icons/original/000/007/259/Hhh.JPG

«Изменяет.
www.slideshare.net/ozlael/hable-john-uncharted2-hdr-lighting
Можете освежить память со страницы 233.»
Ух ты, там есть тени! Наверное, как и в Crysis, еще и солнце движется, причем с соответствующими эффектами на закате и рассвете?

«Об этом судить разработчикам.»
Жалуются. Постоянно.

«И как успехи?»
Нормально. Сейчас где-то чуть отстает, следующее поколение наверняка вырвется вперед.

«А кто писал «Вроде уже давно обогнали.» «данный чип по производительности сравним с интегрированной в PS3 графикой»?»
Вынужден признать: тегра 3 на несколько десятков процентов отстает от RSX.

«Что значит «с трудом»? У игры нет проблем с производительностью.»
Некий Капитан напоминает, что обычно игра, у которой нет проблем с производительностью, идет в 1080p.

«SPE гораздо ближе к обычным процессорам чем к GPU.
GPU, они совсем другие.»
Как все плохо…

«256кб дают знать о чём? У современных x86 2*32KB L1 + 256кб L2.
LS это аналог L1 без компромисов по обьёму.»
LS — это ВЕСЬ кеш SPE. Никакого разделяемого вышестоящего кеша нет. Что-то мне подсказывает, что за данными и кодом, которые не помещаются в 256кб, ядро полезет в RAM… Тут даже PPE со своими не самыми серьезными 512кб L2 (и никакого L3) не поможет. Слишком многих обслужить надо. В результате серьезнейшая головная боль разработчика — умудриться засунуть все нужное в 256кб памяти SPE.

Ну и очень странно слышать от «разработчика», что «LS это аналог L1». Вы, может, и не знаете этого, но обычно любой процессорный кеш (включая L1) прозрачен для приложений, чего не скажешь про LS…
Наверное, вам очень тяжело осилить концепцию «в тяжелых сценах имеющиеся ресурсы должны быть задействованы максимально»

Вы опять меняете своё мнение. Вначале вы говорили о равномерной загрузке во всех случаяю, а теперь уже о максимальной только «в тяжелых сценах». Почитайте мои предыдущие посты и попытайтесь подумать.

Вот вам еще мнение руководителя никому не известной студии Epic.

Спасибо за «открытие Америки» — разработка под MT сложнее =)

Ну к тому, что вы ни одно свое слово не можете подтвердить,

Ну вы-то конечно можете подтвердить что тегра3 почти как PS3.

Вынужден признать: тегра 3 на несколько десятков процентов отстает от RSX.

Жду ссылки с тестированием.
А лучше почитайте ссылки которые я приводил.

Жалуются. Постоянно.

Прям «плач Ярославны» =)

Некий Капитан напоминает, что обычно игра, у которой нет проблем с производительностью, идет в 1080p.

Чего уж там, давайте сразу в 4K. На PS3 мало игр, которые идут в FullHd — в основном 2D.

«Рассуждения» про SPE я комментировать не буду — вкус устриц, как говорится, я бы предпочёл обсуждать с тем, кто их ел.
«Вначале вы говорили о равномерной загрузке во всех случаяю»
Вы все-таки научитесь читать. Я говорил «равномерная загрузка всех ядер».

«Ну вы-то конечно можете подтвердить что тегра3 почти как PS3.»
Ссылку давал выше. 20FPS на какой-то игрушке под PS3.

«Жду ссылки с тестированием.»
Вам синтетику? :)
Все ссылки были выше.

«На PS3 мало игр, которые идут в FullHd»
Интересно, почему? А ниже писали, что некоторые игры и в 720p не работают…

«вкус устриц, как говорится, я бы предпочёл обсуждать с тем, кто их ел.»
То есть вы надеетесь, что тот, кто их ел, опишет вам их вкус? Выше я приводил цитаты. Вкус не лучший. Индустрия вздохнула с облегчением, когда выяснилось, что в PS4 будет банальный x86 процессор (скорее всего AMD, то есть снова в плане производительности устаревший еще на этапе проектирования).

Ну в принципе пора заканчивать этот глупый спор. Рекомендую вам все-таки свыкнуться с концепцией «техника имеет свойство устаревать», а также наконец пощупать Cell, весьма посредственный для тех задач, под которые он в данный момент разрабатывается (опять же, все, кто с ним работали, согласны с этим).
«Безнадёжно устаревшие» приставки тянут все современные игры.

Простите, что вмешаюсь в вашу интересную дискуссию, однако хочу заметить, что нынешнее поколение игровых консолей действительно давно устарело и давно является немалым тормозом того, какими бы могли бы игры, если не нужно было бы учитывать консоли (или по крайней мере уделять им настолько много внимания при разработке).

Вот вы говорите «тянут все современные игры», но может стоит честно уточнить как именно они их тянут? Сравните качество картинки на консолях с ПК версиями тех же игр: низкое разрешение, убогие текстуры, убогенький FPS и все прочее — это вполне себе реалии для многих требовательных игр. «Мыльность» многих игр на консолях это ведь не просто шутка, а более чем реальный факт.

Возьмем серию Call of Duty, которая, несмотря на то, что не является шедевром или прорывом в графическом плане, в на консолях работает сверхнизком разрешении — никаким Full HD там даже и не пахнет, они работают даже не в 720p, а в чем-то более похожем на 600p, после чего апскейлятся до 720p.

И это в случае когда игра вроде как одна и та же, а вот Battlefield 3 показывает ситуацию еще более красноречиво, когда ПК и консольные версии совсем другие, и консольные на фоне версии для ПК кажутся какими-то убогими куцыми портами: карты меньше, меньше техники, меньше людей на карте и т.д. и т.п. Это уже не просто разительная разница в качестве картинки, а реальная разница между играми, вызванная слабыми возможностями нынешнего поколения консолей.

Было бы смешно если бы указанные консоли хоть как-то не тянули то, что для них изначально и разрабатывается — Nintendo Wii (оригинальная, а не Wii U) вон тоже отлично тянула все first-party игры от Nintendo, но это не говорит о ее производительности, верно? ;)
Ну а вообще, о чем мы продолжаем спорить? Вы доказали, что A15 даже до устаревших настольных x86 архитектур как до Китая раком. Sony доказала, что современный мобильный видеочип вполне может запускать игры с безнадежно устаревшей приставки, выдавая сравнимую производительность. Вроде всё.
+1,
Портировал игру одну простую, шутер 2d, с++, open gl es 1.0, под tegra 2 — плевался не мог, подтормаживала! Этот же код(игра) под iPad-ом выдавала в 2-3 раза больше фпс. Позже видел и третью тегру, думаю увижу и четвертую и теперь просто не верю, даже в то, что всем им вместе взятым до производительности в графике на PS3 получится ровняться. Я счастливый обладатель PS3 и видел как она работает.
На самом деле третьей тегре даже до PS2 далеко. Разве что шейдеры и нормальные ROP-ы исправляют дело.
Опять же, www.engadget.com/2011/01/27/the-sony-psp2/

«In closing its presentation, Sony trotted out Hideo Kojima to show off a cutscene from MGS 4 rendered in real time on the NGP. It was pulled directly from the PS3 version of the game and ran at 20fps, which looked very smooth indeed to our liveblogging eyes.»

Тот же видеочип, что установлен в iPad 3.

«и видел как она работает.»
Ну по современным меркам — плохо. Просадки фреймрейта и вынужденное в связи с этим применение блюра ко всему на экране. Во многих случаях отсутствие возможности вытянуть даже 720p, не говоря уже о 1080p. Текстуры с исключительно низким разрешением (а чего вы хотели от 256мб vRAM?). Сейчас PS3 разве что с мобильными платформами конкурировать по производительности, она ведь безумно устарела. Еще бы: вряд ли можно чего-либо ожидать от кастрированного GeForce 7800GTX. А Tegra, как я заметил выше, уже приближается к 8800GTS, который радикально быстрее.
the game and ran at 20fps, which looked very smooth

Это они так шутят?
Ну у приставок типичный фреймрейт крутится около 25-30FPS, иногда проседая до тех самых 20-и. Потому — сплошное размыливание картинки, позволяющее замаскировать недостаточную частоту смены кадров (а заодно отвратительную детализацию). В таких условиях 20FPS будет почти незаметно для глаза дергаться.
Интересно увидеть её в сравнении с Clover\Bay Trail.
А еще было бы хорошо увидеть не слайды «10x faster» а результаты спеков или eembc.
Вот это было бы корректное сравнение…
UFO just landed and posted this here
UFO just landed and posted this here
Выглядит как очень маленькая x-box.
Уже представили: www.theverge.com/2013/1/7/3845608/vizio-10-inch-tablet-combines-tegra-4-android-thin-body
Полный аналог Nexus 10, только SoC — это Tegra 4. Ну и дизайн немного другой. Выход на рынок ближе к середине года, но думаю что решения от более именитых брендов выйдут даже быстрее
Насчёт энергопотребления информации нет?
«в Nvidia утверждают, что Tegra 4 потребляет на 45% меньше энергии в сравнении с чипом предыдущего поколения, при стандартных сценариях эксплуатации...» pda.cnews.ru/news/index.shtml?top/2013/01/07/514694
в тегра 3 очень плохой цап, интересует как с этим в 4 версии обстоит дело.
Кстати поддерживаю. Даже в бюджетных затычках за 1.5 килорубля разница между ЦАПами уже чувствуется.
Аудиофилы понабежали :) Умудряются услышать даже то, чего нет. Например, отсутствующий ЦАП в Tegra 3 (там только хардварное декодирование некоторых форматов, но не ЦАП).

www.ifixit.com/Teardown/Nexus+7+Teardown/9623/3, step 17, оранжевая микросхемка — это на примере Nexus 7. К слову, мой знакомый аудиофил (с бешено дорогими наушниками с огромным позолоченным штекером) плевался от качества звука на родном андроидовском плеере, я специально для него скачал poweramp, тот поигрался с эквалайзером, и претензии закончились, говорит — отличное качество.

«Даже в бюджетных затычках за 1.5 килорубля разница между ЦАПами уже чувствуется.»
Стандартный вопрос. Слепой тест пройдете?
я спокойно пройду слепой тест к примеру между любым ай-девайсом и c любым на tegra 3. хоть на sennheiser hd 25, хоть на sennheiser ie4. когда я искал почему в девайсе такой плохой звук, везде пинали именно тегру, т.к. опять же по отзывам в US-версии телефона со snapdragon кач-во звука много лучше.
только сейчас нашёл статью с упоминанием реалтека — www.androidpolice.com/2012/06/26/beats-me-why-htcs-amazing-sound-on-the-international-one-x-isnt-amazing-at-all-even-by-the-numbers/
но я не нашёл чтобы с тегрой 3 использовали что-то кроме реалтек. не понятно проблема девайса или самого чипа.
… бюджетных затычках за 1.5 килорубля...
после этого уже можно не продолжать…
Может, рубли белорусские — это чуть больше 5 рублей российских =).
Мне кажется или в презентации использовались разные браузеры?
Надеюсь, это не повлияло на результаты тестов?..
ох, а зачем? у меня tegra2 на планшете так я не знаю с чем она бы не справлялась… вроде даже современные 3д игры пробовал — все тянет. не могу придумать чем ее таким нагрузить
ну а плавность интерфейса… так это по-моему давно проблемы оптимизации, а не процессоров.
Ага. Вон в 1998 Unreal нормально так бегал на 3dfx Voodoo. Кому нужны все эти новые видеокарты?
Tegra 4 — первый чип от Nvidia с интегрированным 4G LTE модулем.

Ну нету там интегрированного 4G LTE модуля, нету! Tegra 4 может работать с 4G LTE благодаря использованию внешнего чипа, например, программируемого софт-модема Icera i500, который как раз и предлагается Nvidia и изображен на второй и четвертой фотографиях в посте рядом с чипом Tegra 4.

Для чего вся эта мощь? С большинством задач и приложений мой старенький Galaxy S i9003 справляется на отлично и это еще со старым Gingerbread.
Ну понятно, что NVidia надо деньги зарабатывать, а большинству пользователей эта гонка на самом деле не нужна. Им нужна более ёмкая батарея, менее глючный софт и больше удобств в ОС Android.
А разве разрешение экрана не влияет на то, как быстро выводится страничка? Или на видео у др планшета то же разрешение экрана что и у nexus 10?
Sign up to leave a comment.

Articles