Pull to refresh

Comments 35

Воображаю как было бы круто запилить гфорс и квадру в сли и переключать в зависимости от задачи
Мне кажется, они так работать не будут.
Мне было бы интересно сделать из Жефорса Квадру, только обычно это заканчивается плачевно. И я не настолько богат, чтобы пытаться попробовать.
На студийном рендере квад и GeForce вместе на SLI — никто не жалуется.
А они в SLI подключены? Просто ж вроде, чтобы использовать куда на нескольких девайсах, SLI отключать надо, или я путаю что?
Работать могут, в принципе.
Если у вас проф. приложение на OpenGL, то вы можете в панеле управления выбрать обработчиком OGL квадру, а в играх GF. К сожалению работать с DirectX такое не будет.
Из ссылки к статье видно, что при сопоставимой цене GTX580 на голову уделывает своего ближайшего противника HD 5870 в тесте на рендер через DirectX.

Так что не в терафлопсах дело, а у мении ими распорядиться

image

Ну и вот еще один говорящий тест:

image

а почему вы сравниваете GTX 580 и HD 5870, а не HD 7870, скажем, чтобы хоть и там, и там брать последние поколения?
да, сравнение странное, потому что рыночный конкурент 580 — 6970, а не 5870
Соседа по цене брал.
Теперь увидел что и шестерки довольно дешевые есть.
Но GTX рвет и шестерок без проблем.

Кроме того, если я не ошибаюсь, HD 6xxx — это разогнаная версия 5 серии.

В тестах это хорошо видно — сколько проц не разгоняй, архитектурные ограничения не дают получить качественный скачок производительности
Ошибаетесь. 6ххх серия среднего и высшего уровня архитектурно отличаются от предыдущего поколения. У 5ххх была архитектура VLIW5, тогда как у 6ххх — VLIW4. Кроме того в 6-й серии заметно усилили производительность тесселяции.
Лично у меня был и 5870, и 6870 сейчас (он даже медленнее), но их мне хватает выше крыши для игр. Кроме того, есть различия в качестве рендера у NV и AMD/ATI. Юзал и те, и другие карты. «Красные» лично мне больше понравились в режимах 16 AF + 4AA
Nvidia для профессиональных 3D приложений, блаблабла, мы чето тестим, графики, итог — Я выбрал GTX580 3Gb. Браво.
А я купил себе б/у 285 GTX о которой мечтал с самого ее появления. Что странно, она до сих пор на равных тягается с нынешними карточками. Уделывая 560Ti как стоячего. Новые игры идут на максималках. При рендере с той же CUDA никакого дискомфорта не испытываю. И в конечном итоге убедился что лучше поставить 2x285 за 6000 рублей чем покупать 580 GTX за 15-20 тысяч
и да, без каких либо тормозов во вьюпортах.
Кстати, вполне возможно, что старые карточки меньше ограничены в производительности вьюпорта, чем новые.
идеальная карта для хакинтоша, проверена годами работы
Идеальная карта для хакинтоша в настоящий момент AMD 6870 = 6970M в топовом iMac.
Кроме того, LeeMiller явно заблуждается: 560Ti заметно превосходит 285GTX во всех отношениях.
Из тестов на вскидку в среднем 285GTX < 5870 < 560Ti.
Но что правда — реальной необходимости в новых видеокартах нет, пока не обновится поколение консолей.
Господа, в чём из сказанного я хоть раз ошибся? Я слежу за этой темой уже много лет.
Меня Corel останавливает от перехода на мак и хак в том числе. А вообще наслышан о хакинтошах на GTX
А как же шум, энергопотребление и температура?
Вы не поверите но за почти год использования, я услышал ее рёв всего на 1 игре. Это недавновышедший в Warface от Crytek. Хотя на Crysis 2/NFS/Mass Effect 3/Diablo 3/Battlefield 3 и прочих, на полных настройках ее вообще не слышно. Как будто ее вообще нет.

Тоже касается и рендера.
Вообще самый громкий у меня получается HDD.
А вот в таком корпусе она стоит (Zalman z9+)
А питание ей какое нужно, не подскажете?
А то я как раз задумался об апгрейде)
Она старая для апгрейда =) ну или я бы сказал — она самое оно, для извращенного апгрейда.

Да и найти их довольно сложно. А по питанию читайте тут.

У меня стоит 500W. Мне хватает.
Мои 3шт 6990 в одном компьютере мне уже порядком надоели :-)
Ни одной игрушки правда ни разу так и не запустил
Это дело я уже оставил :-) Все банально… bitcoin-ы :-D
И как, окупает хоть счета за электричество (+ кондиционер летом)?
Просто пытался с этим делом связаться, по-моему эти копейки не окупают ни затрат на электроэнергию, ни амортизации.
Не так давно Jeff Patton показывал, как работать с iray: Quick intro to iray in 3ds Max — профи высокого полёта, что уж говорить, две теслы и quadro 6000. Просто для информации и позавидовать чтоб.
Товарищ, я не завидую, но человек, можно сказать, очень хорошо поддержал производителя.
То же самое можно сделать в Blender + Cycles с игровой карточкой. iRay — это разрекламированный продукт.
Спасибо за заметку, но как-то однобоко, согласитесь. На исследование не тянет. Уже бы поделились нами и результатами AMD-видеокарточек. А дело в том, что сам движок Nitrous на базе Direct3D и отлично работает на игровых видеокартах. Более того, на Radeon'ах он работает быстрее. И намного. На 5770 скорость, как у вас на 580 GTX. На 6950 — в 2 раза выше. 60 фпс во вьюпортах на мониторе в 2560х1600 пикселей. Единственное, чего Radeon'ам недостает — так это CUDA — но реально мало плагинов к тому же Максу ее используют.

Я к чему… AMD карты почему-то даже не рассматриваются, и совершенно зря — у них за ту же цену и выше производительность во вьюпортах, и больше памяти и т.п.

Так что маркетинговый отдел NVidia хорошо постарался, что AMD даже не воспринимают обычные 3д-ники за видеокарты…
Совершенно согласен на счет Радеонов.
Получилось однобоко, т.к. купил то я Жефорс (из-а Куды), и испытывал все на нем.
Но разве я где-то указал, что Нитрос Радеоны тянут хуже? Мало того, у АТИ ведет себя более порядочно на рынке. Если бы все использовали ОпенЦЛ, который был бы оптимизирован под любое железо — я бы брал Радик, из-за превосходства в производительности при соизмеримых ценах.
Кроме того Autodesk очень неплохо внедрила расчеты Physx в свои решения. Те-же самые Apex Tools, детище Nvidia, используют Cuda, а это очень неплохая замена для Reactor… Physx там считает очень так бодро сцены, которые Reactor даже открывать не пытается =))… Собственно только по этой причине я слез с Radeon'ов в пользу Nvidia…

А вообще если позволяют деньги и руки, плюс есть такая необходимость — никто не мешает поставить Radeon для вьюпорта и к нему воткнуть Жирафа (Geforce) как Physx рассчетную карточку =)))

(вот только давно не мониторил что там с такой возможностью, когда то давно Nvidia закрывали/открывали такие возможности).
Когда работал в дизайн студии имел возможность на реальных приложениях сравнить Nvidia Geforce и Nvidia Quadro. Geforce мой домашний — gtx 580, модель Quadro к сожалению не помню, но точно она была из линейки на чипах линейки geforce 4xx серии, только ядер куда там 380, кажется было или около того.
Меряли мы производительность видео карт при отображении разнообразных сцен (одни и те-же сцены с разным наборов ViewPort шейдеров). Сцены запускались на проигрывание анимации и замерялись ФПС.
Режимов тестирования было 3: Wireframe, SmoothHighlight и EdgedFaces.
— в случае Wireframe выигрыш был на стороне Quadro, причем в несколько раз (в 2-4 раза в зависимости от сложности).
— в случае SmoothHighlights Quadro местами шла на равне, местами отрывалась вперед.
— в случае EdgedFaces Quadro в 1.5 раза опережала обычный Geforce.

НО!!! для того чтобы Quadro показала такие результаты — необходимы было с сайта NVIDIA скачать специальный драйвер, который подсовывался 3Dsmax в окне выбора Directx/OpenGl/CUSTOM.

При выборе же обычного режима? Quadro вела себя как обычная игровая карточка соответствующего ей уровня (460 — 470 Geforce)

Кроме того на тот момент мы рассматривали в VRay возможность рендеринга на видеокартах. Рендеринг сей проходил на ядрах CUDA. полностью описывать нет смысла, скажу только что скорость рендеринга там показала себя в линейной зависимости от количества таковых ядер, соответственно GTX 580 с 512 ядрами CUDA ушел в отрыв.

На тот момент у меня появилось дикое желание посмотреть КАК с помощью драйвера под ViewPort Nvidia Quadro ускоряет свою работу, и заполучить таковую возможность для обычных видеокарт =))) (тупо конечно, но ооочень хотелось)
Only those users with full accounts are able to leave comments. Log in, please.