Как стать автором
Обновить

Комментарии 94

Вот это зверь…
Хотя бы Nvidia не так ориентирована на геймеров, нежели АТI. Работай, как говорится, твори. ;)
НЛО прилетело и опубликовало эту надпись здесь
Ага… вот творят творцы на таких видюхах, а потом ни одна игра на обычных компах не идет. И народ удивляется, да чего ж ей запихать нужно в корпус.
«А мужики то не знают....»
В точку +1 Это как говорится трыв от реальности. Они игру сделают, а мы поиграть в нее нормально можем только через полгода-год.
А что, разве нормально что разрабы зачастую (сам видел) делают игры на компьютерах, на которых они вообще на полную мощность не идут? А потом геймеры удивляются — и откуда баги берутся при максимальных настройках!?
«Профессиональная» — не значит, что для гейм-девелоперов.
Рекомендую перечитать заметку.
Эта карта не для прогриммистов игр. Карта для CAD. И для него она оптимизирована начиная с драйверов и заканчивая самими кадами.
Для CAD столь мощное 3D не требуется. Там нужно другое. Например чтобы карта выводила сигнал на 2 монитора с разрешением 2048*1536 с минимальными искажениями в 2D
Да ну?
Видели цех, например металлургический в Автокаде в 3Д? Требуются еще и не такие.
Для этих целей, вывода на два экрана, у них есть Quadro NVS.
Драйвера для вывода графики и тот же OpenGL в них это тоже дрова, а CAx вряд ли оптимизированы под видеокарты.
Для CAD в комплекте с драйверами поставляются специальные либы, как впринципе и с процессорами.
Не знаю что насчёт этой видеокарты, но на обычных, чтобы выполнять вычисления на графическом процессоре используется CUDA. Просто интересно какие именно CAx держит эта или возможно другая видеокарта, для примера, CATIA, NX Unigraphics, Pro/Engineer и так далее. Естественно это всё касается не вывода графики, а просчёта алгоритмов моделирования, так как в дрова по определению заложен графический ускоритель.
Quadro FX никогда на геймеров не ориентировались и никогда на них не делались игры, ибо в технологическом плане отставали, а выигрывали только в скорости расчетов. В играх и эта скорее всего проиграет GeForce X280.
НЛО прилетело и опубликовало эту надпись здесь
Ффух… Аж дух захватило когда читал) Если Adobe действительно будет работать с ресурсами видеокарты, как пророчили, интересно было бы посмотреть на этот агрегат в действии!!! (Adobe CS4 докачался только к утру, еще не успел протестировать на предмет загрузки процессора)
Эээ…
дайте две
ДА! В SLI режиме! :)
ага TriSLI
quadSLI
эх… лет через десять куплю себе такую
Устареет.
ну конечно она уже через год будет в классе бюджетных карт. закон мура все еще работает, хотя долго ли?
Линейка проф. карт обновляется не так часто и дешеветь соответственно будет не так быстро.
НЛО прилетело и опубликовало эту надпись здесь
да у мя на мобиле такая будет))
С трансляцией картинки прямо в мозг :)
Хочу туда поставить линукс
На эту видеокарту что ли Линукс поставить? :))))

В Линукс-системах такая видеокарта много пользы наверное не принесет, ведь серия Quadro — это CAD-ориентированные карты, и фишка в том, что их Windows-драйверы оптимизированы для работы с CAD-программами типа SolidWorks и т.д.
>обеспечивать исследователям визуализацию объектов в высоком разрешении на обычной рабочей станции, работающей под управлением ОС Linux.
С таким объемом памяти можно и ХР отдельную на нее поставить :)
у меня первый винт был меньше, чем тут памяти =/
Еще как принесет, там можно поставить демуксер и сделать общение ~200 человек голосом в локалке.
Только надо сделать
crossdev nv5800-pc-linux-libc
Актуальная новость.

и сколько она жрет энергии?
В нее встроен pocket ядерный реактор, который обеспечивает 50% потребности видеокарты в энергии.
Вы тоже читали Популярную Механику этого месяца? :) Кажись, на риторический вопрос «вернется ли атомная энергия» ответ найден специалистами компании NVIDIA.
Это в связи с тем что это 55нм версия видео чипа GT200, полным аналогом этой карты является GTX280, но пока на 65нм, ну и с меньшим количеством памяти.
189W
Аццкая штука.
GTX280 все 240Вт =) так что 190 это не плохо, для авианосца с полутора миллиардами транзисторов на борту
Интересно, много ли «обычных» пользователей купит данный продукт…
Учитывая даже самые «навороченные» игры, 4гб оперативной памяти на видеокарте — многовато.
Типа, загрузил утром текстуры фаркрай чтобы если что вечерком без загрузки поиграть )

«Центральный процессор Quadro FX 5800поддерживает, не 8-, как обычно, а 10-битный цвет, что позволяет работать c несколькими миллиардами цветов и их оттенков.»
Очень повеселила данная цитата.
Поделитесь мониторчиком для такой цветности :)
А зачем обычному пользователю это видеокарта если написано что целевая аудитория — «Новая Quadro FX 5800 предназначена для профессионалов, работающих в области 3D-графики, архитекторов, проектировщиков игр и видеографики.» Как бы так.
Как бы данная цитата(или её модификации) употребляется почти в каждых пресс-релизах нового железа. Ведь в Кее такие карточки лежат не для «случайно зашедших» специалистов из Autodesk =)))
Какие игры, вы что? В современных играх данная карта запросто проиграет какой-нибудь захудалой 9800GT, не говоря уже о более мощных.
Не проиграет, будет на уровне GTX280.
Это карта не для пользователей.
Для пользователей GTX280, начинка одна.
Конечно не для пользователей, их только в музеи покупают как культовые экспонаты :)
Я пропустил слово обычных =)
А она и не для обычный пользователей. Адепты ГИС точно оценят.
Судя по внешнему виду SLI на ней не поднять — контактик если и есть то под крышкой.
Интересно вот только как они добились заявленой пропускной способности памяти. Многовато както.
Ну и еще смутил 10 битный цвет — ведь уже давно придуманы и используются MRT(Multiple Render Targets) где хорошим тоном является просто навсего float цвет.
Вчера вот играл в Lost Planet там при HDR->Max четко сказано что 64к цвет(float RGB16)
Я вас может разочарую, но карта не игровая :)
Я вас тоже — чисто технически карте пофиг что воспроизводить.
Если спецификация DX & OGL которые карта должна обрабатывать, а рисовать можно все что угодно
По крайней мере Кватро времен GF FX очень даже шустро обрабатывала игрушки.
Не совсем так. Драйверы на Quadro оптимизированы на отрисовку линий, более высокую точность вычислений в ущерб производительности и т.п. К тому же в любых драйверах всегда есть ошибки, а игры скорее всего даже не тестируются на этих картах и никто правильную работу не гарантирует.
Интересно, у неё теперь все блоки умеют работать с double, или вновь, как и в ранних моделях для них созданы отдельные, в меньшем количестве, что негативно сказывается на скорости высокоточных расчётов.
Tesla, например, имела такой недостаток.
Nvidia, что бы не быть голословными, следовало бы привести еще и результаты тестов по сравнению с обыкновенными «топовыми» видеокартами — Nvidia 260 GTX и ATI 4870, ведь не только под Linux она будет работать… ;-)
Эта карта клон GTX280, зачем с ней сравнивать?
Разница в драйверах и оптимизированном софте, на g80 например можно было GeForce перешить в Quadro.
Это не клон 280, там другой тех. процесс — читаем. Это будущая 290.
Читаем мой коммент выше.
С другой стороны, тех процесс добавил каких то функциональных блоков? Клон он и есть клон, что в нем другого? Просто профессиональные раньше перевели, домашние позже переведут.
У нас с вами, видимо, разные понятия слова клон, т.е. по вашим рассуждениям новый тех процесс — это клонирование старого, по моим — это эволюция.

Т.е. новый чип, а здесь он уже НЕ GT200, позволит сделать 290 однослотовой и производительнее чем 280, как например 8800 GT в своё время.
У него увеличилось/уменьшилось число функциональных блоков? Да новый техпроцесс не сомненно эволюция которая помогла снизить тепловыделение на 50Вт, это много, но чип то остался тот же, просто слегка уменьшился в размере =)
Да уменьшился тех процесс, но сделайте копию эйфелевой башни, 4:1, она не будет клоном?
По вашей логике получается что 4200 Ti это такая маленькая 8800 GTS — т.е. клон. Т.е. все видеокарты нвидия клоны друг друга: «подумаешь чип другой, но по сути это же тоже ВИДЕОКАРТА».

Не-не-не, здесь мы с вами разойдемся.
По вашему 4200 имеет такое же количество функциональных блоков?
Вы идиот.
С такими формулировками ваш коммент может стать первым в «лучших» :)
А вы со мной согласны в данном вопросе?
А смысл?
260 и 4870 — это игровые карты, поэтому некорректно сравнивать их с Quadro.
Интересно, за такую стоимость и с такими характеристиками она сильно греется и шумит? Просто интересно…
Думаю что такую видеокарту воткнут в компьютер который и без неё будет хорошо греться и в силу этого предположу что охлаждение будет очень хорошим =)

а вобще греться должна ага =)
Помню для DOS`а была такая утилитка «vidram». Так вот она для приложений давала дополнительную память, «вытаскивая» ее из видеопамяти… Писали мои коллеги тогда на Кларионе банковские программы. Ностальжи :-)
А на ней DOOM 1 пойдет? =)
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
«проектировщики игр» не работают на таких видео-картах.
какие еще тормоза?) карта для моделирования и рисования, 3д анимация… в основном 3д эфекты для фильмов, видео ролики и т.п.

помню делал друг дизайнер ролик для рекламы, мелкий… около 30 секунд… так его рендринг занял около 2х часов…
НЛО прилетело и опубликовало эту надпись здесь
Вот Элкомсофту то раздолье :) Какова у нее производительность подбора паролей? ;)
/побежал разбивать копилку
мне вот интересно… недавно пост проскакивал, про использование видеокарт для выполнения трудоемких вычислений)
как эта карточка себя тут покажет)))
Если на CUDA то одинаково.
кулер на ней такой мелкий =)
Это не кулер, это телепортер горячего воздуха в гиперпространство))
гыгыгыгг =-))))
Мдя… Куда я лезу со своей Radeon 9600. )))
Ну да, круто круто ))) Интересно, на ней не будет Тормозить Crysis на полных настройках? Тогда я её куплю :)
crysis warhead 9800 gt на полных настрках летает))))

ну это полные для меня xp и 17дюймовый элт )
А ведь с помощью нее можно производить распределенные вычисления с немыслимой скоростью =))
WiFi ломать, MD5, и прочее и прочее.

Вон, Elcomsoft выпустили утилитку. До 10 юзеров — халява)) Умеет для некоторых видов подбора пароля юзать видеокарты nVidia. Со 250 паролей в секунду (4-х ядерный intel) скорость подскакивает до 2500 (у меня).
www.elcomsoft.ru/edpr.html кому интересно.

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории