Comments 148
AMD выложила все козыри, теперь осталось дождаться ответа NVIDIA.
А рождество не за горами!
А рождество не за горами!
0
Не отказался бы от такого подарка на НГ :)
-1
круто округлил… давай сразу до десяти, делов-то
-3
радует одно, раньше «самые мощные видеокарты в мире» выходили обычно с ценником порядка 1к, иногда даже дороже… кризис+конкуренция
П.С.извините за слово кризис :)
П.С.извините за слово кризис :)
+22
да вот тоже самое хотел сказать, недорого $600 для «топовой видяхи».
+2
1к за high-end карту? Когда это такое было? Производители уже лет пять точно стараются ориентировать свои топовые карты в сегмент от 500 до 700 долларов максимум.
0
дык это просто 5970, думаю ещё будет 5970х2 — вот она уже около 1к, думаю, будет.
-2
эх, может быть когда-нибудь и в iMac'и встроят…
-9
зачем? это карта для игр > для игр дешевле купить приставку (если конечно играть не для того чтобы дрочить на АА и шейдеры)
-9
верно, но на приставке моя любимая онлайновая игруля Entropia Universe (движок CryEngine2) не пойдёт… а ради неё собственно и хотелось бы что-то мощнее моей ATI Radeon HD 2600 Pro… а то играю на высоких настройках, но в довольно маленьком окне…
когда на полный экран 1680 x 1050 — довольно ощутимые тормоза, мешающие получать удовольствие от игры…
а только ради одной игрушки покупать отдельный компьютер не очень выгодно… (как с точки зрения места на столе, так и денег на покупку и обновление)
интересно, как этот Apple вообще выбирает какие видюшки ставить в новые аймаки…
оффтоп…
ну, а возвращаясь к теме, где-то уже было тестирование в играх? например, оч хочется узнать, во сколько раз в Crysis'е эта видюшка лучше моей?
когда на полный экран 1680 x 1050 — довольно ощутимые тормоза, мешающие получать удовольствие от игры…
а только ради одной игрушки покупать отдельный компьютер не очень выгодно… (как с точки зрения места на столе, так и денег на покупку и обновление)
интересно, как этот Apple вообще выбирает какие видюшки ставить в новые аймаки…
оффтоп…
ну, а возвращаясь к теме, где-то уже было тестирование в играх? например, оч хочется узнать, во сколько раз в Crysis'е эта видюшка лучше моей?
0
UFO just landed and posted this here
компьютер-то не для игр позиционируется, видюшка там не на первом месте всегда была… на первом месте — удобство и простота работы, решение задач пользователя…
> Дабы потом накрутить 300% за брен и впаривать лохам.
да никаких 300% за бренд там нет, в Штатах они ведь дешевые…
А вы из зависти что ли считаете обладателей macов лохами? А как вы относитесь к обладателям ламбарджини, например? Или это такой толстый троллинг у вас? :-)
У большинства нормальных людей игры всё же не на первом месте в жизни.
Я, например, когда покупал мак знал, что видюшка не крутая, но мне нужна именно MacOS и никакой не хакинтош, а нормальный мак. Лучше уж игры тормозят, чем будет неудобно работать. Я выбирал по соотношению цена/качество. И выгоднее через годик купить новый мак, чем на тот момент покупать супернавороченный MacPro за большие деньги (150-200 тыс для компьютеров это дорого). Не считаю себя лохом по крайней мере.
Впрочем, чтобы не разводить холивары, я не навязываю своё решение другим, для меня мой выбор самый оптимальный, для кого-то другого может быть и нет. У всех разные финансовые возможности и решаемые на комьютере задачи.
Меня огорчает в первую очередь именно отсутствие предложений (дешевле 100 тыс рублей) с хорошими видеокарточками, а не завышенные в России цены. Хотя и цены тоже :-)
> Дабы потом накрутить 300% за брен и впаривать лохам.
да никаких 300% за бренд там нет, в Штатах они ведь дешевые…
А вы из зависти что ли считаете обладателей macов лохами? А как вы относитесь к обладателям ламбарджини, например? Или это такой толстый троллинг у вас? :-)
У большинства нормальных людей игры всё же не на первом месте в жизни.
Я, например, когда покупал мак знал, что видюшка не крутая, но мне нужна именно MacOS и никакой не хакинтош, а нормальный мак. Лучше уж игры тормозят, чем будет неудобно работать. Я выбирал по соотношению цена/качество. И выгоднее через годик купить новый мак, чем на тот момент покупать супернавороченный MacPro за большие деньги (150-200 тыс для компьютеров это дорого). Не считаю себя лохом по крайней мере.
Впрочем, чтобы не разводить холивары, я не навязываю своё решение другим, для меня мой выбор самый оптимальный, для кого-то другого может быть и нет. У всех разные финансовые возможности и решаемые на комьютере задачи.
Меня огорчает в первую очередь именно отсутствие предложений (дешевле 100 тыс рублей) с хорошими видеокарточками, а не завышенные в России цены. Хотя и цены тоже :-)
0
ПеКа.jpg
-1
Ну и габариты. Если так пойдет дальше, то значение поддерживаемого разрешения будет идентично размерам карты в мм.
+10
это уже было
0
0
+7
Да, пятерочка еле в короб влазила )
+1
О боже, что это? Что за поделка сумрачных гениев из 3dfx? Я так понял, требует отдельного внешнего блока питания?
Кстати по габаритам 5970 больше уже будет :)
Кстати по габаритам 5970 больше уже будет :)
-1
Я помню, у меня была такая же помоему…
Только без блока питания.
PS Вот почему она не работала?=)
Только без блока питания.
PS Вот почему она не работала?=)
+1
Я думаю, вы ошибаетесь. 6000 были изъяты из продажи почти сразу, а партии уничтожены, в связи с продажей компании конкуренту. На сегодняшний момент владельцев таких карт в РФ и странах СНГ можно пересчитать по пальцам. Последняя на моей памяти ушла на ибее примерно с год назад в нерабочем состоянии за стоимость около 700$.
+2
Не вспомню даже какой это был год… Помню вставлялась Voodoo в слот PCI, и у меня так и не заработала, по этой причине вернулась назад на радиорынок, внешне похожа была на эту (4 проца 3dfx), возможно надписи на чипах были монохромные.
0
*предвкушает гемор с дровами под линух
+8
уйди, противный!
+2
Во что вы собрались играть под линухом с такой видеокартой? =)
+3
Играть в наивные надежды, что когда то флеш под никсами перестанет глючить
+2
Нынче видеокарты используются не только для отрисовки графики, но и для сложных математический расчётов. Особенно, эффективность решений заметна в том случае, если задача хорошо параллелится. Например, один мой знакомый реализует расчёт молекулы белка именно на видеокарте. Такое решение существенно превосходит по соотношению цена/результат решения на базе обычных процессоров.
0
Зачем тебе такое под линухом?
0
хочу :'(
+1
И сколько такая махина кушает?
0
А Вы в разрешении уверены — 7680x1600? Что-то многовато получается…
Судя по спецификации оно 2560x1600.
Судя по спецификации оно 2560x1600.
+1
Это с использованием технологии Eyefinity
0
А, понятно. Не понял, что речь идёт о суммарном разрешении трёх дисплеев. Явно это не было сказано. Просто сначала чуть со стула не упал, увидев цифру вертикального разрешения более 7 тысяч. Сразу полез смотреть спеку. В спеке никто эти разрешения не суммировал. Поэтому и удивился.
+1
7680=2560*3 как раз на три монитора по ширине.
0
Главное, чтобы кулер не гудел как паровоз.
0
Смазывать просто чаще надо
0
Там беруши в комплекте.
+5
Кстати там испарительная камера стоит в стоковой системе охлаждения. В простое греется на жалких 38 градусов и турбина естественно должна очень тихо работать. При нагрузке судя по тестам уровень шума находится на уровне 65 дБ, это меньше чем у 295GTX и 4870х2. При этом температура также очень низка для такой мощности.
0
Суперкомпьютеры скоро будут строить из видеокарт
+1
неужеи производители видеокарт наконец-то обогнали производителей игр?
0
На словах да, в практике нет!
0
я просто редко играюсь, но что не пойдет на этом?
0
Кризис. С уважением, К.О.
-2
Да? Вроде как даже на GeForce 9600 особо тормоза не замечались
0
=) я о том что он никогда не пойдёт в максимально разрешении 60 кадров.
А про «особо тормоза не замечались» могу сказать что для меня, например, приемлемым количеством является именно 60 кадров в 1920*1200. Естественно я имею ввиду максимальную детализацию со сглаживанием хотя бы 2X
А про «особо тормоза не замечались» могу сказать что для меня, например, приемлемым количеством является именно 60 кадров в 1920*1200. Естественно я имею ввиду максимальную детализацию со сглаживанием хотя бы 2X
-1
Адский, адский геймер.
0
Пойдет. 65 fps при 1920х1080 с 4xAA. Но только на разогнанной карте. Пруф для тех, кто не верит tiny.cc/IstZY
0
а как же вы раньше играли? в 320х200 ^_^
0
я запускал его на AMD Athlon 64 X2 6400+ и GeForce 9800GTX+, 30-35 fps, ниже не опускается…
0
видимо да, а то как rockstar сделали gta 4, так фиг знает сколько ей видеокарт надо, чтобы запустить на максимуме, хотя я думаю это практически нереально, так как у нее плохая оптимизация.
0
не помню, что там с графикой, если честно, давно не играл в нее
0
Да что вы говорите? HD 4850, max, 1920x1200, фпс ниже 35 не опускается
0
класс, клевая видюха, надеюсь, что моя любимая Nvidia всё же обгонит эту новинку, всегда так было, выпустила ati, потом nvidia сделала круче, будем ждать
0
И все-же от терафлопсов до FPSа в играх — долгий путь :)
По результатам тестов — она превосходит GTX295, но не на много.
И от себя добавлю, я вообще несколько предвзято отношусь к двухчиповым решениям… т.к. во первых нужен очень мощный процессор, а во вторых не все приложения однозначно реагируют на 2 GPU (в плане производительности).
По результатам тестов — она превосходит GTX295, но не на много.
И от себя добавлю, я вообще несколько предвзято отношусь к двухчиповым решениям… т.к. во первых нужен очень мощный процессор, а во вторых не все приложения однозначно реагируют на 2 GPU (в плане производительности).
0
Хочу чтобы Windows 7 SP1 запускалась на видеокарте без установки CPU.
+4
я тоже, вообще думаю, что многие этого хотят =)
0
Есть сборка линукса, которая полностью работает на видеокарте (не помню, то ли нвидия, то ли ати). Там дело в том, что мощность видеокарты для вычислений общего назначения пока не может сравнится с ЦП. Сильно оптимизированные параллельные вычисления (графика, научные штуки, и тэдэ) — пожалуйста. Но говорить про ОС на видеокарте пока, увы, рано.
-1
Нет такой сборки Линукса. У вас сформировалось неправильное впечатление на основе слухов.
0
Хорошо, есть технология Fermi, с помощью которой можно использовать возможноти видеокарты NVidia как ЦП. Там же сказано, что придётся сильно-сильно доработать ядро.
0
Не есть, а будет. И «использовать возможности видеокарты как ЦП» вообще ничего не говорит о конкретных возможностях. И единственным источником слуха является Fudzilla, которую уже ловили как на лжи, так и ламерстве. И даже Fudzilla пишет, что им сказали о теоретической возможности использования ОС вообще, а не конкретно линукса, и есть куча причин, по которым линукс туда будет не портируем.
0
Bullshit
0
Скоро на масштабных фото разъем PCI-E будет выглядеть в виде точки, которую будут обводить красным кружочком и делать подпись — это разъем.
+3
Только мне показалось, что корпус видеокарты обтянут кожей?
0
И размеры видеокарт становятся все больше и больше. Я точно доживу до того момента когда очередное топовое решение от… будет занимать половину объема системного блока.
0
А что все в игры то уперлись, для графики она тоже будет хороша, фанаты АТИв этом году с выходом многих пакетов были расстроены что многие из HD серии уже не поддерживаются. а тут такая радость да еще и за 600 у.е.
А на счет ответа от nVidia, — она может тоже уже сделала подобную карту но не рассказала об этом =) так что и пол года ждать не прийдется
А на счет ответа от nVidia, — она может тоже уже сделала подобную карту но не рассказала об этом =) так что и пол года ждать не прийдется
-1
Меня всегда интересовало, кто может позволить покупать себе такие видюхи? И главное зачем?
Мы с моей ATI HD3850 не испытываем никакого дискомфорта.
Мы с моей ATI HD3850 не испытываем никакого дискомфорта.
0
может вы просто и не играетесь :)
ибо полно таких игрух, которые из-за своей неоптимизации, напрягут и такого монстра
ибо полно таких игрух, которые из-за своей неоптимизации, напрягут и такого монстра
0
Я могу ;-) Сейчас у меня HD5890 стоит, комп сам собирал.
0
Играть, батенька, с высоким качеством графики, а главное — на большом разрешении. Если у вас 30" монитор, без такой видеокарты просто не обойтись :)
У меня тоже 3850, но для gta4 ее уже не очень хватает.
У меня тоже 3850, но для gta4 ее уже не очень хватает.
0
Честно говоря в мою матрицу восприятия мира не укладывается видюха стоимостью некислого компа с недорогим монитором.
Если игруха не тянется нормально, не грех прикрутить опции.
1024x768? — ок
AA: off? — да и фиг с ним
Если игруха не тянется нормально, не грех прикрутить опции.
1024x768? — ок
AA: off? — да и фиг с ним
0
Это вопрос масштабов. Кому-то и купить машину по цене квартиры в центре Москвы не проблема. У меня вот монитор 30", ибо для работы полезен крайне. Если играть на разрешении ниже родных 2560×1600 то картинка выглядит отвратно. Да и вообще, все дефекты изображения хорошо видны. Не покупать же для игр второй монитор, поменьше :)
0
Я тоже не собираюсь покупать такие видеокарты :) Высшая цена, которую я готов заплатить за видеокарту — 7000 рублей, и то — это года на 2 минимум.
Но играть хочется, получая и эстетическое удовольствие, коего получить с разрешением 1024*768 на мониторе с родным разрешением 1680*1050 не получится :)
Но играть хочется, получая и эстетическое удовольствие, коего получить с разрешением 1024*768 на мониторе с родным разрешением 1680*1050 не получится :)
0
UFO just landed and posted this here
Я могу ;)
Для игр, конечно же :)
Для игр, конечно же :)
0
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.
C другой стороны, если это просто двучиповая карта на тех же чипах, что 5890, то лучше будет докупить вторую карту в соседний слот. Тогда будет использовано две линии PCI-E X16, а не одна на оба чипа в одном слоте.
C другой стороны, если это просто двучиповая карта на тех же чипах, что 5890, то лучше будет докупить вторую карту в соседний слот. Тогда будет использовано две линии PCI-E X16, а не одна на оба чипа в одном слоте.
+1
только вот подороже выйдет
0
Ооо, карта из будущего?)) ATI не выпускала 5890, у нее топовая 5870)
+3
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.Знай, что жребий воистину горестен твой,
Коль польстился ты, друг, на процессор крутой:
Он тебе обойдётся дороже алмаза,
Через год превратившись в булыжник простой.
(Источник, увы, не помню.)
0
UFO just landed and posted this here
UFO just landed and posted this here
эх. А ведь всего совсем недавно, в начале этого века я читал разгромную статью в уже почившем шикарном журнале Game EXE про враньё Apple и nVidia с его новым Жифорсом и эпическими на тот момент 10 гигафлопсами. Как сейчас помню фигурировал ещё не вышедший тогда Doom 3, который автор статьи тоже журил за «технологичность» ролика, а не присуствие долгожданного экшена. Долгострой после этого строили ещё 3 года. Прикольно так вспоминать.
А сейчас даже ничего особо по графике не удивляет — со времен третьего Дума и второй Халвы по сути ничего особенного не сделали. Даже Кризис не впечатлил (разве что рекламный, который показывали до игры, и который такое ощущение что чуть ли не на Директ Икс 20 шел).
А сейчас даже ничего особо по графике не удивляет — со времен третьего Дума и второй Халвы по сути ничего особенного не сделали. Даже Кризис не впечатлил (разве что рекламный, который показывали до игры, и который такое ощущение что чуть ли не на Директ Икс 20 шел).
+3
декабрь 2002 года журнал? Он у меня где-то валяется еще…
+1
при упоминании про Game EXE у меня прокатилась скупая слеза — замечательное издание было
0
Ждем очередного технологического прорыва с выходом четвертого поколения консолей. Пока же из них просто выдавливают все соки (совсем крохи остались), значит выход не за горами.
0
Два чипа? Полезную видеопамять снова нужно делать пополам от написанного на коробке?
Когда они уже решат этот бред с работающей половиной видеопамяти. Нафига вообще сувать туда еще видеопамять, которая все равно не будет работать.
Когда они уже решат этот бред с работающей половиной видеопамяти. Нафига вообще сувать туда еще видеопамять, которая все равно не будет работать.
0
Кстати эта карточка Получила награду в CES 2010 Awards
0
А физика на GPU ATI вообще ожидается? Хорошие ведь видеокарты и недорогие, у самого HD3870, кроме Crysis всё работает идеально. Физику хочу!
0
Вкусняшка, хочу.
0
Sign up to leave a comment.
ATI Radeon HD 5970: пять терафлопсов