Pull to refresh

Comments 148

AMD выложила все козыри, теперь осталось дождаться ответа NVIDIA.
А рождество не за горами!
Ответа ещё полгода примерно ждать. А ещё через полгода красные выкатят ~10 терафлопсового монстра.
Не отказался бы от такого подарка на НГ :)
Давай кружку, кипяточку плесну.
круто округлил… давай сразу до десяти, делов-то
Число транзисторов и количество терафлопсов величины не равнозначные.
радует одно, раньше «самые мощные видеокарты в мире» выходили обычно с ценником порядка 1к, иногда даже дороже… кризис+конкуренция

П.С.извините за слово кризис :)
да вот тоже самое хотел сказать, недорого $600 для «топовой видяхи».
1к за high-end карту? Когда это такое было? Производители уже лет пять точно стараются ориентировать свои топовые карты в сегмент от 500 до 700 долларов максимум.
дык это просто 5970, думаю ещё будет 5970х2 — вот она уже около 1к, думаю, будет.
Это и есть двухчиповая карта. Никакого х2 не будет.
да, извиняюсь. как-то невнимательно прочитал новость.
эх, может быть когда-нибудь и в iMac'и встроят…
зачем? это карта для игр > для игр дешевле купить приставку (если конечно играть не для того чтобы дрочить на АА и шейдеры)
верно, но на приставке моя любимая онлайновая игруля Entropia Universe (движок CryEngine2) не пойдёт… а ради неё собственно и хотелось бы что-то мощнее моей ATI Radeon HD 2600 Pro… а то играю на высоких настройках, но в довольно маленьком окне…
когда на полный экран 1680 x 1050 — довольно ощутимые тормоза, мешающие получать удовольствие от игры…

а только ради одной игрушки покупать отдельный компьютер не очень выгодно… (как с точки зрения места на столе, так и денег на покупку и обновление)

интересно, как этот Apple вообще выбирает какие видюшки ставить в новые аймаки…

оффтоп…

ну, а возвращаясь к теме, где-то уже было тестирование в играх? например, оч хочется узнать, во сколько раз в Crysis'е эта видюшка лучше моей?
UFO just landed and posted this here
компьютер-то не для игр позиционируется, видюшка там не на первом месте всегда была… на первом месте — удобство и простота работы, решение задач пользователя…

> Дабы потом накрутить 300% за брен и впаривать лохам.

да никаких 300% за бренд там нет, в Штатах они ведь дешевые…

А вы из зависти что ли считаете обладателей macов лохами? А как вы относитесь к обладателям ламбарджини, например? Или это такой толстый троллинг у вас? :-)

У большинства нормальных людей игры всё же не на первом месте в жизни.
Я, например, когда покупал мак знал, что видюшка не крутая, но мне нужна именно MacOS и никакой не хакинтош, а нормальный мак. Лучше уж игры тормозят, чем будет неудобно работать. Я выбирал по соотношению цена/качество. И выгоднее через годик купить новый мак, чем на тот момент покупать супернавороченный MacPro за большие деньги (150-200 тыс для компьютеров это дорого). Не считаю себя лохом по крайней мере.

Впрочем, чтобы не разводить холивары, я не навязываю своё решение другим, для меня мой выбор самый оптимальный, для кого-то другого может быть и нет. У всех разные финансовые возможности и решаемые на комьютере задачи.

Меня огорчает в первую очередь именно отсутствие предложений (дешевле 100 тыс рублей) с хорошими видеокарточками, а не завышенные в России цены. Хотя и цены тоже :-)
Ну и габариты. Если так пойдет дальше, то значение поддерживаемого разрешения будет идентично размерам карты в мм.
Да, пятерочка еле в короб влазила )
О боже, что это? Что за поделка сумрачных гениев из 3dfx? Я так понял, требует отдельного внешнего блока питания?

Кстати по габаритам 5970 больше уже будет :)
Меня правда интересует, что это за шелезяка :)
Я помню, у меня была такая же помоему…
Только без блока питания.
PS Вот почему она не работала?=)
Я думаю, вы ошибаетесь. 6000 были изъяты из продажи почти сразу, а партии уничтожены, в связи с продажей компании конкуренту. На сегодняшний момент владельцев таких карт в РФ и странах СНГ можно пересчитать по пальцам. Последняя на моей памяти ушла на ибее примерно с год назад в нерабочем состоянии за стоимость около 700$.
Не вспомню даже какой это был год… Помню вставлялась Voodoo в слот PCI, и у меня так и не заработала, по этой причине вернулась назад на радиорынок, внешне похожа была на эту (4 проца 3dfx), возможно надписи на чипах были монохромные.
Я вам по доброму завидую, что вы хотя бы просто держали это чудо в руках… сейчас могу только мечтать заиметь такую себе в коллекцию! Максимум что имею, это 5500 и Quantum3D Obsidian 2 (90-2440)
*предвкушает гемор с дровами под линух
Во что вы собрались играть под линухом с такой видеокартой? =)
Играть в наивные надежды, что когда то флеш под никсами перестанет глючить
Вот этого монстра да флешем грузить?!
Чем его еще грузить под линухом то?
Хитрым математическим вычислением и прочим оупен аэлем. Или виртуалкой с виндой и крайзисом.
Нынче видеокарты используются не только для отрисовки графики, но и для сложных математический расчётов. Особенно, эффективность решений заметна в том случае, если задача хорошо параллелится. Например, один мой знакомый реализует расчёт молекулы белка именно на видеокарте. Такое решение существенно превосходит по соотношению цена/результат решения на базе обычных процессоров.
Зачем тебе такое под линухом?
Карта:
idle: 42
load: 294

Система в сборе:
idle: 170
load: 480
В самый раз для обогрева комнаты холодными зимними вечерами! :-P
Это с использованием технологии Eyefinity
А, понятно. Не понял, что речь идёт о суммарном разрешении трёх дисплеев. Явно это не было сказано. Просто сначала чуть со стула не упал, увидев цифру вертикального разрешения более 7 тысяч. Сразу полез смотреть спеку. В спеке никто эти разрешения не суммировал. Поэтому и удивился.
UFO just landed and posted this here
Виноват. Прошу прощения. Конечно, горизонтальное разрешение.
7680=2560*3 как раз на три монитора по ширине.
Главное, чтобы кулер не гудел как паровоз.
Смазывать просто чаще надо
Там беруши в комплекте.
Кстати там испарительная камера стоит в стоковой системе охлаждения. В простое греется на жалких 38 градусов и турбина естественно должна очень тихо работать. При нагрузке судя по тестам уровень шума находится на уровне 65 дБ, это меньше чем у 295GTX и 4870х2. При этом температура также очень низка для такой мощности.
Суперкомпьютеры скоро будут строить из видеокарт
или видеокарты из суперкомпьютеров ;)
Посмотрите на пункт №5 в Top500
неужеи производители видеокарт наконец-то обогнали производителей игр?
На словах да, в практике нет!
я просто редко играюсь, но что не пойдет на этом?
Кризис. С уважением, К.О.
Да? Вроде как даже на GeForce 9600 особо тормоза не замечались
=) я о том что он никогда не пойдёт в максимально разрешении 60 кадров.

А про «особо тормоза не замечались» могу сказать что для меня, например, приемлемым количеством является именно 60 кадров в 1920*1200. Естественно я имею ввиду максимальную детализацию со сглаживанием хотя бы 2X
Адский, адский геймер.
Не знаю, сарказм ли. А вообще стаж около 15 лет.
Через него все прошли, вроде.
Пойдет. 65 fps при 1920х1080 с 4xAA. Но только на разогнанной карте. Пруф для тех, кто не верит tiny.cc/IstZY
Отлично, надо брать. Только настройка качества всего-лишь «gamer quality».
а как же вы раньше играли? в 320х200 ^_^
Просто маг, вы знали!
я запускал его на AMD Athlon 64 X2 6400+ и GeForce 9800GTX+, 30-35 fps, ниже не опускается…
см. коммент выше. А про ГТА4 согласен. Жутко тормозная получилась.
видимо да, а то как rockstar сделали gta 4, так фиг знает сколько ей видеокарт надо, чтобы запустить на максимуме, хотя я думаю это практически нереально, так как у нее плохая оптимизация.
не помню, что там с графикой, если честно, давно не играл в нее
Да что вы говорите? HD 4850, max, 1920x1200, фпс ниже 35 не опускается
тогда извините, не знал.
а какой процессор стоит у вас?
C2D E8400 @ 3.75GHz (500Mhz FSB, множитель 7.5 и память Kingmax 1066Mhz @ 6-6-6-18 @ 2.2V, думаю опускать тайминги до 5-5-5-15).
UFO just landed and posted this here
Пропатченая тормозила? ОС какая?
UFO just landed and posted this here
странно, с таким компом должно летать, вы патчи все ставили?
класс, клевая видюха, надеюсь, что моя любимая Nvidia всё же обгонит эту новинку, всегда так было, выпустила ati, потом nvidia сделала круче, будем ждать
UFO just landed and posted this here
да, чем выше конкуренция, тем ниже стоимость.
И все-же от терафлопсов до FPSа в играх — долгий путь :)
По результатам тестов — она превосходит GTX295, но не на много.

И от себя добавлю, я вообще несколько предвзято отношусь к двухчиповым решениям… т.к. во первых нужен очень мощный процессор, а во вторых не все приложения однозначно реагируют на 2 GPU (в плане производительности).
Хочу чтобы Windows 7 SP1 запускалась на видеокарте без установки CPU.
я тоже, вообще думаю, что многие этого хотят =)
Есть сборка линукса, которая полностью работает на видеокарте (не помню, то ли нвидия, то ли ати). Там дело в том, что мощность видеокарты для вычислений общего назначения пока не может сравнится с ЦП. Сильно оптимизированные параллельные вычисления (графика, научные штуки, и тэдэ) — пожалуйста. Но говорить про ОС на видеокарте пока, увы, рано.
Нет такой сборки Линукса. У вас сформировалось неправильное впечатление на основе слухов.
Не есть, а будет. И «использовать возможности видеокарты как ЦП» вообще ничего не говорит о конкретных возможностях. И единственным источником слуха является Fudzilla, которую уже ловили как на лжи, так и ламерстве. И даже Fudzilla пишет, что им сказали о теоретической возможности использования ОС вообще, а не конкретно линукса, и есть куча причин, по которым линукс туда будет не портируем.
Скоро на масштабных фото разъем PCI-E будет выглядеть в виде точки, которую будут обводить красным кружочком и делать подпись — это разъем.
Только мне показалось, что корпус видеокарты обтянут кожей?
UFO just landed and posted this here
Картинку просто безобразно пожали. Когда уже jpeg двинет кони…
И размеры видеокарт становятся все больше и больше. Я точно доживу до того момента когда очередное топовое решение от… будет занимать половину объема системного блока.
… или отдельный системный блок.
UFO just landed and posted this here
… Crysis 2 на максе выдаёт 25-35 фапс, иногда подлагивает…
Достойный вестник апокалипсиса!

… В год появления радеона компьютерного возвестит о приходе всадник апокалипсиса, и спустится с небес огонь и воспылает земля…
А что все в игры то уперлись, для графики она тоже будет хороша, фанаты АТИв этом году с выходом многих пакетов были расстроены что многие из HD серии уже не поддерживаются. а тут такая радость да еще и за 600 у.е.

А на счет ответа от nVidia, — она может тоже уже сделала подобную карту но не рассказала об этом =) так что и пол года ждать не прийдется
Меня всегда интересовало, кто может позволить покупать себе такие видюхи? И главное зачем?
Мы с моей ATI HD3850 не испытываем никакого дискомфорта.
может вы просто и не играетесь :)
ибо полно таких игрух, которые из-за своей неоптимизации, напрягут и такого монстра
Я могу ;-) Сейчас у меня HD5890 стоит, комп сам собирал.
Интереснее узнать ответ на второй вопрос.
Играть, батенька, с высоким качеством графики, а главное — на большом разрешении. Если у вас 30" монитор, без такой видеокарты просто не обойтись :)

У меня тоже 3850, но для gta4 ее уже не очень хватает.
Честно говоря в мою матрицу восприятия мира не укладывается видюха стоимостью некислого компа с недорогим монитором.
Если игруха не тянется нормально, не грех прикрутить опции.
1024x768? — ок
AA: off? — да и фиг с ним
Это вопрос масштабов. Кому-то и купить машину по цене квартиры в центре Москвы не проблема. У меня вот монитор 30", ибо для работы полезен крайне. Если играть на разрешении ниже родных 2560×1600 то картинка выглядит отвратно. Да и вообще, все дефекты изображения хорошо видны. Не покупать же для игр второй монитор, поменьше :)
[sarcasm]
«Гениально!»

Значительно проще купить видеокарту по цене нового монитора и менять ее каждый год, потому что новый Crysis будет выглядеть плохо без AA на Вашем 30" мониторе.
[/sarcasm]
Я тоже не собираюсь покупать такие видеокарты :) Высшая цена, которую я готов заплатить за видеокарту — 7000 рублей, и то — это года на 2 минимум.

Но играть хочется, получая и эстетическое удовольствие, коего получить с разрешением 1024*768 на мониторе с родным разрешением 1680*1050 не получится :)
UFO just landed and posted this here
Я могу ;)
Для игр, конечно же :)
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.

C другой стороны, если это просто двучиповая карта на тех же чипах, что 5890, то лучше будет докупить вторую карту в соседний слот. Тогда будет использовано две линии PCI-E X16, а не одна на оба чипа в одном слоте.
Ооо, карта из будущего?)) ATI не выпускала 5890, у нее топовая 5870)
Ну вот, скоро моя HD 5890 перестанет быть самой крутой.
Знай, что жребий воистину горестен твой,
Коль польстился ты, друг, на процессор крутой:
Он тебе обойдётся дороже алмаза,
Через год превратившись в булыжник простой.

(Источник, увы, не помню.)
UFO just landed and posted this here
И что, у тебя будет праздник, маленький тролль?
UFO just landed and posted this here
Достойное занятие, о юный падован.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
эх. А ведь всего совсем недавно, в начале этого века я читал разгромную статью в уже почившем шикарном журнале Game EXE про враньё Apple и nVidia с его новым Жифорсом и эпическими на тот момент 10 гигафлопсами. Как сейчас помню фигурировал ещё не вышедший тогда Doom 3, который автор статьи тоже журил за «технологичность» ролика, а не присуствие долгожданного экшена. Долгострой после этого строили ещё 3 года. Прикольно так вспоминать.

А сейчас даже ничего особо по графике не удивляет — со времен третьего Дума и второй Халвы по сути ничего особенного не сделали. Даже Кризис не впечатлил (разве что рекламный, который показывали до игры, и который такое ощущение что чуть ли не на Директ Икс 20 шел).
декабрь 2002 года журнал? Он у меня где-то валяется еще…
при упоминании про Game EXE у меня прокатилась скупая слеза — замечательное издание было
Ждем очередного технологического прорыва с выходом четвертого поколения консолей. Пока же из них просто выдавливают все соки (совсем крохи остались), значит выход не за горами.
Два чипа? Полезную видеопамять снова нужно делать пополам от написанного на коробке?

Когда они уже решат этот бред с работающей половиной видеопамяти. Нафига вообще сувать туда еще видеопамять, которая все равно не будет работать.
Кстати, да. Меня это в своё время жутко раздразнило при покупке 4870 X2.
Кстати эта карточка Получила награду в CES 2010 Awards
А физика на GPU ATI вообще ожидается? Хорошие ведь видеокарты и недорогие, у самого HD3870, кроме Crysis всё работает идеально. Физику хочу!
Нормальная такая физика. Но хочется, чтобы игры с поддержкой PhysX показывали физику и на ATI.
Они показывают, только расчетом занимается процессор
При этом тормоза такие, что играть не хочется :)
Да ладно вам, что у вас за процессор, у которого от приема PhysX тормоза?
Обычный такой Dual Core. У друзей на C2D такие же тормоза.
Sign up to leave a comment.

Articles