Как стать автором
Обновить

Комментарии 37

То есть нынешние топовые игровые видеокарты в современных играх не обесспечивают 60фпс и комфортными считается 30? Отстал я от жизни.
«ну так кому это надо, полутора энтузиастам?» (с)
Мне надо. Численные вычисления гонять.
За FP64 вам к красно-белым. 7970 по цена/выхлоп (она же R9 280X) получается одной и самых выгодных, если мне память не изменяет.
Просто нынче ААА-девелоперы пали под жутким натиском собственных маркетологов. В итоге слово «оптимизация» для них за семью печатями. Практически каждая новая игра с ценником 1-2к выходит сырой. Бывает настолько сырой, что её аж снимают с продажи (почитайте про Batman: Arkham Knigth, у них было 10 тестеров ПК-версии, когда их должна быть не одна сотня, игру откладывали почти на год, в итоге игра до сих пор лагает на компьютерах с двумя GTX 780 Ti). И это далеко не единичный пример, 2014-2015 года задали очень хреновую тенденцию в купе с этим «ранним доступом», который в 99% введет к забиванию на игру болта.
От жанра зависит.
Если вы играете в стратегию, или с геймпадом в какую-нибудь аркадную игру, то 30 вполне хватит: вспомните XBox 360 или PS3.

А вот для шутеров, управляемых клавиатурой и мышью, нужно минимум 60.
Для шутеров комфортным считается игра на мониторе 120-144Гц, частота обновления кадров нужна соответствующая, вот там и нужна такая лихая мощность.
А в играх типа GTA V (не онлайн), например, лично я действительно комфортно играю и при 30, лишь бы проседаний не было.
P.S. Пардон, 120-144Гц в шутерах это luxury, а 60Гц — просто комфорт :-)
Может быть, если речь идёт о турнирных онлайн-шутерах, а игроки уже такого класса, что подобные показатели действительно влияют на результат больше, чем эффект плацебо. Правда, им как раз ни графон, ни 4k2k обычно не нужны.

В остальных же случаях что 30, что 60 — один фиг, есть ещё input lag у монитора, polling rate у USB, пинги, сама реакция человека… В общем, 30 вполне хватает на комфортный синглплеер там, где не требуется огромная частота кадров именно с точки зрения геймплея.
30FPS — это мало не только для игры, это мало даже для UI системы. На 4k мониторах по дефолту почему-то отключают DP 1.2, как результат изначально они работают в режиме 30Hz. Ощущение такое что стоит «Generic VGA Driver» или как оно там тогда называлось, после включения DP 1.2 и переключения на 60Hz разница поразительная.
Монитор-то всё равно 59(60) Гц будет выдавать, что при 30 FPS, что при 45. Не путайте развёртку и кадровую частоту.
Не сочтите за труд пояснить какой мне прок от 60Гц при 30FPS (чресстрочную развертку сразу выкинем, с ней играть невозможно)? Даже для видео, при всем том что в нем ниту никакой интерактивности, разнца между 30 FPS и 60 FPS видна очень хорошо, в шутерах, где надо использовать мышку — разница еще гораздо более заметна.
Раставим все точки над И:
0-25 FPS — неиграбельно. Разве что нервы портить.
Стабильные 30 FPS играбельны, но заставляют периодически вспоминать, как же хорошо оптимизирована CS:GO.
40-60 FPS более чем играбельны и являются комфортным уровнем игры.
100, 200, 300 FPS и более сейчас редкость и можно увидеть только в 2D играх, Source-based, ну и в различных старых.

При этом для задрота CS:GO (да и не только GO) будет существенна разница между 250 и 400 FPS. Другими словами для каждого игрока приемлемый уровень отличается.
Хм, а есть железо, на котором реально увидеть 400FPS (Я имею ввиду 400Hz мониторы)? или это чисто условные примеры?
Эта разница реально заметна в тех же Source-based играх. Можете проверить. Сначала поставьте высокие настройки, у вас в зависимости от ПК будет 30-60 FPS (если совсем хороший ПК, то могут быть и все 200, но я ориентируюсь на средний), затем самые-самые низкие, у вас будет 250-420 примерно. И вы реально будете замечать разницу. Скажу лишь то, что на многих турнирах геймеры ставят самые-самые низкие настройки, несмотря на то, что им дают далеко не самые слабые ПК. В других играх зачастую всё упирается в оптимизацию и будь у вас хоть суперкомпьютер вы всё равно выше определенного значения не поднимите.
До определенного уровня разница будет заметна из-за того что не каждый новый кадр не всегда попадает в промежуток между обновлениями монитора, т.е. 60FPS на 60Hz будет смотреться чуть хуже чем допустим 90FPS на 60Hz или 60FPS на 120Hz (просто потому что 60/60 в реальности количество кадров в секнуд будет чуть ниже 60), но вот для 400FPS чтобы увидеть разницу я думаю даже 240Hz монитора не хватит.
Да, думаю вы правы, дальше разве что плацебо :)
Crysis первый не пробовали запускать?
Запущу специально для вас. 2560х1440 с макисмальными настройками? Или 4k2k DSR?
И так и так, что же вы :) И Warhead еще неплохо бы
Ворхэда лицензии нет, увы, да и там бенчмарки вроде не сильно отличаются.
Запускайте на максимуме. ТАК, ШОБ ВЖАРИЛО!
Надо Delta Force запустить. Она тормозила на всём топовом, что на момент её эксплуатации было. Хотя в графике далеко никаких откровений не было.
Странно, у меня правда не 4к, а 1080р но Witcher 3 на всем на максимум (да и пресловутые волосы) выдает порядка 40-60 фпс на 970.
Ну вот именно потому что не 2560х1440 и не 4к, а 1080. Нагрузка на GPU в таком разрешении значительно ниже.
А линейка DF ещё жива?
Было бы железо, а игры подтянутся.
А вы бы стали платить за игру такого качества? )
Вопрос не про качество игры, а где ее достать для теста.
P.S. Хотел, но все же не купил. Подожду патча, посмотрю станет ли лучше.
Ну вот и я для теста видеокарты брать такое сырое [censored] за деньги, а не демо-версию на каком-нибудь трекере, не стал бы.
4 ГБ (теоретически) и вовсе хватает всем

Вот этот вопрос не дает мне покоя с момента покупки первого (нулевой не в счет) ПК.

Моя история такова:
2003 — GeForce MX440 64mb
2006 — Radeon X1600PRO 128mb
2008 — Radeon HD2600XT 256mb
2012 — Radeon R6850 1024mb
2016 — ???

На момент покупки каждой из этих карточек мне вполне хватало их памяти, все убеждали меня, что N мегабайт хватит всем! Но мой личный опыт подсказывает нехитрую зависимость: каждые 2 года необходимый объем видеопамяти удваивается.

Я вот грешным делом думаю немного подождать и взять Radeon R9 390 8096mb… Или произошла какая-то революция и теперь 4096mb действительно хватите всем?
Нет, произошли консоли, и большинство кроссплатформенного буллшита реально вкладывается в эту память. А ПК-эксклюзивов не так много. Если у вас не 2560х1440 и не 4k2k монитор, то 4 ГБ с головой на ближайшие пару-тройку лет. Для 2560х1440 4 ГБ достаточно для всех текущих тайтлов, ну а что там будет с оптимизацией следующих продуктов для высоких разрешений — пока не ясно. Я об этом писал уже в статьях про GTX 970, посмотрите в самом начале этой статьи ссылочки. Восьмигиговая R9 390X — безусловно, оверкилл. Кто-то сильный, а кто-то умный, и всё такое. Внутри — архитектура от 7970, немного улучшенная количественно и качественно. Для игр в этом поколении, увы, Maxwell в большинстве случаев решает. А в текущем варианте цен R9 290 и R9 290X во многом выгоднее, чем поколение R9 300, если вы готовы смириться с тем, что кое-где придётся немного снизить качество постобработки. И так будет ещё пару-тройку месяцев, пока топовые R9 200 не закончатся на складах.
Спасибо, почитаю! Монитор пока 1920x1080 и у счетом кризиса, в ближайшее время, ничего не изменится, хотя я мечтаю о 3-х мониторной конфигурации.

Меня смутило вот что: 4gb у топовой Fury X и целых 8gb у более «бюджетных» моделей. Это навело меня на мысль, что память больше никому не нужна, видимо я ошибся.
Fury эт экспериментальный проект AMD по применению другого типа памяти. Скоро по ней будет статья, там всё и расскажем. :)
Отлично! Тогда личное пожелание — сравните ее с 390-й серией!
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.