Как стать автором
Обновить

Комментарии 74

амд еще и процессор 6-ядерный сделали, opteron называется. радует, что не стоят на месте.
оптероны они уже тыщу лет делают. они популярны на серверах.
И кому нужны 6 ядер, если ещё 4 не научились использовать?
На серверах научились, поверьте.
На серверах и тысячи использовать научились, но AMD этот Opteron выпускает на потребительский рынок, не так ли?
Вообще-то нет, только на сервера.
Тогда моя ошибка; больше вопросов нет.
Ну вот и на нашей улице Атишников настал праздник)
а говорят что пиратство убивает рынок РС-игр. вот ради чего тогда все они так стараются? не для нового X-Box же.
ну так они ж пишут, что ускорение работы не только в играх, что самой собой разумеется, но еще и в ряде приложений!!!
цитата
Поэтому в целом не удивительно, что на презентации AMD наглядно показали и повышенное качество графики в играх и увеличение производительности ПК в Windows 7 в ряде приложений за счет видеокарты.
Ну и пусть говорят. Почитайте интервью с одним из издателей, он хорошо прошелся по этим слухам:
www.dtf.ru/articles/read.php?id=55387
а меня и цены на их оборудование радуют
хорошее соотношение — цена\качество
К слову, такое же как и у nVidia. У них паритет в этом плане.
В последние 2 года резкое снижение цен на видеокарты произошло благодаря именно ATI(AMD).
Это да, спасибо Radeon 48xx!
И пока не появившемуся у нас в продаже AMD 4770 ~ AMD 4850 ;)
Еще 4890 появилась, скоро должна дойти и до вас. :)
До нас уже дошла GTX 285, уж лучше её тогда. )
Цена/производительность решают.
НЛО прилетело и опубликовало эту надпись здесь
Она вроде в апреле вышла… как быстро у вас время бежит )
Насколько я понял, посмотрев, что есть на Маркете, ATI сейчас в лидерах — у нее самая производительная карточка. Но это по ТТХ, как оно в деле, не знаю.
tinyurl.com/pyv739

No holywars plz.
No holywars, но вы сказали бред, уважаемый. Циферки на yandex.market не отражают производительности видеокарт, лишь их технические данные.
Во-первых топовый радеон 4890,
Во-вторых он(4890) в целом чуть уступает gtx 285, а печ295 — вообще двухчиповая карта.
НЛО прилетело и опубликовало эту надпись здесь
Я имел ввиду сравнение одночипового и двухчипового вариантов.
4890 — топовый «одноголовый». Насчёт топового «2х-голового», не уверен насчёт 4890x2, вроде его amd отдала на откуп вендорам, потребляемая мощность и тепловыделение там походу будут дикими.
НЛО прилетело и опубликовало эту надпись здесь
Извентеляюсь, недоглядел. Указывать что что-то из них лучше есьм холивар, например по Sum of FPS Benchmarks 1920x1200 GTX295 впереди.
Странный спор… лучшая одночиповая видеокарта сейчас — nVidia GTX 285.
НЛО прилетело и опубликовало эту надпись здесь
Ну я выбрал самые производительные из тамошнего набора видях.
Самый последний чип ATI, как заметили выше, 4890, но этой карты нет в x2, поэтому я остановился на 4870x2. А самой производительной из стана Nvidia, как я понял, является GTX295, в двухчиповом варианте я ее не нашел и оставил так…
Ну и написал, что из предсталенного сейчас на рынке карта от ATI — самая мускулистая)
НЛО прилетело и опубликовало эту надпись здесь
Хм… Товарищ Neophyte писал:
«лучшая одночиповая видеокарта сейчас — nVidia GTX 285.»

Кто из вас прав?)
В смысле — сколькочиповая она?
НЛО прилетело и опубликовало эту надпись здесь
Разработали они там… лучше бы дрова под линукс допилили!
Скоро всё будет. Если успеют в ядро 2.6.31 (a c r1xx-r5xx успеют точно, r6xx/r7xx под вопросом), то к концу года, у ATI будут opensource дрова для всех карточек оттестированные толпой убунтоводов, что есть гуд. А потом до Gallium3D не долго…
Пруфлинк? Очень хотелось бы почитать поподробней.
Вообще хорошо бы. Всю жизнь пользовался радиками, но после последнего апгрейда отказался от услуг их карточек. Без нормальных дров нвидиа пока что наше всё.
jglisse.livejournal.com/1822.html
Вот это для r1xx-r5xx попадет в 2.6.31, пробовать уже можно, там всё описано. Работает 2D,Xv,3D,Compiz+3D,KMS/DRI2, nvidia'вским дровам до KMS как до луны, ну может только если Noveau подсобят. Засыпает и просыпается в середине игры в Quake 3, повернутой на кубе компиза.
>Засыпает и просыпается в середине игры в Quake 3, повернутой на кубе компиза.
на дзен какой-то похоже
Как написано у разработчика: don't think it's a normal use case but you never know.
Причем на дзен «повернутый на кубе компиза», что для многих людей тоже характерно.

Сколько экземпляров quake 3 может уснуть на ребре куба компиза? — центральный вопрос этой религии. Кто найдет на него ответ, достигнет просветления.
Answer to the Ultimate Question of Life, the Universe, and Everything is 42.
А вот тут тесты: www.phoronix.com/scan.php?page=article&item=amd_new_linux_stack&num=1
причем надо учесть что этот код сейчас в стадии активной разработки, т.е. тесты от 13 мая могут быть уже не актуальны, последние недели шел активный фиксинг багов, и улучшение производительности.
А вот если посмотреть видео от разработчиков Microsoft
— «Семен Козлов про вычисления на графических картах»:
blogs.msdn.com/mikcher/archive/2009/02/25/channel-9-1.aspx
blogs.msdn.com/mikcher/archive/2009/03/01/channel-9-2.aspx
blogs.msdn.com/mikcher/archive/2009/03/04/channel-9-3.aspx
то получается, что у NVIDIA более продвинутая технология, чем у AMD.
И «вычислительные шейдеры» скорее из NVIDIA CUDA появились, чем из технологий AMD.
Что-то не стыкуется…
Автору не следует тупо копировать восторженные новости-джинсу. Например, 40-нм техпроцесс пока лишь тормозит прогресс, из-за проблем с его освоением у TSMC (главного производителя проводниковых пластин для ядер 3D-ускорителей ATI и nVidia) видеокарты нового поколения задерживаются до конца года. А DirectX 10, несмотря на свое 2.5-летнее существование заметен во многих играх лишь под микроскопом, а в других его вообще проигнорировали. Что такого нового даст DirectX 11 и не повторит ли он судьбу десятой версии?
пока читал комментарии те же мысли в голове возникли, а тут вы =)
интересно, как у них будет обстоять дело с OpenGL, мне эта библиотека больше по душе, чем директХ от мс.
Самое интересное, что DirectX 11 сейчас никому, кроме производителей видеокарт не нужен. На игровой конференции E3 никто, даже MS, не говорит о DX 11. То, что AMD о своих технологиях рассказала на Computec о многом говорит.
Мне кажется, что если эта карта будет действительно заточена только под DirectX, то ее не ждет большой успех. В то время, когда многие разработчики уделяют внимание OpenGL и OpenCL.
Сколько игр, использующих ОпенГЛ, вы видили не на windows? А тогда не все-ль равно?
НЛО прилетело и опубликовало эту надпись здесь
dx10 еще на 50% не раскочегарили, уже 11-й впаривают. мне amd сейчас напомнили продавцов китайских нокий.
В целом да, только появились карточки которые кризис более менее тянут на 10том, да и в целом 10 не раскрыли толком.

Хотя конечно если в 11 столько важного, то наверно оно того стоит, главное, чтобы надолго оно было. По сути для старых пользователей особо ничего не потеряется, так как их компьютеры новые игры всеравно не потянут должным образом, другое дело приложения, где все железо устаревает заметно медленнее.

Еще надеюсь скоро пропадет этот развод людей на объем видеопамяти, когда вид.ха двух чиповая, и пишут 1г или 2 гб, а на деле может использовать только половину. Друг так накололся правда с Нвидией 9800gx2 1gb

у меня 2х4850, проблем нет ни в одной игре. Да и играм пока больше 1024 памяти и ненадо. Прошли те времена когда видеокарты меряли памятью)
Теперь у нас есть фаллометрия :)
У людей любящих железо и разгон она есть уже давненько)
У меня одиночная powercolor 4870 с охлаждением от zherotherm, 850 ядро / 4 память, 512 метров. Хватает на все, исключение — GTA4. Оно неиграбильно вообще. (Даже крайсис на ультра-хай идет… а это… просто 3.14)
У вас наверное монитор небольшой =)
ГТА4 просто надо много памяти, поэтому брал гиговые версии, палит соник, нереференс дизайн + разгон, я думаю не стоит говорить что такое Палит Соник. Жалко что они больше не будут делать карты АМД.
у мну тоже нерефенерс, рефернес — это 750мгц и 3.6 ггц соотв.

>>ГТА4 просто надо много памяти
и нормальный движок. Там разницы никакой, что на минимуме 20 кадров, что на максимуме. 4 гиг рамки ей мало :)

>>У вас наверное монитор небольшой =)
1680*1050 + 1280*1024 подключены счас.
То что нереференс я понял по охлаждению.
Да тут могу согласиться, движок ГТА кривоват =) А вот память ей нужна именно видео, до 2048 у нее идет линейный рост производительности.
Где ж вы карточки с таким объемом видели? Это извращенские модели какие-то.
сдвоенные в сли 1024 метровые, к примеру
Кризис на 1280х1024 на просто полных настройках при 4гб оперативной, и кор дуо Е8500 на 9800gx2 тормозит прсто страшно, выше 10 фпс не поднималось. Было ощущение, что не хватает видеопамяти.
на то он и кризис =)
:) Да тут как повезет, у когото на более слабых АТИ летает. Плюс на этой конфигурации, что я назвал, мать походу немного не в тему, из-за этого касяки с производительностью
Глупость, от матери мало что зависит в данной ситуации. Просто кризис он такой.
Ну может, у нас и НФС про стрит лагал слегка, хотя на 8800 шел плавно.

Может еще в чем проблема была. В Висте например.
обычно есть небольшие лаги на таких картах, связано это с тем что разным видюхам могут достаться разные по нагруженности сцены, и она отработает а другая немного задумается. Это проблема все SLI/CF систем, хотя AMD очень хорошо работает над драйверами что бы устранить это. Так что вам просто рекомендую обновиться на более свежую версию драйвера. Больше мыслей нет %(
Это актуально только для черезкадровой системы работы, если шахматная или половинная — там свои глюки, да и с двумя видяхами очень желательно иметь включенной верт. синхронизацию
Это актуально для любой схемы работы, пусть даже по пол кадра ренреда. С одной может быть море, с другой лес. Конечно море быстрее отрендерится чем лес, отсюда и лаги.
4 гиг рам, корка е6600, играл норм на х1950 про, на 2900 про и на 4870. последняя тянет ультра хай, 1680*1050 с 4х сглаживанием.
«Пока идет гонка технологий, на углубление игрового процесса рассчитывать не стоит.» Ричард «Lord British» Гарриотт.
В топку. Очередная волна развода на деньги. Достойных игр уже не будет, вычислительные решения от этого лучше не будут. Других приложений с ходу не вижу.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации