Комментарии 50
20% и «почти не получила» в одной фразе.
Не, я понимаю, что хотелося бы удесятерения производительности и еще и за 10 баксов. Но есть же реальный мир. 20% вполне прилично, больше, чем сейчас поколения процессоров дают.
Да-да, есть реальный мир, напомню вам как же он выглядит:
image

А у нвидии в презенташке написано «GREATEST GENERATIONAL LEAP» и «up to 2x». Ну, конечно, можно и дальше находить оправдания для прямой лжи и дешевых приемчиков в стиле шаурмячной на углу, но реальная феноменальность нового поколения это цена. Тем не менее, они профакапили и тут, потому что не смогли обеспечить предложение.
Поделите эти проценты на время между генерациями и все станет не так радужно.
Поделить проценты на время? Интересно. Вы бы не могли сами это сделать чтобы донести то, что вы имели в виду? Вот прям последние 3 генерации возьмите.
Прирост по годам. Если для 130% потребовалось 4 года, а другие сделали три раза по +30% к предыдущему за год, то кто в среднем быстрее развивался?
Я не понимаю, почему вы приводите не аргументы, а лишь какую-то методологию, которую сами отказываетесь применять?

Ну хорошо, давайте я сделаю это за вас, мне не трудно, возьмем последние 3 поколения, не Ti.

GTX 980 -> GTX 1080
+60% за 19 месяцев

GTX 1080 -> RTX 2080
+35% за 26 месяцев

RTX 2080 -> RTX 3080
+52% за 24 месяца

Данные все отсюда.

Все, уже тут видно вранье про «GREATEST GENERATIONAL LEAP», даже в более старые генерации не надо забираться.
То, что вы делаете называется подтасовка данных. В чью пользу — неважно в данном случае.
Постройте график по времени и выведите среднее значение.
И вообще, у вас никак не получится по этим данным вывести «почти не получила»(смотрите начало ветки)
А можно уточнить какие именно данные я подтасовал? Ну, чисто чтобы не продолжать делать громкие бездоказательные заявления вместе с NVIDIA?
Я не понимаю, почему вы приводите не аргументы, а лишь какую-то методологию, которую сами отказываетесь применять?
потому, что её запросил ваш оппонент, а я просто указал, как правильнее рассматривать прирост между поколениями в привязке ко времени, ибо не через одинаковые промежутки выпуск происходил.
Пора уже какое то крепление дополнительное делать. А то такие монстры со временем провисают и начинают отваливаться контакты. Приходится угол подпирать чем то. Тут кто то писал что палочками для еды подпирал чтобы работало.
Палочки как то совсем не надежно звучит.
Palit придумали и кладут в комплект к 3080 карте прозрачный акриловый держатель.
У меня в комплекте к корпусу Cooler Master CM 690 II Advanced была тоже приблуда для поддержки видеокарт.
Ну и в нормальные материнки сейчас уже ставять усиленные слоты РСІ-Е.
К слову сказать поддержка периферийных карт (на тот момент еще обычного PCI и AGP) была by design сделана в корпусе Thermaltake Xaser III выпущенного в 2003 году.
Этот старичок скоро встретит двадцатилетие на подстольном боевом посту
Оно и раньше было, для fullsize карт поддержка была ещё в первых ATX корпусах, но потом пришло время красивых дизайнов… А так пожалуйста — www.trepup.com/hitechcomputercentre/products/compaq-400546-001-smart-array-221-pci-scsi-raid-card/494976 пример карты для установки с этой поддержкой на второй фотографии (эта пластиковая ручка на заду карты удачно входила в ответку на корпусах (и это не только «белая» сборка от компака, но и во всякие Inwin S500 оно также вставлялось прекрасно)).
это было ещё в корпусах для ХТ, с длиннющими SCSI или CGA видяхами
кстати вариант — вернуться к формфактору лежачий десктоп
Или взять корпус, где видеокарта стоит вертикально. Ну или через райзер + держатель для видеокарты
Штатные кулеры корпуса до сих пор работают и не думают помирать.
А чего им будет? Только машинного масла раз в год капнуть, чтобы не гундели.
не, штатные все передохли, хоть я масла и подливал =(
и штатный БП умер году в 2010, на 420 ватт. 420 в базе в 2003, когда еще массово ставили на 250вт и это считалось нормой
на 99% умерла штатная подсветка логотипа — даже не знаю что там за технология светящейся пленки.
У реобаса разболтались ручки
Но все равно я считаю что это были лучшие вложения моей первой зарплаты в 2003 году — хотя бы как ностальгия которая до сих пор мне служит, и которую я с легкостью могу потрогать ногой прям щас, перечитывая хабр
В «старые времена» в корпусах была предусмотрена съемная вертикальная балка, с помощью которой(и пластиковых клипс, вставляемых в балку) подпирались видеокарты, сейчас такая «новинка» снова начинает появляться, спустя 15 лет.
Даже в закромах еще есть такой, оказывается.
image
А у вас и стандартная поддержка полноразмерных карт есть.
Красным выделена
image
В комплектах с некоторыми картами уже идут поддерживающие пластины. Ну и в дорогих корпусах давно существуют поддерживающие крепления.
Пора уже какое то крепление дополнительное делать.

Ага, вертикальную установку.
А если мамку положить, то поддерживать и тяжелый кулер на процессор не надо… Правда для полных ATX корпус какой-то большой получается, а для mATX — норм.
Жаль, что не сделали какого-нибудь стандарта крепления процессорных кулеров для ATX, и в итоге производители только экономят металл на вырезах для удобства пользователей.
А для видеокарт в принципе ничто не мешает как я понимаю цепляться за корпус. Но везде где я видел к корпусу прикручивается задняя железка, она прикручена к плате, а уж к плате прикручено охлаждение весом чуть ли не в килограмм. Вот нафига так делать, и почему бы не соединить две железки напрямую?
У меня сквозные дырки для крепления задней планки. И я за****ся скручивать их вместе, т.к. нужно было минимум три руки чтобы всё соединить.
Вот вот. А были бы фиксированные стойки прямо в корпусе, и хватило бы одной руки.
А как сторонникам mini-itx жить? И так далеко не в каждый корпус влазили, а сейчас вообще печалька будет.
Не референс 3080 на два слота должен без проблем влезть в корпуса 7+ литров по типу Dan A4.
Да, но там с охлаждением намудрили. По идее в большом кейсе с хорошо организованным потоком воздуха оно работает, а вот в «сэндвичных» mini ITX корпусах… Ждем тестов от энтузиастов короче, сразу как легче с наличием станет.
Не референс это дизайн от сторонних производителей. А там у всех классические три вертушки с одной стороны и старые разъемы питания.
А, тьфу, умудрился проглядеть «не». Да. Однако по габаритам FE, похоже, самая мелкая при всем при этом.
С самыми первыми версиями всегда так. У всех вендоров практически одинаковый охлад и он большой, т.к. печатные платы они чаще всего не успевают свои разработать. Нужно немного подождать, пыль уляжется и пойдут уже интересные версии. Уверен и короткие будут на 2 вертушки.

Комп на бок положить и никакие палочки не нужны ) сервера так десятилетия работают и ничего не провисает. Ну разве что чсв владельцев ЛГБТ подсветки )

Он так больше места занимает. А гроб у меня и так без подсветки и окошек, не нужно тут всех приписывать к владельцам подсветки. И да, в подсветке нет ничего плохого, пока есть возможность её отключить, кому нравится, тот оставит и настроит для себя.
Уважаемый автор, обновите картиночку с характеристиками. Кол-во CUDA -ядер в 2 раза больше.(хар-ки) И раз уж сравнивать, то брать обе карты из топа серии. 2080 ti и 3090. Или тогда сравнивать 2080 Super с 3080(S). И тогда становится интересней — 3072 против 8704 cuda ядер. И памяти уже 8GB против 20GB. И производительность лучше подросла.
Сравнение тут верное: 3080 прямой конкурент 2080ti, а 3090 замена rtx titan. Ну и на счет игровой производительности: реальная разница там 15-20% в 2k и без dlss. Сравнение в 4к просто маркетинговая чушь, так как обе карты не в состоянии предоставить стабильные 60фпс в этом разрешении на макс графе. Но в любом случае это отличный результат учитывая цену в 2 раза ниже.
Сравнивать нужно исходя из стоимости на старте продаж (грубо сколько производительности получишь за 1$), и тут получается что 3080 прямой конкурент 2080 — оба на старте продаж стоили 700$ — сразу виден ощутимый прирост, ибо за те же деньги получаешь на 70% больше фпс (по тесту DOOM Eternal из статьи). Для 3090 (1500$) нет прямого конкурента т.к. 2080TI стоила 1200$, а TITAN RTX — 2500$, тут либо ждать 3080TI либо как-то по удельной стоимости сравнивать.

Игры это хорошо, но мне вот, например, не менее интересна домашняя студия и Nvidia Broadcast… Хромакей доставать и свет расставлять лениво, шумы проезжающих тракторов за окном появляются в самый неподходящий момент совещания — а новый софт обещает исправлять все лучше прежнего… И несмотря на krisp.ai chromacam.me RemoteFace.ai хочется надеятся, что качество стримов с RTX 3080 возрастет. К сожалению, моя 1080 не потянула релиз, а толковых обзоров Nvidia Broadcast еще не видел…
Приятно также что во время простоя, видюха вполне способна майнить, особенно по ночному тарифу и по-тихоньку себя отбивать. Да, с AntMiner S19 не сравнится, но и цели другие: 2 года, по 8 часов по ночному тарифу 2.13р/кВт — отбивается практически вся цена видюхи, а если не жалеть и с idle приоритетом гонять круглосуточно, то и заработать получится.

Сегодня в 11:36 пришло уведомление из DNS, а в 11:43 никакой Palit RTX ожидаемо не оказалось в наличии. И вот эмоции угасли, включилась логика, youtube, поиск Nvidia Broadcast и вот этот дядька окончательно отбил желание охотиться на 3800 как минимум до выхода BigNavi. Snap Camera технически делает все тоже самое что и Nvidia Broadcast. Да, стабильные драйверы AMD (ATI) так и не научились делать и будут еще год после выхода железа отлаживаться на проде… Но 350Вт печь после десятков независимых тестов выглядит уже не так революционно...

Бюджет транзисторов на квадратный мм? Серьёзно? Это левый русский или я так отстал от жизни?


А вообще, неужели тех.дизайн у чипов Самсунг настолько плох, что 8-нм чипы потребляют на 40% больше, чем 12-нм тайваньские? Даже не верится как-то.

А вообще, неужели тех.дизайн у чипов Самсунг настолько плох, что 8-нм чипы потребляют на 40% больше, чем 12-нм тайваньские?
Почему плох-то? Транзисторов ведь стало в два раза больше.
Чипы то крупнее/сложнее стали, а не просто тот же самый чип на новый тп перевели. Потребление энергии выросло на 30-40%, но производительность в большинстве случаев выросла на еще больший %, так что энергоэффектиность (производительность / Вт) все-таки увеличилась. Просто не так существенно, как ожидало большинство.

В результате 8нм от Самсунга все-таки лучше тем 12нм от TSMC, но при этом оказались намного хуже чем 7нм от них же. Хотя до этого опять же многие почему-то считали что у них примерно паритет или даже наоборот самсунговские 8нм лучше.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.