Pull to refresh

Comments 7

Интересно бы сравнить картинку при кодировании GPU и CPU. Несколько лет назад, когда появилась возможность использовать ускорение GPU для кодирования видео, я обнаружил ухудшение изображения при обработке видео видеокартой. Конкретно драйвер, программа или еще что-то я не знаю, дефект хорошо был заметен на градиентах цветов — «ступенчатость».
Для использования на видеокартах используется специальная версия энкодера H.264, пишут их как правило вендоры железа (NVidia, Intel).
По качеству кодирования он уступает программным энкодерам типа x264, но взамен обеспечивает реалтайм энкодинг (при почти нерегулируемом качестве). Интел Медиа Сервер/SDK — что-то вроде 4х потоков SD на один проц, или один FullHD.
Сейчас кодирование с использованием GPU ломается от каждого обновления софта/дров, но качество настраивается и можно сделать не хуже любого другого варианта кодирования. А вот скорости несравнимы.
В случае с Mercury Engine разницы не будет, он очень хорошо оптимизирован.
Некорректно сравнивать один и тот же проект на машинах с трехлетней разницей.
За несколько лет сильно меняется отношение и восприятие качества. Чем мощнее станция, тем больше слоев кладет художник и тем больше задирает антиальясинг. А realtime — мифическое, недостижимое в реальности понятие.
Тут был одинаковый проект на двух разных машинах
Мдя, потратив небольшие $7000 мы получаем ~30% реального прироста… и то, наверное, половину этого прироста дала оптимизация кода в новой версии софта…
Sign up to leave a comment.