Pull to refresh

Comments 121

Это конечно круто. И я, как пользователь, в восторге от прогресса. Однако, у предыдущего кодека h265 огромные проблемы с поддержкой браузерами.
Огромная проблема с поддержкой H.265 следует из фундаментальной проблемой с его лицензией. Открытый AV1 всё еще в процессе своего становления, а поддерживается уже лучше. AV1 — наше всё.
Открытый AV1 всё еще в процессе своего становления, а поддерживается уже лучше.
Поддержка — это хорошо, но со скоростью кодирования там все анекдотично плохо было последний раз, когда я проверял. Что-то принципиально изменилось? Если нет, то AV1 будет прерогативой только гигантов вроде гугла и амазона.
Ну я вот переодически смотрю что там у rav1e кодера.
Ну сейчас он в зависимости от контента может показать чуть лучшее качество чем x265 placebo и libvpx-vp9 с максимальным пресетом. При этом по скорости от +- одинаково, до того что rav1e в 2 раза медленее.
Но так же иногда vp9 и h265 показывают лучше качество, так что пока спорно.
libaom же реально может в лучшее качество, но как вы и сказали скорость кодирования там просто смешная.
Есть ещё svt-av1 но у меня нету железа с avx2 чтобы нормально его протестировать, а на моём железе при равной скорости с rav1e, по качеству он хуже.

Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.
Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.
Да, у Google с этим проблем нет, любой их стандарт сразу залетает в 70% браузеров, остальным просто некуда деваться.

Я надеюсь, что Вы не пробуете декодировать h.265 на интеграшках Celeron/Pentium 10-летней давности.

Я не про декодирование.
Поддержка AV1 в Chrome и Firefox реализована за счёт библиотеки Dav1d. Логично, что проприетарного H.265 перспективы поддержки хуже.
Хотелось бы просто годного отрытого кодека с аппаратной поддержкой в процессорах.
По ссылке в этом в этом контексте «открытая» является синонимом слова «свободная». И там GPL почему‐то упоминается, которую свободной уж точно нельзя считать, поскольку она полностью опирается на систему копирайта, поддерживаемую государственным аппаратом насилия.

Действительно свободная лицензия в рамках системы копирайта — CC0 на исходники для открытых проектов и CC0 на бинарники для закрытых проектов.
Open license это как раз свободный. Open format см. Например, pdf. Обратите внимание, Adobe — единственная компания, которая контролирует все pdf патенты, но они позволяют свободно использовать свои pdf патенты всем желающим. Кроме того, ISO стандарт в первой части (pdf версии 1.7) свободно распространяется, pdf 2.0 же доки (вторая часть) требуют 198 франка. Тем не менее, pdf 2.0 это тоже открытый формат, так как даже открытый формат не требует открытой (=бесплатной) ДЛЯ ВСЕХ документации. Изучайте тех доки. wwwimages.adobe.com/www.adobe.com/content/dam/acom/en/devnet/pdf/pdfs/PDF32000_2008.pdf
Ваше мнение было понятно ещё из предыдущего комментария, но чем-то подкрепить вы его можете?
Потому что в той же Википедии в статье «Open format» приведено несколько определений, часть которых прямо, а часть — косвенно упоминают бесплатность (royalty-free).
Под пунктом «State of Minnesota»? Это даже не смешно, да и остальная статья… pdf имеет проприетарные расширения, тем не менее это открытый формат.
Под пунктом «State of Minnesota»?

Например, в определении от Sun есть «based on an underlying Open Standard», а среди определений оного уже много где про royalty free.
В определении правительства США есть «without restrictions that would impede the re-use of that information» — требование платы не позволяет его использовать в FOSS-продуктах, что можно посчитать как „impedes the re-use“.
И т.д.
Это даже не смешно, да и остальная статья… pdf имеет проприетарные расширения, тем не менее это открытый формат.
Т.е., вы критикуете существующие определения «открытого формата» потому что вы считаете PDF открытым форматом, а они — нет?
Ещё раз: вы можете как-то обосновать эту свою позицию?
Статья полная хрень. Ее надо переписывать.
Но в ней-то хоть ссылки есть на утверждённые определения, а не «я так считаю».
Вот, в Open Definition тоже прописано, что Open Format — это «An Open Data Format is a format with, “a freely available published specification which places no restrictions, monetary or otherwise, upon its use”».
Тоже переписать?
поддержка сразу появится, как только ютуб не него перейдет
Поддержка появится, когда Microsoft допилит поддержку в Google Chrome. Chromium Edge уже работает.
Хех, когда-то DivX был прорывом и казалось, что будущее уже наступило;)

Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
10 гб для 4к 90 минутного уже мало, а 5 гб совсем мало, ну не дают все эти кодеки такой прирост как заявляют, прирост этот только в метриках, а не визуально.
1) Если же говорить про телефоны, то не думаю что кто-то отличает на телефоне Blu-ray от UHD Blu-ray, даже если смотреть на экран с 10-15 см. Значит 4к не нужен в телефонах и лучше иметь нормальный FHD, так и зарядки меньше тратится.
2) И наоборот, если говорить про 4к на ПК, на 30 дюймовом мониторе будет хорошо видно, что 5 гб в новом кодеке хуже чем 10 гб в старом, да и 10 гб в этом случае маловато, вот 20 гб уже нормально, но бывает и лучше.
Сколько раз сравнивал h264 и h265 используя кодеры x264, x265, с разными пресетами. Если делать размеры ориентируясь на заявленный прирост, то h265 хоть и выглядит хорошо, но видно что как-то синтетично и мне такое не нравится. А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.
Плюс скорости кодирования, x265 и так может кодировать очень медленно и выдавать качество почти как у av1, а если новый ещё в 10 раз медленнее, то использовать его мало кто будет.
3) h265 нету в вебе поэтому что он платный, он поддерживается вроде только двумя браузерами EDGE и safari, так с чего же в mpeg решили (или так решил автор статьи?), что такой же платный h266 будет поддерживаться браузерами?
А вот av1 поддерживается браузерами, можно сказать всеми, кроме safari и уже используется ютубом и нетфликсом.
Поэтому не думаю что h266 будет в вебе.

Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?

вы же сами ответили:
А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.

качество, которое сейчас просто никакое при просмотре онлайн?

Так это проблема интернета. Переключите на fullhd, качество будет нормальным. Вот только будет кэшироваться постоянно, т.к. будет не успевать скачиваться.


Для этого и нужно более высокое качество при том же размере файла (вы сами отметили, что это так). Что бы взять файл чуть по-меньше, что бы он успевал передаваться.

Да нету проблемы с интернетом, я смотрю только 1440р и 4к если оно доступно и на телефоне и на ноутбуке с 768р экраном, о каком 1080р вы мне говорите то? 1080р онлайн сейчас очень плохое, бывает что оно на уровне DVD, я его смотрю только если другого нету.
1080р сейчас тянется даже по 3G и иногда даже с запасом.
Я ниже расписал подробнее, не буду повторяться.
1080р сейчас тянется даже по 3G и иногда даже с запасом.

Интересный у вас 3G. Раз в пять толще обычного.


я смотрю только 1440р

Можете дать ссылку или название сайта, где-то есть фильмы в 1440р?


4к не нужен в телефонах и лучше иметь нормальный FHD
я смотрю только 1440р и 4к если оно доступно и на телефоне

Лучше иметь FHD, но смотрите только 1440 и выше. Ясно, понятно.

Лучше иметь FHD, но смотрите только 1440 и выше. Ясно, понятно.
Там банально битрейт и качество лучше. Попробуйте видео с 4К на лету переключить в 1080P, даже на 1080P мониторе разницу видно моментально, потому что битрейт падает в несколько раз. Вот тут прекрасно видно разницу, например.
Да даже на телефоне с 30 см это видно сразу.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.
То есть по размерам разница 1080р и 4к в 4 раза, а по битрейту бывает что 4к в 7-8 раз больше чем 1080р, в среднем же в 6 раз больше чем 1080р.
Ну и с 1440р тоже +- так же.
У меня просто расширение savefromnet и я сразу в 1 клик виду все размеры во всех доступных кодеках и разрешениях.
Смешно, но я так один раз скачал с ютуба 4к белый шум с битрейтом в 600 или 900 мбит вроде. 10 секундный видос был. А вот в 1080р его битрейт был 20 мбит вроде и конечно от шума там остались одни артефакты.
Но спустя пол года этот видос пропал с ютуба, не знаю уж его ютуб удалил из-за такого глюка или сам автор, но у меня этот видос есть до сих пор и могу скинуть если интересно.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.
Ну 1440Р — это всегда производная из 2160P, а пережимать последний гугл пока просто не рискует, я думаю, пока у него ореол «премиума». Пойдет 8К в массы, битрейт 4К тоже до смешных значений уронят ограничением сверху.
Ну есть ещё игры, я много игр смотрю, они в 1440р. Вот в играх качество вообще никакое конечно. В видео это намного слабее заметно.
Ну вот когда я последний раз смотрел 8к, то 8к по битрейту был ну на 30% больше чем 4к. Много битрейта добавляет HDR, который ещё далеко не везде посмотришь и его ещё меньше чем обычного 4к.
UFO just landed and posted this here
Вот сильно сомневаюсь, там же у них вообще 3 кодека.
Одни бесплатный, который якобы как h265 по качеству и 2 платных.
Сам h266 вроде самый лучший типо, а под игры вроде тот что бесплатный.
Всё таки это совсем разное, тот же h265 с отключенными некоторыми фильтрами деблокинга, в играх показывает качество почти как h264, тогда как со всеми плюшками он наоборот мылит игры сильно, но хорош для фильмов и мультфильмов.
Но в любом случае пока что x264 кодер лучший для игр.
UFO just landed and posted this here
Ну есть ещё игры, я много игр смотрю, они в 1440р.
А есть пример популярного канала, где видео в 1440Р максимум, а не в 2160Р? Да и на стримах вроде больше 1080Р не осилили еще.
А что там осиливать то? Та же gtx 1050 может стримить 4к, а у топ стримеров явно новее видеокарты, просто они по каким-то причинам не стримят 4к и 1440р, может у них интернет совсем слабый.
Вот например www.youtube.com/c/Amway921WOT, да знакомый мой тоже 1440р стримил много времени, никаких проблем. Конечно с процессора такое не постримишь через x264.
Видосы с монтажём по сути сложнее делать в 4к и 1440р, чем просто стримить.
просто они по каким-то причинам не стримят 4к и 1440р, может у них интернет совсем слабый.
Вот и я о чем. А не стримят потому, что платформы такой возможности не предоставляют. Там на 1080P дают 5000 кбит, ЕМНИП, какой 4К…
UP: Уточняю
While popular, the video behemoth's main streaming competitor, Twitch, currently lacks the bandwidth to support 4K streaming. Twitch servers typically limit streamers to a bandwidth of 3.5 Mbps (and a 4K stream can require more than double that).

Ну так не надо на этот твич стримить и всё.
Ютуб принимает столько, сколько позволяет интернет.
Я спокойно стримил на ютуб 40 мбит поток.
Знакомый переодически стримит 4к 25 мбит, но он играет в онлайн игру, а так бы тоже поставил битрейт 30-35 мбит.
Видосы вообще заливал сжатые без потерь, никаких проблем.

Ютуб принимает столько, сколько позволяет интернет.
Технически, YouTube все равно на лету дожимает видео до каких-то определенных значений, которые я, правда, не нашел.
Поэтому от вас он принимает сколько угодно, а зрителям отдает уже другой битрейт:
Also, the amount you send us in no way impacts the bandwidth requirement for users. YouTube transcodes all video and our players attempt to deliver the best bitrate for the viewer based on their available bandwidth and viewing platform.
www.reddit.com/r/youtubegaming/comments/47d97p/is_max_bitrate_9k/d0c8puq
Видосы вообще заливал сжатые без потерь, никаких проблем.
А вот это правильно, если канал позволяет, чтобы не сжимать с потерями дважды. Лично я заливаю lossless FFV1.
Не дожимает он на лету, ну по крайней мере я такого особо не замечал.
С виду у ютуба все исходные файлы хранятся. В доказательство этого, специально искал av1 на самых просматриваемых видосах, конечно находил и видосы 2015 года и старше и у них качество в av1 лучше чем в других кодеках, что значит ютуб хранит оригинал видоса, ну или там есть какая-то планка, но в разы выше того, что он в итоге показывает, наверняка это не узнать.

Ну и у ютуба есть минимум 3 варианта сжатия, а скорее всего их 4.
1) Самый быстрый — для стримов у которых в настройках минимальная задержка, соответственно самое плохое качество.
2) Обычный — для стримов у которых в настройках обычная (большая) задержка.
3) Предполагаю что для стримов со средней задержкой есть свой вариант сжатия, это я не тестировал, смотрел только обычную и минимальную задержку.
4) Обработка видоса или обработка стрима после его завершения — самое лучшее качество, самое лучшее распределение битрейта, качество заметно лучше чем у предыдущих вариантов.

Не нашёл сообщение где шла речь про рипы фильмов, поэтому добавлю сюда.
Самое дикое и плохое что я нашёл — это установка параметра frame-threads больше двух при использовании x265, ставят и 4 и 8 и 16 видел даже. Похоже люди совсем не понимают что это такое. Даже значение 2 ухудшает качество, 4 уже в пределах 10-20% в худшую сторону, если судить по росту битрейта при кодировании с crf.
А параметр этот ни что иное как параллельное кодирование кадров, то есть условно кадр делится на столько частей, сколько задано в параметре и при окончании кодирования первой части начинается кодирование второго кадра параллельно и так далее. В итоге векторы движения и предсказания ограничиваются по длине и качество падает.
Если говорить про 1080р, то тут максимум нужно ставить 2 кадра, если хочется загрузить проц на 100% и он имеет до 16 потоков, если потоков больше то уже ставить больше кадров, но смотреть по загрузке процессора и ставить минимально возможное число. Для 4к тоже самое, только уже проц не до 16 потоков, а до 32.
Не дожимает он на лету, ну по крайней мере я такого особо не замечал.
Я сотрудника YouTube цитировал, если что.
Самое дикое и плохое что я нашёл — это установка параметра frame-threads больше двух
Там есть еще параметры психовизуальной адаптации, которые тоже любят покрутить. Тоже опасная вещь.
Верю, просто раз качество ролика 2015 года улучшилось, то там явно запас нормальный.
параметры психовизуальной адаптации
Ну это всё на вкус и цвет.
Мне вот нравится ssim, везде ставлю -tune ssim, в любом кодере, где это возможно. В том же libaom это внезапно даёт заметно лучше качество. В x265/x264 не так сильно влияет, но всё равно влияет.
В x265 так же могу отключить SAO, если битрейт достаточный и никаких артефактов и так нету.
стримы в принципе редко способны выдать серьёзное качество кодирования. качество неизбежно пожертвуется в угоду стабильного латенси при нерезиновом аплинке стримера… а дальше это всё ещё раз может перекодироваться чтобы по CDN не гонять жырные неэффективно сжатые данные.
Когда латенси самого ютуба — 40 секунд, тогда латенси стримера ничего не значит абсолютно.
Если тут речь про латенси в онлайн играх, то да, тут стрим заметно влияет, но я онлайн игры не смотрю, смотрю синглы, а там инет в процессе игры не нужен.
Ну а аплинк стример должен выбирать нормальный, например я ещё года 3 назад мог спокойно стримить на ютуб 40 мбит поток (тариф 75 мбит), а вот стример, которого я смотрю, не может в Москве с гигабитным инетом отдавать на ютуб такой поток, у него там что-то всего 25 мбит что-ли сейчас, тогда как я сейчас могу отдавать что-то около 80-100 мбит минимум (тариф 250 мбит).
речь про латенси от стримера до ютуба и не его маленькость, а отсутствие в нём просадок, а они возникают когда аплинк занят на 100%.
Только об этом речи вообще не должно быть в принципе, потому что не нужно грузить аплинк на 100% и всё.
А ну да, я же совсем забыл, что сейчас стримят даже те, кто просто с компьютером работать нормально не могут и что такое битрейт, они вообще не слышали, а аплинк тем более.
Вот только к ютубу это всё равно не имеет отношение никакого, Ютуб принимает то, что дают и всё.
Это вот на телефоне ютуб и другие приложения которые могут стримить, сами регулируют битрейт, а на ПК такого нету, какой битрейт поставил такой и есть.
Но в любом случае выход тут только один — подключить нормальный интернет, который тянет хотя бы 40 мбит аплинк, но лучше больше и установить битрейт стрима в зависимости от этого интернета, чтобы аплинк никогда не грузился на 100%.

ютуб стриминг довешивает к уже существующей инфрастуктуре в которой качество VOD видео важнее качества live трансляции. твитч когда зашёл с другой стороны после тестов решил не давать возможность стримить в высоком разрешении и битрейте пока не получится при этом не жертвовать интерактивностью в угоду картинке. и да в самой стримящей стране в мире аплинк в 40 мегабит это в большинстве случаев недостижимая роскошь. и даже за 20 мегабит можно платить за сотню доларов. великий асинхронный интернет субурбии в действии.

Ну типо у ютуба интерактивные стримы тоже ограничены в разрешении.
У него для этого аж 3 варианта задержки есть и разрешения больше 1080р доступны только на самой большой задержке в 30-40 секунд.
Чем там жертвует твич мне не совсем понятно, ведь на твиче идёт исходный поток без перекодирования, именно тот, который ты ему отдаёшь, поэтому там битрейт ограничен. Ну да кроме исходного потока твич ещё показывает и пошакаленные варианты, может быть в них проблема, но я не знаю кто вообще смотрит на твиче то, что он там пошакалил, вместо оригинального потока стримера, ведь там такие кубики, что лучше это не видеть.
А ещё, уже раза три слышал, что твич хочет запустить 1440р120 в av1 кодеке, не понятно только на каких мощностях он это хочет, если у него 1440р сейчас вообще никакого нету, а av1 требует в разы больше ресурсов чем h264.
потому что 1440 у твича нет не из-за проблем с мощностью перекодировщиков но они не могут просто так гонять бесполезные мегабиты которые не нужны их аудитории, а твич свою аудиторию знает… вот ютубстриминг может спокойно гонять любое ненужно через старшего брата ютубвидео(этот братюня сейчас окупает любое безумие и может даже позволить всему разделу стриминга быть убыточным)… и да они гоняют тесты с 1440p120av1 и да это позволяет уложить такой стрим с прекрасным качеством в жалкие 10 мегабит битрейта… и это с минимальной задержкой… что забавно ютуб скорее всего раньше перейдёт от whatever latency к (ultra)low latenсy на высоких разрешениях чем твич запушит в массы более высокие разрешения. в минус твичу сильно играет то что они вовремя не вложились в vp9( хотя ютуб его тоже не использует для lowlatency но мог бы.), а сейчас уже и смысла в этом нет.
Не может быть прекрасного качества в играх с битрейтом в 10 мбит, не важно с каким кодеком, это в принципе не возможно и всё тут.
Я сам тестил что выходит в разрешении 1440р120 с 8 мбит битрейтом, а выходит лишь то, что по сравнению с h264 картинка не рассыпается на кубики и местами больше деталей, но есть места где деталей меньше, но это редко. По сравнению с самой игрой — это по прежнему очень убого (лично для меня, +- нормальное качество игровой картинки начинается от 30 мбит битрейта и это для 1080р, с av1 ну до 20 мбит можно понизить).
Я тестил с неплохим пресетом качества и по рассчётам для того чтобы тянуть этот пресет в 120 фпс нужно больше 400 ядер нового райзена, вот только это если не учитывать масштабируемость кодера, а просто посчитать.
А в реальности libaom масштабируется хреново и тем более на такое количество ядер, поэтому сейчас не возможно сделать 120 фпс в av1.
— Отсюда я и спросил: на каких мощностях у них получается делать 120 фпс?
Может там просто av1 на столько порезали, для того чтобы сделать 120 фпс, что он у них и близко на нормальный av1 не похож.
— И к слову, даже сам ютуб не реализовал всё, что есть в vp9 и его vp9 почти всегда хуже по качеству, чем то что я могу сделать в h264. А вот av1 у ютуба сейчас неплохой и поэтому он сразу заметно лучше чем его vp9, но это сейчас, мне кажется скоро ютуб сделает себе asic-ки для av1, так же как у него сейчас asic-ки для vp9 и качества не будет.
Так что сам кодек по факту не гарантирует качество, любой кодек можно убить плохим кодером, так что выйдет новый кодек хуже чем старый с нормальным кодером.
В совсем не той стране у нас скажем «асинхронный» инет. Когда-то был 100/10, сейчас — 200/15.

Речь была о телефонах. И кроме качества есть ещё пропускная способность. Если канал не тянет, особой пользы от качества не будет, нормально посмотреть не получится. Именно поэтому и стараются снизить битрейт при том же качестве.


Кстати, высокий битрейт — это не плюс, это минус. Задача кодеков — снизить его при том же качестве (иначе все передавали бы равки)


Высокий битрейт бывает не только при высоком качестве, а ещё и при несильном сжатии. У всяких DVD исторически высокий битрейт (относительно), но говорить, что DVD по качеству лучше, чем h.264 никто не будет, даже если битрейт сделать выше для DVD (это не сложно).

Кстати, высокий битрейт — это не плюс, это минус. Задача кодеков — снизить его при том же качестве (иначе все передавали бы равки)
Однозначно. Но реальный, ограниченный требуемым качеством битрейт — вот, что лучше всего. На том же ютубе битрейт явно ограничен сверху определенным значением для каждого разрешения, что для статичного плана со шкафом, где 300 кбит\с за глаза будет, что для полетов коптера над городами, где и 10000 может не хватить (но их мы вам не дадим, у нас для 1080P предел 4000, так что смотрите квадраты). Понятно, что обьемы у ютуба гораздо больше, чем у netflix, поэтому они просто не заморачиваются с качеством.
Речь была о телефонах.
На своем телефоне я прекрасно вижу разницу между ютубовскими 1080P и 4К. Экран 1080P с копеечкой, ибо не 16:9.
Ну вы просто не понимаете что на телефоне вы не увидите никакой разницы между 1080р и 1440р и 4к при одинаковом весе файла. Поэтому для телефона лучше 1080р, из-за меньшего расхода батареи. Вы похоже просто не понимаете, что сейчас с такими низкими битрейтами не разрешение определяет качество, а битрейт.
Любое 4к онлайн хуже чем blu-ray 1080p, так же 1080р на ютубе бывает хуже чем DVD.
С ПК же всё по сложнее, но например 1080р рип с битрейтом 15 мбит по качеству лучше чем 4к на ютубе. Поэтому я и смотрю на ютубе 1440р и 4к.
Фильмы смотрю 1080р или 4к если 4к есть. 1080р и 4к у рипов намного лучше по качеству чем тоже самое онлайн на каком-то сайте.

А 3G обычный, сейчас его мало кто использует и поэтому бывает что он быстрее чем 4G.
У меня сейчас 3G всегда больше 3 мбит, чего спокойно хватает для 1080р на ютубе.
Для других площадок хватает 5-6 мбит.
А 4G у меня такой, что я качаю рипы с торрента и при этом смотрю их онлайн сразу. Скорость 20-40 мбит обычно.
на телефоне вы не увидите никакой разницы

Я понимаю, а вы? Это вы написали, что смотрите 4к на телефоне, если оно доступно. Ваше право, но ко мне какие вопросы?

Вы опять же неправильно поняли, человек пишет, что разницы между одинаковыми по битрейту (читай: качеству) 1080P и 4К не увидите. А вот учитывая, какой разброс у ютуба по битрейтам между 1080P и 4К, разница будет видна банально из-за того, что битрейт 4000 против 15000. То есть проблема в том, что для лучшего качества приходится тянуть большее разрешение.
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
Потому что качество не = битрейт. Если в кадре много статики, то битрейт может быть и 3000, а качество — прекрасным. Поэтому лично я стараюсь продвигать CRF везде, где могу.
Отвечая на второй вопрос — платформы считают, что сейчас качество для потребителя достаточное. Поэтому «более лучшие» алгоритмы потянут битрейт вниз за собой, оставляя качество примерно на том же уровне. Вы ведь не жалуетесь на качество? Нет. А серверы не резиновые. Напишите петицию, мол, «хочу на ютубе качество лучше, поднимите битрейт на 20%», может что и изменится.
Я сам знаю что crf лучшее что есть, лучше только 2 прохода но тоже не всегда.
И площадки такие как ютуб и нетфликс и другие крупные это тоже знают и используют в какой-то мере. Всё таки чистый crf они использовать не могут, наверное сами знаете почему.
Битрейт я взял средний, конечно на разных видосах он разный.
Нет, у крупных площадок все очень стремно, там народ тоже не пальцем делан, Netflix чуть ли не покадрово через CQP сжимает (см. Shot-based encoding и далее). О выбранных ими алгоритмах и параметрах остается только догадываться, ведь информации о них в файл не зашито.
Что по сути вряд-ли даёт ощутимый прирост в качестве по сравнению с crf, cqp или 2pass. А вот по сжатию прирост наверное стоит того.
По их расчетам, битрейт при том же QP снижается примерно на 30%. То есть война не за качество, да.
Но можно взглянуть с другой стороны: если это позволяет не снижать битрейт для будущих фильмов\сериалов, потому что «место заканчивается», то это победа качества. Просто с другой стороны подход.

Ну если они подбирают почти все параметры под каждый кадр, то может быть, но всё равно слишком радужно.
В видео то все кадры +- одинаковые, типо если это фильм, то это фильм, если мультфильм, то мультфильм, не особо понимаю что они там ещё оптимизируют.


Бесконечно уменьшать размеры в 2 раза не возможно и это видно.
У каждого кодека свои артефакты, своя картинка. А вот чтобы сохранялось именно больше деталей — это сложно найти.


Сравнивал av1 с h264. Конечно же в h264 кодировал с помощью x264 placebo, всё равно это в разы быстрее чем кодировать в av1.
Заявляют что av1 будет с таким же качеством как h264, но при в 2 раза меньшем размере. Но что-то вообще нет, мультфильмы в av1 нормально, а остальное уже кому как. Мне вот лучше h264 с в 2 раза большим размером или же h265/av1 но с размером на 15-20% меньше, но никак не в 2 раза.
Про игры вообще можно не говорить, пока что x264 лучший кодер для игр.

не особо понимаю что они там ещё оптимизируют.
Они каждую сцену отдельно считают, а потом сшивают. Содержание при этом значения не имеет, мультфильм это или фильм.
но никак не в 2 раза.
Вы против того, чтобы фильм при том же качестве весил в 2 раза меньше? Почему?
Вы против того, чтобы фильм при том же качестве весил в 2 раза меньше?
Я не против, но такого нет, написал же, даже при сравнении h264 и av1, всё равно нету разницы в 2 раза в пользу av1.
Там вроде как 30-50% обещали, нет?
In 2018 Facebook testing that approximates real world conditions, AV1 achieved 34%, 46.2% and 50.3% higher data compression than libvpx-vp9, x264 high profile, and x264 main profile respectively.
en.wikipedia.org/wiki/AV1
Кроме того, когда на трекеры фильмы выкладывают, нередко сжимают через жопу с кастомными параметрами, типа измененных aq-mode, psy-rd и прочих вещей, которые лучше бы не трогать. Это не совсем адекватное сравнение, компании ведь сравнивают с более или менее стандартными пресетами.
У нас товарищи на compression.ru регулярно проводят сравнения кодеков, и AV1 там занимает заслуженное первое место с отрывом от x264 на те самые 50%. (см пункт 10. Conclusion)

Обещали, но я не вижу такого. Может только по метрикам есть.
А то что там Facebook сравнивал, вообще не показатель, я уверен что как все использовал какие-то слабые пресеты для h264 и максимальный для av1 (при котором скорость такая, что нужно процессор 32-64 ядерный минимум).
x264 с пресетом placebo заметно быстрее кодирует чем в av1 любым кодером с нормальным качеством. Не вижу смысла сравнивать какой то средний h264 с максимально возможным av1.

x264 с пресетом placebo заметно быстрее кодирует чем в av1 любым кодером с нормальным качеством.
Конечно, у AV1 с этим как раз проблемы, смотрите мой комментарий выше. А у Google и Facebook проблем с лишними ядрами и даже ASIC-ами для кодирования AV1 нет, это только мы страдаем.
Не думаю что они бездумно выделяют ядра на кодирование в av1.
То-то ютуб всё никак не начнёт массово кодировать в av1, а кодирует только видосы с большим кол-вом просмотров и те по 2 недели — месяцу и только до 1080р.
Мне вот это тоже не понятно, какой смысл кодировать 144р — 480р в av1, но ютуб именно это и делает сейчас, многие видосы доступны в av1 только до разрешения 480р.
А асик будет 100% хуже и заметно хуже чем максимальный пресет в libaom (с котором сейчас всё сравнивают в плане качества), так вот прирост качества становится вообще не существенный.
Чем сложнее кодек, тем сложнее сделать асик, который будет показывать +- нормальное качество.
Например инвидия только в тьюрингах наконец реализовала B-кадры в h265, которые по сути сильно экономят битрейт.

Но в целом вы правы, мне глубоко фиолетово сколько мощностей потратит гугл на кодирование видоса. Меня напрягает только то, что они не используют x264, который даёт лучше качество чем их VP9, но при этом внедряют av1 и с ухудшением качества из-за слишком низкого битрейта. Это сравнимо с прошедшим внедрением h265 в телефоны для кодирования видео, h265 типо есть, а его качество хуже чем x264 со стандартным пресетом.
Получается лично мне видны только минусы от этого, так-как проблем со скоростью интернета не имею, да и если учесть их битрейт 1080р, то практически никто не имеет проблем.
UFO just landed and posted this here
Так их проблемы с интернетом отразились бы и на пользователях. Видосы бы не грузились и всё, но я таких проблем не видел, бывает конечно, но редко.
h264ify даёт наслаждаться старым добрым avc
Сам его использовал на планшете с intel atom, там иначе вообще не работало, ядра слишком слабые.
Сейчас не использую, i5-2520m хватает для декодирования 1440р 60 кадров или 4к 30 кадров. Ноут использую только от сети, поэтому сейчас проблем с расходом батареи нету.
UFO just landed and posted this here
Я не говорю про lossless, но то что сейчас на ютубе как ни посмотри слишком шакальное. Плюс к низкому битрейту добавляется среднее распределение битрейта, у ютуба явно не 2 pass и не crf кодирование и поэтому явно видно что когда статический кадр несколько секунд, то качество плавно увеличивается. Можно в 2 раза поднять битрейт на всех разрешениях вплоть до 1080р и на 30-50% поднять битрейт на разрешениях больше 1080р, но конечно для этого надо наращивать ЦОДы.
Или альтернативный вариант сделать нормальное распределение битрейта, тогда качество будет +- одинаковое всегда и битрейт который сейчас тратится на статичные кадры пойдёт на динамику.
UFO just landed and posted this here
Ну а кто не понижает битрейт при использовании нового кодека?
Сами посмотрите, рипы если есть в h265, то у них меньше размер чем у рипов в h264.
Тот же ютуб, в vp9 у него меньше битрейт чем в h264, а в av1 битрейт в 2 раза меньше чем в vp9, что в итоге даёт качество хуже чем в vp9, да и бывает что vp9 хуже чем h264.
С h266 будет ровно так же, просто все уменьшат битрейт и хорошо если качество будет не хуже, чем было с h265.
Так что я ответил «зачем не нужно уменьшать битрейт», его уже некуда уменьшать.
А то что «при одинаковом размере h265 лучше» — это просто факт, если бы было иначе, то он был бы не нужен вообще.
А вопрос немного перефразирую: «зачем все уменьшают битрейт, когда он и так уже ниже некуда?».
Я вот из-за такого низкого битрейта смотрю ютуб в 1440р и 4к и на телефоне и на ноуте с 768р экраном. На телефоне это больший расход батареи чем если смотреть 1080р. Так почему же не делают нормальное 1080р, а делают вместо этого калечное 1440р и 4к?
У 1080р на ютубе уже битрейт 2 мбит, да его сейчас 3G потянет даже с запасом. На других площадках битрейт 4-6 мбит, что тоже мало, так как площадки не используют дикие пресеты x264 для кодирования, а наоборот кодируют с таким низко-средним качеством. Поэтому и выходит что 4к с ютуба по факту хуже чем 1080р blu-ray.
Тут смысл вот в чем: если используется одинаковый пресет, допустим, very slow, и одинаковое значение CRF, то более новый алгоритм даст меньше битрейт и меньше размер, но качество от этого не пострадает. А если с новыми кодеками ухудшается качество, значит платформа что-то меняет в параметрах: возможно, понижает целевое качество. Этого знать наверняка вы не можете.
Но главная мысль: то, что у новых кодеков меньше битрейт — это доказательство их повышенной эффективности, а не ухудшенного качества.
Главное тут то, что эта повышенная эффективность используется только в минус.
Конечно параметры меняются и целевое качество тоже меняется, а из каких соображений это всё подбирается мне не ясно.
Чистого crf нету на площадках, есть так называемый constrained crf. Для чистого crf пришлось бы подбирать этот crf для разного рода контента иначе битрейт бы выходил совсем разный. Например 3 мбит для видео и 15 мбит для стрима игры, поэтому битрейт используется +- одинаковый всегда.
Чистый crf я видел только для гифок, когда гифку заменяют видосом, но там обычно crf 24-26 что тоже маловато.
Я не думаю, что ютуб вообще использует crf, если честно. Но да, об интересах площадки я уже написал выше, они с нашими не совпадают.
Ну ютуб и не использует CBR это больше похоже на туповатый VBR или constrained crf.
Но ваще прикол ютуба в том, что они используют свои asic кодеры, от этого тоже качество не такое как может быть у x264.
Их vp9 по качеству хуже чем x264 medium.
Вот только для av1 у них пока нету asic кодера.
Ютубовское качество всегда было мягко говоря не ахти, правда партеры вроде получали возможность заливать видео в нормальном качестве, а не 1080p 2мбит. Но самое хреновое качество я видел это когда решил глянуть какой-то фейсбуковский сериал скаченный с торента (содержимое сериала опустим, но от качества видео оно недалеко ушло.). Вот там вообще п-ц при 1080 размере на серию в 1,45Гб, качество как у DivX рипа на 500мб.
Теплый ламповый битрейт
UFO just landed and posted this here
Нужна переопределяемая (морфинговая) архитектура gpu, чтобы добавление аппаратной поддержки нового кодека сводилось к обновлению микрокода.
UFO just landed and posted this here
«Общество содействия прикладным исследованиям имени Фраунго́фера… — крупнейшее европейское объединение институтов прикладных исследований. Общество Фраунгофера управляет 72 институтами и исследовательскими центрами в Германии с более чем 26 тысячами сотрудников, ученых и инженеров и годовым бюджетом на исследования свыше 2,5 млрд. евро. Около 70 % этого бюджета приходится на контракты с промышленными предприятиями и финансируемые государством исследовательские проекты.»

Не может это так просто взять и угаснуть, к счастью. Но, к сожалению, очевидно, что научить всех хорошему заставить разработчиков процессоров внедрить поддержку кодеков в железо также не может. Как и отказаться от монетизации своей работы.
А альянс лишь даёт возможность желающим заключить фьючерс на предоставление доступа к определённым технологиям и в некоторой степени влиять на результат.
Ну тот же h265 есть во флагманах достаточно давно.
На ПК это видеокарты 900 серии инвидии и новее, процы интел 6000 серии и новее.
В принципе отставание там не сильное, h265 принят в 2013, а аппаратные реализации появились в 2015. А ведь он не используется в вебе.
Вот av1 принят в 2018, а аппаратные реализации уже есть в телефонах и телевизорах. Но вот насчёт доступности таких телефонов не уверен, но телеки есть.
В телефонах должен быть процессор mtk dimensity 1000 или 1000L, он поддерживает av1 до 4к 60 кадров.
Так что не всё так плохо как кажется.
Да и эта самая первая поддержка h264 сейчас уже не нужна в принципе, она же только 1080р, а 1080р сейчас и так почти на любом процессоре будет работать.
Сейчас надо 4к, а 4к появилось сразу вместе с поддержкой h265.
Вот у меня проц аппаратно вывозит 5 потоков 1080р blu-ray одновременно без тормозов, а толку то? Всё равно он не может аппаратно ни в 1440р ни в 4к, хотя в теории то должен, раз может в 5 потоков 1080р. Поэтому у меня 4к только на ядрах проца работает.
Проблема в том, что на наше время выпало несколько кратных увеличений разрешения подряд, плюс нередко еще и частота кадров поднимается. Одно дело на процессоре считать 720x480, 1280x720, да даже 1080P, а тут вдруг 4К и даже 8К появляются, да еще и фреймрейт до 60 подскакивает — приходится придумывать новые способы сжатия для них, потому что старые — неэффективны (размер макроблоков, b-фреймы и прочее). Сейчас еще пойдет в массы расширенный цветовой диапазон, под него, наверное, тоже придется модификации вносить. Лично у меня HEVC в 10 bit кодируется иногда чуть ли в не 2 раза дольше, чем 8 bit.

При чем тут открытые стандарты? h266 будет лицензироваться по "transparent licensing model".
А значит, поддержки этого чуда ни в браузерах ни в устройствах ждать еще очень долго нет смысла. Хотя, казалось бы, такая пачка компаний эту разработку поддерживает, да и сам институт Фраунгофера вообще-то спонсируется государством. Могли бы и выпустить этот кодек под свободной лицензией.

UFO just landed and posted this here
Именно что цикл неторопливый. Пока свежий кодек внедряют в железо он уже становится неактуальным. Да и внедрять ещё один кодек в условиях дефицита производственных мощностей как-то неприоритетно.
UFO just landed and posted this here
H.264 не актуален, как минимум, на Youtube — не так много пользователей запрашивают его, со временем, вероятно и сама возможность исчезнет.

Intel откладывала покупку оборудования для нового полупроводникового завода. Вероятно, отсюда дефицит производственных мощностей.

Контент, кодированный старыми кодеками, естественно, никуда не денется, соответственно, и кодеки будут востребованы. Но, увы, неактуальны.
UFO just landed and posted this here
Массовый источник актуального контента. Да, Youtube вполне подходит. Да, у него и у Netflix достаточно свободных мощностей для транскодирования всей библиотеки.

"H.264 не актуален, как минимум, на Youtube — не так много пользователей запрашивают его"
А есть статистика? Не удивлюсь что большинство просмотров идёт с телефонов (и не все топовые) и телевизоров, что приводит к тому что запрашивается то что реализованно аппаратно.

У Youtube наверняка статистика есть.
А чем в данном контексте компьютер отличается от телефона?
У Youtube наверняка статистика есть.
А чем в данном контексте компьютер отличается от телефона?

Тем что может не использовать аппаратный кодек, тем что железо может быть сильно мощнее, тем что не нужно думать о затратах энергии.

А где схема VVC? В посте только HVEC картинка.

На HVEC 9 блоков, а тут 6. Либо статья неправа, либо схемы разной детализации.

Повышение эффективности сжатия достигается за счёт значительного усложнения алгоритмов...

Опять вагон эксплойтов снаряжают.
Вирусы через видео? Это что-то новенькое.
Да нет, это совершенно старое. Один из классических векторов атаки — любые просмотрщики. Видео, фото, документы.
Вирус — это то что само распространяется. Очень редкий зверь сейчас. В наши дни злой код распространяется людьми через картинки, и видео, и текстовые документы — через любые «правильно» сформированные данные. Несколько лет назад можно было закончить жизнь SMS-приложения на iOS послав коротенькую правильно сформированную SMS. Приложение открывалось и тут же падало — человек оставался без возможности просмотра сообщений.
Можете описать механизм распространения злого кода через видео? Можно с примером.
Такого достаточно?
Сотрудник Mail.ru Максим Андреев опубликовал информацию об уязвимости в популярном наборе свободных библиотек FFMpeg.

Если сформировать специальный видеофайл (расширение не имеет значения) и загрузить его на видеохостинг, то злоумышленник сможет прочесть любой файл на сервере. Если удастся каким-то образом заставить обычного пользователя скачать вредоносный файл (дать ему прямую ссылку, выложить на торрент-трекер), как минимум, можно узнать имя пользователя и какую-нибудь ещё непубличную информацию. В случае с Ubuntu FFmpeg передаст злоумышленнику первую строку указанного злоумышленником файла (например, /etc/passwd того пользователя, который просто скачал файл, даже не запуская его (FFMpeg в Ubuntu используется для создания превью, отображаемого в файловом менеджере).

Кроме того, уязвимости подвержены все видеопроигрыватели, использующие FFMpeg.

В качестве мер защиты предлагается запускать ffmpeg в изолированном окружении, либо ограничить ему доступ к сети.
Они пришли к выводу, что видеосообщение (тот самый ролик можно увидеть ниже, похоже, это рекламный фильм о телекоммуникациях на арабском языке), полученное главой Amazon от наследного принца, эксплуатировало уязвимость в мессенджере WhatsApp, используя баг для загрузки и установки малвари на личный iPhone Безоса. Это вредоносное ПО похитило с устройства главы Amazon огромное количество данных.

xakep.ru/2020/01/23/bezos-hacked
UFO just landed and posted this here
Сейчас поддержка этого кодека на аппаратном уровне реализована всеми производителями процессоров.

А вот условная интеграшка 22-наномерового Celeron 1005M не тянула HEVC FullHD. Пришлось найти плеер (кажется MPC-HC), который не то легче декодировал, не то дискретку использовал.
Так правильно когда вышел этот целерон никакого HEVC ещё не существовало.
Что могло существовать:
29 февраля 2012 года на выставке Mobile World Congress компания Qualcomm показала HEVC-декодер, работающий на планшете под управлением ОС Android с двухъядерным процессором Qualcomm Snapdragon S4 с частотой 1,5 ГГц.

Во втором квартале 2012 из того поколения (22 нм) вышли мобильные i7, i5 и i3.
Как стандарт только в 2013году приняли. В любом случае в бюджетном интеле странно было бы его видеть в то время. Я нашёл только упоминания про 4 поколение и про 6 когда в процессорах интел появилась полная поддержка HEVC.
Я согласен с тем, что в Cel/Pen была начиная с Санди были интеграшки слабее, чем Core i3-7 чисто по параметру «кол-во конвейеров». Может быть им и поддержка HEVC не влезла.
Скажем у i5-3427U это интеграшка с частотой 350@1150 МГц (раз проц без Турбо 17 Вт), а у моего 1005M — 650@1000 МГц (формальные 35 Вт). Где 35 Вт имеет в том поколении i5-3380M с базой 2.9 ГГц и HT.
UFO just landed and posted this here
UFO just landed and posted this here

А откуда у них патентна алгоритм? Алгоритм же невозможно запатентовать. В РФии точно.

UFO just landed and posted this here

на алгоритм нельзя а на метод кодирования блоков можно. да и ту не стоит путать алгоритм и код.

Метод aka способ aka последовательность действий aka алгоритм

юридически это пока разные вещи..

рабочими группами MPEG (ISO/IEC JTC 1) и VCEG (ITU-T) 

А как к этому присасываются патентные тролли из MPEG-LA?

Sign up to leave a comment.