Pull to refresh

Comments 34

Когда они заменили трейдеров, я молчал — я не был трейдером.
Когда они заменили художников, я молчал — я не был художником.
Когда они заменили водителей, я молчал — я не был водителем.
Когда они заменили мена — уже негде было работы для меня.

Хотя не думаю, что будет быстро. Большинство профессий содержит много разноплановых действий, которые сложно автоматизировать, замена разных видов однотипной рутинной работы растянется надолго. И должна привести к повышению производительности труда и увеличению благосостояния. Надеюсь
Фильтр «вариации» в фотошопе давно пора заменить на что нибудь более продвинутое. Хотя хипсторы-манагеры конечно SaaS замутят
Добавлю немного ложку дегтя. А вот представьте, что такие умные линзы людям с младенчества власти будут принудительно встраивать в глаза.
Смотриш такой на дом очередной уточки и особняк за забором, а там развалины. Бац — смотриш на свою однушку в панельном доме — и вот тебе евроремонт красивый, и колбаса красиво лежит на полке холодильника, и жена вроде не страшная. Да тут одни плюсы. И волки сыты, и овцы довольны.
А кстати… вот и готовый сюжет фильма… ну или хотя бы серии Черного Зеркала.
Если человек всем доволен, то он не особо стремится работать. Нужно, чтобы у соседа всегда лежало на одну колбасу больше!
UFO just landed and posted this here
Пятая серия третьего сезона отчасти подходит под описание.
UFO just landed and posted this here
А есть такие программы, чтобы вставить А и Б и получить В?

Попробуйте https://deepart.io/ — там, наверное, не такие навороченные алгоритмы, как в этой статье, но суть та же.

Смотриш такой на дом очередной уточки и особняк за забором, а там развалины. Бац — смотриш на свою однушку в панельном доме — и вот тебе евроремонт красивый, и колбаса красиво лежит на полке холодильника, и жена вроде не страшная. Да тут одни плюсы. И волки сыты, и овцы довольны.
А кстати… вот и готовый сюжет фильма… ну или хотя бы серии Черного Зеркала.

Произведение называется «Футурологический конгресс» за авторством С.Лема, фильм тоже снят, правда очень по мотивам, называется «Конгресс».
Я сразу подумал о «They Live» Джона нашего Карпентера.
UFO just landed and posted this here
Кто-то пробовал собрать и испытать на своём компе? Что-то там несколько сложновато (для меня) с установкой и использованием. Было бы удобнее одной программой реализовать. Судя по описанию, надо выделенную видеокарту иметь. Заведётся ли на intel hd4600?
Судя по результатам, там простой Style Transfer с минимальными модификациями, можете и на cpu вполне посчитать.
Кто-то пробовал собрать и испытать на своём компе? Что-то там несколько сложновато (для меня) с установкой и использованием.

Установка всего показалась сложной и я забил.


Скачал репозиторий (уже немаленький, потом запустил sh models/download_models.sh — скачалось ещё что-то большого размера)


скачать cuda — 2гб, скачать cudnn — увлекательная регистрация на сайте нвидии с кучей обязательных вопросов. (кстати, в cmake указана cuda 7.5, исправлял на 8.0)
Ещё надо поставить torch — это тоже не в одно действие делается :(

Собрал. Устанавливается довольно сложно. Получается этакий франкенштейн, собранный из множества библиотек, написанных на разных языках. После сборки все-равно ничего не заработает из-за багов, который благополучно решаются в issues проекта. Видно, что проект сырой и его будут еще долго допиливать. Запускал на geforce gtx 970. Очень требовательная к памяти, пришлось уменьшить разрешение картинки до 500, чтобы не вылезала ошибка out of memory.
Заведётся ли на intel hd4600? Думаю да. Но если на gpu одна картинка считается минуты 3, то уж не знаю сколько она будет считаться на cpu.
Плюс не с каждой картинкой будет хорошо работать. Вот что будет, если скрестить МГУ и Диснейленд

image

Если кому-нибудь будет нужна помощь по сборке, обращайтесь)
А можно попросить вас это все в докер собрать? Или уже не получится?
А какой командой вы запускаете сам рендер?
th neuralstyle_seg.lua -backend cudnn -cudnn_autotune -content_image examples/input/in1.png -style_image examples/style/tar1.png -content_seg examples/segmentation/in1.png -style_seg examples/segmentation/tar1.png -index 1 -num_iterations 1000 -save_iter 100 -print_iter 1 -gpu 0 -serial examples/tmp_results && th deepmatting_seg.lua -backend cudnn -cudnn_autotune -content_image examples/input/in1.png -style_image examples/style/tar1.png -init_image examples/tmp_results/out1_t_1000.png -content_seg examples/segmentation/in1.png -style_seg examples/segmentation/tar1.png -index 1 -num_iterations 1000 -save_iter 100 -print_iter 1 -gpu 0 -serial examples/final_results -f_radius 15 -f_edge 0.01

Еще есть Step by step console commands
А как вы получили? -content_seg examples/segmentation/in1.png

Руками разметку сделали?
А это маска МГУ или Диснея? То есть, что именно нужно сегментировать?
Нужно сегментировать и МГУ и Дисней. Причем цвета для сегментации надо выбирать именно такие, а не рандомные) Сегментация для МГУ называется examples/segmentation/in1.png, а для Диснея examples/segmentation/tar1.png
ой ой, что-то мне подсказывает, что стоит вернуться к этим исходникам через месяц
Ну с фотореалистичностью они немного погорячились. Косяки на большинстве картинок бросаются в глаза сразу (хотя возможно просто из-за того, что сам так косячил теперь вижу). Особенно с отражениями лажает, т.к. обрабатывает отражение и оригинал раздельно, судя по всему.
Но всё равно мощно!
UFO just landed and posted this here
Всяко легче прятать унылость, чем не действительно убирать…
таки покрывало черное с фиолетовым или белое с золотом?

Забавно.
Но обработанные фото всё ещё кажутся нереальными. Местами проскакивают лишние градиенты.
Кроме картинки с яблоками, на неё я вообще не могу отличить, где оригинал.

Sign up to leave a comment.

Articles