Pull to refresh

Comments 35

А нет готовых программ (в виде дистрибутивов) со встроенной и обученной сетью, чтобы просто подать ей чёрно-белую картинку и получить результат? Ну и совсем хорошо, если бы можно бы было указать каталог с цветными изображениями, а программа сама бы на них обучалась.
Ну ничего себе, Лебедев знает про ML.
PS. Веб-сервисов довольно много. Софта наверное нету. Скорее всего можно накопать готовую нейросетку и погонять локально.
Спасибо, но это опять-таки не программа для установки на PC. :(
Впрочем, поиграться будет интересно. :)
Попробовал. Фиолетовые розы не впечатлили, не говоря об остальном… :)
В галерее вообще трэш, особенно собака с поджаренной живой лягушкой :))
«вагина, вид снизу» значит вы не застали… счастливчик.
Немного сравнивал пару фотографий, результаты можете сравнить с этим сервисом:
demos.algorithmia.com/colorize-photos
Думается, что фотка просто пересылается на этот севис и потом результат склеивается с оригиналом. Могу ошибаться, конечно. Но проверьте на всякий.
попробовал… не понимаю, в чём проблема — такое впечатление, что программа определяет, где руки-ноги-голова и ляпает в окрестности пятно телесного цвета… на фотографиях начала 20 века — так вообще какое-то безобразие с цветами… кстати, сам я попытался скормить программе две по-настоящему чёрно-белые фотографии (одна 1967 года, другая — ещё более ранняя), так сервис вообще мне ничего не выдал… печально…
А если обучать с помощью цветных фоток? Скормить цветную и ее черно-белую фотку нейросети и так фоток 100.
Я не настоящий сварщик, просто, размышления. Или оно так и делается?
Есть подозрение, что ЧБ изображение, сделанное из цветного, будет отличаться по оттенкам от изначально ЧБ изображения.

изначально ЧБ изображение создается из цветного по некоему алгоритму, а алгоритмов этих огромное количество. То есть даже "черно-белая фотография" — это не константа.

Как раскрасывающий фотки руками скажу вам разница огромна. Десатурированные фото очень хорошо раскрашиваются.
Ни в коем случае. Нужно переводить цветные в чб максимально близко к пленочным. Убивать полутона. Мылить. И после наложить цвет с оригинала, он нормально ляжет. И брать уже эту цветную и подложку.
Думаю 100 фоток маловато для обучения нейтросети. Нужен датасет по более.

Интересный способ. Утащу его, пожалуй, в закрома. Спасибо!

Как много работы потребуется, чтобы перенести уже созданную и обученную нейросеть в другую среду? Например, вместо Python'а развернуть окружение на базе node.js? Или использовать Java, чтобы создать автономное Android-приложение для раскрашивания?
Keras умеет сохранять обученную сетку в относительно стандартном формате HDF5. Библиотеки для Java явно есть

Keras сейчас использует в качестве backend библиотеку Tensorflow (вернее, он стал её частью). Поэтому можно просто сохранить граф в формате Protobuf, родном для TF. Файл в этом формате — это что-то вроде скомпилированной сетки, который можно буквально несколькими строками кода запускать как на сервере, так и на мобильном телефоне (TF поддерживает запуск графов на Android).

я думаю что проще будет запилить микросервис на питоне, а обращаться к нему из андроид приложения через какой нибудь Rest
Сейчас у многих на слуху модная Призма, а мало кто знает что истоки этому всему — генерации картинок через обученную нейросеть — были положены еще в 2005 году программой Image Analogies, которую написали изначально как академический проект: www.mrl.nyu.edu/projects/image-analogies

Можно было создавать псевдо-фото на основе абстрактного рисунка, делать из фото рисунок «а-ля художник» и еще много всего.

Если говорить о методике, а не об общей идее переноса стиля, то это всё скорее из DeepDream вышло. Просто Image Analogies на совсем другие принципы опиралась. В DeepDream пытались строить изображения, которые максмизируют какие-то элементы на featuremap. А там уже совсем близко была идея устранения пространственной составляющей из featuremap для получения метрики «стилистической схожести», которую и построил Леон Гатис. Потом была статья Джонсона о том, как избавиться от оптимизации и построить аппроксимирующую сеть для переноса стиля. Ну а ребята из «Призмы» уже потом применили этот подход. Ещё чуть позже появилась статья Ульянова, Вевальди и Лемпицкого, где они показали, как всё это делать быстро.


Надеюсь, не напутал с хронологией.

Главная проблема, как водится, будет социальной.


Раскрашенные фото не будут никак помечены, они разойдутся по интернету и люди будут делать выводы о запечатлённых событиях.

Интересный способ и отличная статья, но как мне кажется небольшая проблема может скрываться в том что обучение проводилось на фотографиях ставших черно-белыми исскуственно (то есть сначала делается цветная фотография, потом перегоняется в B&W) ибо разница работы алгоритма между «обучающей» выборкой и настоящими «архивными» исконно черно-белыми снимками — огромная.
Интересно посмотреть, что получится, если попробовать обучить её на раскрашенных фотографиях.
Кстати, папоротник «эти ваши нейросети» так и не смогли.

Вы про коричневые листики перед лицом девушки? В оригинале они тоже коричневые.

на удивление там довольно примитивные работы
---То, на что уходит до месяца работы вручную, можно сделать за несколько секунд.

обычно на это уходят минуты — никаких масок накладывать не надо — достаточно выделить лицо и поиграть с гистограммами — патерн можно взять с цветной фотографии
Вы на работы посмотрите по ссылке, какой там уровень. Оттуда и сроки)
Главное чтобы не получилось как-то
так

Что будет, если на вход в эту сетку подать не черно-белое, а цветное изображение?
Sign up to leave a comment.