Pull to refresh

Comments 4

Автор, хотелось бы услышать твое мнение о будущем данной сферы, в каком направлении будет развиваться и сможем ли мы использовать такие модели в повседневной жизни?

Хотел оставить мнение на следующие статьи из цикла, когда уже будет широкое понимание существующих технологий, но вкратце и тут можно поразмышлять) Достаточно взглянуть на модель One-2-3-45++, которая уже способна генерировать 3D-модели приемлемого качества по одной лишь фотографии объекта. И что самое интересное, её невозможно рассматривать обособленно от текущего контекста, поскольку она использует и CLIP, и Stable Diffusion и прочие современные подходы, чтобы достичь такого качества.

Вообще всё идёт к тому, что 3D-модели будут создаваться по щелчку пальца, как сейчас происходит с иллюстрациями. Это в свою очередь упростит создание игр, мультфильмов, аниматиков, контента для AR/VR. Также такое глубокое понимание концепта 3D-объектов может в последствии помочь в робототехнике и создании ПО для беспилотников (и мы наконец преодолеем этот барьер, существующий между нашим миром и бурно развивающимся миром нейросетей).

Ещё я мечтаю увидеть момент, когда мы научимся генерировать настраиваемые видеоролики большой продолжительности в приемлемом качестве. Кажется, что и здесь не обойтись без внедрения 3D-нейросетей в процессы генерации. Есть ещё такая штука, называется VQGAN-3D, так вот, там за третье измерение берётся время, а не глубина, и выходит так, что 2D-анимации она генерит неплохо, а вот с 3D уже происходят коллапсы на хоть сколько-нибудь длинных дистанциях. То есть надо шагать дальше в VQGAN-4D? Думаю это сейчас одно из самых перспективных направлений - давать нейросетям больше информации о нашем мире, давать им понимание, какое есть у нас, а не вывозить за счёт эвристик. Конечно, здесь есть ограничения по производительности, но мы всегда с этим что-нибудь придумываем)

Благодарю за такой развернутый ответ! Направление и правда очень интересное.

подписался. жду разбор по второй группе сетей :)

Sign up to leave a comment.

Articles