Пробуем на чем то, что в теории может помочь в работе.
Взял за образец один из своих стиллов и использовав модели Depth, Soft Edge в Control Net (Stable Diffusion) получил разные сеттинги.
В комментариях можете попробовать угадать, для некоторых картинок был использован промт с конкретными названиями видео игр.
Взял за образец один из своих стиллов и использовав модели Depth, Soft Edge в Control Net (Stable Diffusion) получил разные сеттинги.
В комментариях можете попробовать угадать, для некоторых картинок был использован промт с конкретными названиями видео игр.
👍6🔥2❤1
https://youtu.be/L6J4IGjjr9w чем больше углублюсь, тем больше успокаиваюсь.
Все это не заменит людей, а упростит и ускорит работу. Да-да, такое вот банальное заключение.
На видео можно видеть, как автор использует Blender + Stable diffusion чтобы сделать концепт арт. Обычно используют фотобаш, долго и нудно подбирая фотографии из интернета, чтобы добавить детализации. Но нейросеть сильно упрощает этот процесс, выдавая бесконечное число изображений, уже с нужным светом и корректной перспективой, с нужной стилизацией
Что касается 3d - всякий броадкаст и прочее пока нереально или очень сложно сгенерировать. Нужно прям отдельно обучать, но хз что получится из этого. Хочу попробовать.
Все это не заменит людей, а упростит и ускорит работу. Да-да, такое вот банальное заключение.
На видео можно видеть, как автор использует Blender + Stable diffusion чтобы сделать концепт арт. Обычно используют фотобаш, долго и нудно подбирая фотографии из интернета, чтобы добавить детализации. Но нейросеть сильно упрощает этот процесс, выдавая бесконечное число изображений, уже с нужным светом и корректной перспективой, с нужной стилизацией
Что касается 3d - всякий броадкаст и прочее пока нереально или очень сложно сгенерировать. Нужно прям отдельно обучать, но хз что получится из этого. Хочу попробовать.
YouTube
Using 3D and Depth2Img for Concept Art (Stable Diffusion & Blender)
In this video I experiment with using the new Stable Diffusion 2.0 Depth model to render a scene created in Blender. Overall I think this is an interesting workflow that could allow for control over composition for complex scenes. While not perfect it is…
🔥10👍2❤1
Какие мысли на данном этапе погружения в Stable / Midjourney.
По поводу применения в работе 3D моушена:
1. Можно обучить LoRA на референсах типа MS Design и генерировать новые референсы, "красить" ваш вьюпорт в текстурки, свет и цвета из MS Design.
2. Можно попытаться сделать раскадровку, которая в 99% случаев не будет похожа на финальный ролик
3. Можно попробовать нарулить генерацию всяких узоров для текстур, но нафига непонятно, это добро можно купить в интернете в нормальном виде
4. Дополнительный источник референсов, иногда генерации могут натолкнуть на разные мысли
На этом все. Именно потому все генерят персонажей, пейзажи и прочие концепт арты. Потому что только там оно и работает +- нормально.
Не вижу смысла углубляться и изучать это, если вы не планируете менять профессию на концепт артиста окружений и персонажей, а также на стокера, что будет генерить бесконечные фотки девушек в разной одежде и ракурсах.
По поводу применения в работе 3D моушена:
1. Можно обучить LoRA на референсах типа MS Design и генерировать новые референсы, "красить" ваш вьюпорт в текстурки, свет и цвета из MS Design.
2. Можно попытаться сделать раскадровку, которая в 99% случаев не будет похожа на финальный ролик
3. Можно попробовать нарулить генерацию всяких узоров для текстур, но нафига непонятно, это добро можно купить в интернете в нормальном виде
4. Дополнительный источник референсов, иногда генерации могут натолкнуть на разные мысли
На этом все. Именно потому все генерят персонажей, пейзажи и прочие концепт арты. Потому что только там оно и работает +- нормально.
Не вижу смысла углубляться и изучать это, если вы не планируете менять профессию на концепт артиста окружений и персонажей, а также на стокера, что будет генерить бесконечные фотки девушек в разной одежде и ракурсах.
👍24✍3