3D GRIPINSKY | INFO
19K subscribers
6.14K photos
308 videos
45 files
999 links
Академия 3D Евгения Грипинского
https://gosuslugi.ru/snet/67ab2a7b2189cb207b3cd1e4
Download Telegram
🔺 Друзья! Мы знаем, как вы ждете предстоящие большие выходные и хотим помочь вам провести их с пользой😊

Майские праздники — идеальное время для того, чтобы неспешно и с удовольствием .. поучиться!

Только до конца апреля предлагаем скидку 10% на все наши курсы (кроме Gamedev2, на него и так действует максимальная скидка также до конца апреля).

Введите при оплате промокод "май" (без кавычек, кириллицей) и получите скидку! Также доступна рассрочка и оплата частями — начните обучение комфортно для себя. Не забывайте про подарочные сертификаты.

За покупками:
👉 https://gripinsky.ru/courses

Есть вопросы?
Напишите нам и мы проведем профессиональную консультацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
10
This media is not supported in your browser
VIEW IN TELEGRAM
🔺 Встречайте Gamedev level 2! Курс выпущен! 🥳

Первыми курс получат студенты, оплатившие его по предзаписи.

💜 Напоминаем, что у вас есть последний шанс приобрести курс по эксклюзивной цене до завтрашнего дня (30.04) включительно.
Больше такой цены не будет, подобная акция проводится только один раз перед выходом курса.

Для того, чтобы купить по акционной цене, вам необходимо написать вот сюда, вам пришлют ссылку на оплату. Доступна беспроцентная рассрочка.

⭐️ Посмотрите вводный урок по курсу, ознакомьтесь подробно со структурой и описанием.

⭐️Обязательно посмотрите стрим по курсу в группе ВК или на Ютубе. На стриме мы очень подробно рассказали о курсе и показали весь путь прохождения, а также познакомили с его создателями, рассказали о профессии environment artist, трудоустройстве и многом другом.

▪️ О педагоге курса

Иоанн Дмитриев — опытнейший 3D художник и 3D art lead с десятилетним опытом в профессии, из которых четыре года были проведены в крупнейшей gamedev компании Беларуси Vizor Games. Совсем недавно проект, над которым работал Иоанн, получил оскар в мире CG. Кроме того, Иоанн очень опытный педагог и обширным опытом создания курсов и наставничества и просто очень талантливый, ответственный и вовлечённый человек, которому важно, чтобы вы получили опыт и знания. У вас есть уникальная возможность перенять знания непосредственно от Иоанна, ведь помимо уроков, он осуществляет поддержку в чате лично.

🏝️ Gamedev level 2: Environment Artist — это углубленный курс по созданию игрового окружения, предназначенный для тех, кто уже освоил основы 3D-моделирования и умеет делать отдельные ассеты.
Курс является логическим продолжением Gamedev level 1: Props Artist и помогает перейти от навыков создания отдельных ассетов к разработке полноценных игровых локаций.

Пройдя курс, вы не просто создадите набор моделей — вы разработаете целостную стилизованную игровую локацию. Тема курса — пиратский остров, который вы соберёте из собственноручно созданных оптимизированных ассетов: природных объектов , реквизита и декоративных элементов. Вы научитесь работать с анимацией и создадите анимацию воды, деревьев, птичек, ткани.

Особенность курса — поэтапное развитие портфолио: после каждого практического модуля вы будете публиковать рендер своих ассетов, что позволит вам собрать крутое портфолио ещё до окончания обучения. На выходе же вы создадите топовый синематик уровня ролика, приведенного в этой статье.

Есть вопросы?
Напишите нам и мы проведем профессиональную консультацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
15👍1
Голосование 🔠🔠 начинается!
Please open Telegram to view this post
VIEW IN TELEGRAM
1. Холодное сердце (Алексей Гурин)
37
2. Логово крипто-пирата (Тимофей Партикевич)
86
3. Воспоминания о будущем (Илмаз Шигапов) - Blender
68
4. По дороге в школу магии (Петр Князев)
127
5. Здрасьте, приехали! (Александр Дмитриев)
45
🔺 Осталось несколько часов до окончания акции!

Только сегодня до 23:59:

⭐️Дарим скидку 10% на все наши курсы.
Чтобы получить скидку на любой курс, введите при оплате на сайте промокод "май" (без кавычек, кириллицей) и получите скидку! Также доступна рассрочка и оплата частями. Не забывайте про подарочные сертификаты.

⭐️В связи с выпуском наш новый курс Gamedev lvl2 можно купить по минимальной цене за 19 900 вместо 24 900.
Напишите нам, и мы предоставим ссылку на оплату.

Есть вопросы?
Напишите нам и мы проведем профессиональную консультацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎈Сегодня отмечает день рождения наш любимый директор - Эвелина Бочарова! 🎈

Эвелина не просто талантливый и мудрый руководитель, но и человек с большим сердцем, всегда открытым для поддержки, понимания и дружбы!
Суперсила Эвелины - успевать то, что невозможно успеть никому другому и создавать невероятную атмосферу дружбы и взаимовыручки.

Спасибо за тепло, лёгкость, честность, за то, что всегда можно прийти не только с задачей, но и с шуткой, переживанием или радостью.

От всей нашей команды желаем Эвелине много любви, радости, вдохновения и классных идей, которые мы поможем воплотить в реальность!

С Днем Рождения!🎉🎉🎉

Присоединяйтесь к поздравлению в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
104🎉68👍9🐳1
Media is too big
VIEW IN TELEGRAM
🔥Обновление Chaos Vantage 2.8. Реализм, контроль и скорость в реальном времени

Chaos Vantage 2.8 — это значительное обновление инструмента визуализации в реальном времени от компании Chaos, предназначенного для архитектурной визуализации, VFX и дизайна. В этой версии представлены новые функции и улучшения, направленные на повышение производительности, реалистичности и удобства работы.​

Основные нововведения в Chaos Vantage 2.8

Shader Execution Reordering (SER)

Поддержка SER на графических процессорах NVIDIA поколений Ada и Blackwell обеспечивает прирост производительности до 80% при рендеринге в реальном времени и офлайн. Это особенно заметно при работе со сложными сценами. ​

Light Linking

Теперь можно точно контролировать, какие источники света влияют на определённые объекты в сцене, используя списки для добавления и исключения. Это упрощает художественное управление освещением, тенями и композицией. ​

Эффекты объектива

Добавлены эффекты bloom и glare из V-Ray Frame Buffer, позволяющие создавать реалистичное свечение и блики, имитируя поведение реальных камер. Пользователи могут настраивать цвет, размер, интенсивность, насыщенность и форму эффектов. ​

Parallax Shader

Новый Parallax Shader позволяет имитировать интерьер с мебелью на плоской геометрии, что ускоряет создание детализированных фасадов и витрин без необходимости моделирования интерьеров. ​

Temporal Consistency

Это новая функция, которая улучшает стабильность и плавность рендеринга анимаций в реальном времени. Она позволяет создавать более естественные и непрерывные переходы между кадрами, устраняя артефакты и мерцание, которые часто возникают при рендеринге анимаций с использованием GPU. Благодаря Temporal Consistency сцены становятся визуально более стабильными и точными, особенно при работе с динамическим освещением и сложными материалами.

Switch Material

Поддержка VRaySwitchMtl позволяет быстро переключаться между различными вариантами материалов на объекте. Это упрощает процесс тестирования и сравнений, ускоряет работу и помогает оценить визуальные различия без необходимости изменять шейдеры вручную. Функция особенно полезна при работе с крупными сценами и множеством материалов, позволяя мгновенно увидеть изменения в реальном времени

Поддержка видео в качестве текстур

Теперь можно использовать видеоролики в качестве текстур, что полезно при создании анимаций на экранах телевизоров или рекламных щитах. Поддерживаются кодеки H.264, H.265, AV1, VP8 и VP9. ​

Совместимость с AMD iGPU

Добавлена поддержка интегрированных графических процессоров AMD с 16 и более вычислительными блоками, расширяя спектр совместимого оборудования. ​

⭐️Chaos Vantage 2.8 представляет собой значительный шаг вперёд в области визуализации в реальном времени, предлагая пользователям расширенные возможности для создания высококачественных и реалистичных сцен. Благодаря новым функциям и улучшениям, Vantage становится ещё более мощным инструментом для архитекторов, дизайнеров и специалистов по визуальным эффектам.

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

Видео: Виктор Тверитин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_статья_обновления #gripinsky_Corona
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍3
💜 Stable Diffusion: Революция в мире искусственного интеллекта и визуализации 💜

В последние годы генеративные модели искусственного интеллекта (ИИ) стали неотъемлемой частью различных сфер, включая искусство, дизайн, кино и игры. Одной из самых впечатляющих и популярных таких моделей является Stable Diffusion — передовая технология для генерации изображений, основанная на принципах диффузионных процессов и использующая глубокое обучение для преобразования текста в изображения.

⭐️Что такое Stable Diffusion?

Stable Diffusion — это диффузионная модель, которая генерирует изображения, начиная с случайного шума и постепенно восстанавливая его в соответствии с заданным запросом, например, текстом. Это один из типов генеративных моделей, использующих подход диффузии, который отличается от более традиционных генеративно-состязательных сетей (GAN). Главной особенностью Stable Diffusion является её способность создавать изображения на основе текстовых описаний с высокой степенью детализации и фотореалистичности. Модель была разработана таким образом, чтобы быть открытой и доступной, что позволяет всем желающим экспериментировать с её возможностями.

⭐️Как работает Stable Diffusion?

Stable Diffusion — это искусственный интеллект или генеративная модель, которая использует алгоритмы машинного обучения для создания изображений на основе текстовых описаний. Например, вы пишете: "Закат в горах, розовое небо, силуэты сосен", а она берёт и рисует именно это. Но делает она это не так, как обычный человек. Вместо того чтобы начать с пустого холста и добавлять детали, она начинает с шума — буквально с хаотичного пятна. И потихоньку превращает этот шум в изображение. Давайте разберём, как это работает, по шагам.

Шаг 1. Модель начинает с «шума»

Представьте, что вы открываете повреждённый фотофайл: на экране только серый фон и пиксели, смешанные в беспорядке. Это и есть шум — случайное распределение точек. Именно с такого состояния начинается работа модели.
Почему именно так? Потому что она использует процесс, называемый диффузией, который позволяет преобразовать этот хаос в чёткое и осмысленное изображение — от "шумного" к "понятному".

Шаг 2. Текстовая подсказка

Перед тем как начать рисовать, вы даёте модели подсказку, которая в мире ИИ называется промтом. Например: "Фантастический космический корабль над пустынной планетой". Эта фраза преобразуется в специальный вектор — набор чисел, который отражает суть вашего запроса. Модель как бы «понимает», что вам нужно: звезды, корабль, планета и пустыня, и начинает создавать изображение, опираясь на эти образы.

Шаг 3. Внутренний «умный» формат — латентное пространство

Stable Diffusion не работает напрямую с изображением. Она сначала переводит его в упрощённое представление — так называемое латентное пространство. Это как если бы вы объясняли кому-то картину по памяти: "там гора, тут человек, в углу солнце" — не все детали, но общая суть. Такой подход позволяет работать быстрее и экономнее, чем если бы рисовать прямо в пикселях.

Шаг 4. Постепенное «проявление» изображения

Теперь начинается магия. Модель берет этот шум и по шагам убирает его, добавляя смысл и формы. Это как проявлять старую фотоплёнку: сначала видно тени, потом контуры, потом детали. На каждом шаге она думает:
"А как должен выглядеть корабль?"
"Какой у пустыни цвет?"
"Как расположить тени, если свет падает справа?"
Каждый такой шаг — это одна итерация. Обычно их 20–50. На выходе — готовое изображение.

Шаг 5. Возврат к картинке

Когда картинка в латентном виде готова, модель переводит её обратно в обычное изображение, которое можно посмотреть, сохранить или доработать. Это делает специальный модуль — автокодировщик (VAE).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171
Как модель понимает, что вы хотите?

Чтобы научиться превращать шум в красивые и осмысленные изображения, модель Stable Diffusion сначала долго училась — как ученик, который сначала ничего не понимает, а потом начинает разбираться.

Обучение происходило на миллионах пар изображений и описаний к ним. Например:
картинка с собакой на пляже → подпись: "собака на песчаном пляже у океана".
портрет девушки в шляпе → подпись: "женщина в красной шляпе, реалистичный стиль".

Теперь главное: модель не училась рисовать с нуля, а делала наоборот — брала уже готовые изображения и добавляла к ним шум, превращая их в "грязную кашу". А потом училась этот шум обратно убирать, шаг за шагом. Она знала, сколько и какого шума было добавлено, и училась его точно предсказывать и удалять.
На каждом шаге она пыталась угадать: «А каким было изображение до того, как я испортила его шумом?»
Если модель ошибалась — ей показывали, где именно. Так она постепенно училась всё лучше восстанавливать изображения из шума. А заодно запоминала, как в реальных картинках выглядят собаки, города, свет, одежда, лица и многое другое.
Также модель обучалась учитывать текст — подсказки (промпты). Она училась понимать, как связаны слова и картинки: что "кот в шляпе" — это не просто кот и не просто шляпа, а конкретный образ.

В итоге — после длительного обучения на огромных наборах данных — модель научилась делать следующее:
брать случайный шум.
читать ваш текст.
превращать шум в изображение, которое точно отражает суть промпта.

Почему это круто?

Универсальность: можно нарисовать что угодно — от реализма до сказки.
Гибкость: можно менять стиль, добавлять или убирать детали, использовать дополнительные параметры (например, угол камеры или тип освещения).
Контроль: можно использовать референсы или даже маски, чтобы управлять композицией.

Возможности и преимущества

Гибкость и разнообразие стилей

Stable Diffusion способна создавать изображения в различных стилях — от фотореализма до абстракции, имитируя техники известных художников или создавая уникальные визуальные эффекты.

Высокое качество изображений

Благодаря использованию диффузионных процессов и глубоких нейронных сетей, модель генерирует изображения с высоким уровнем детализации, включая реалистичные текстуры, освещение и тени.

Доступность и открытость

Stable Diffusion является открытым проектом, предоставляя доступ к исходному коду и предобученным моделям. Это позволяет разработчикам и исследователям использовать модель в своих проектах, адаптировать её под специфические задачи и вносить улучшения.

Интерактивность и контроль над результатом

Пользователи могут влиять на процесс генерации, изменяя текстовые описания, стили, композицию и другие параметры, добиваясь желаемого результата.

Применение Stable Diffusion

Концепт-арт и дизайн

Stable Diffusion активно используется для создания концепт-артов для видеоигр, фильмов и других творческих проектов. Художники могут быстро генерировать пейзажи, персонажей и другие элементы, чтобы сэкономить время на предварительном проектировании и проверить различные идеи.

Маркетинг и реклама

В рекламе и маркетинге модели вроде Stable Diffusion находят своё применение в создании визуальных материалов для брендов, рекламы и социальных сетей. Модели могут быстро адаптировать изображения под запросы рекламных кампаний, создавая уникальные и привлекательные визуалы.

Видеоигры и виртуальные миры

В индустрии видеоигр и виртуальных миров Stable Diffusion может использоваться для генерации окружений или персонажей, что ускоряет процесс разработки. Это позволяет разработчикам быстро тестировать визуальные концепты и создавать уникальные, персонализированные игровые миры.

Мультимедийное искусство и образовательные проекты

Модель также используется для создания мультимедийных проектов, например, в образовательных целях. Студенты могут использовать Stable Diffusion для генерации визуальных материалов, изучая основы композиции, художественного стиля и цифрового искусства.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍105🥰2
Применение в архитектурной визуализации

Stable Diffusion становится мощным помощником для архитекторов, 3D-художников и визуализаторов. Вот как его можно использовать:

🟣Быстрое создание концептов.
⭐️Генерация вариантов фасадов, окон, крыш, террас по короткому описанию.
⭐️Прототипирование идей для жилых домов, общественных зданий, интерьеров.
⭐️Проверка атмосферы — как будет ощущаться объект в разное время суток, в разной погоде, с разным освещением.

🟣Улучшение и доработка деталей.
⭐️Позволяет значительно улучшить визуализацию людей на рендерах — изображения становятся менее «компьютерными» и приобретают более реалистичный и естественный вид.
⭐️Дорисовка элементов (озеленение, мебель, текстуры фасадов).
⭐️Быстрая генерация заднего плана или окружения (горы, лес, город, небо и т.п.).

🟣Атмосферные референсы и moodboard'ы.
⭐️Создание множества визуальных вариантов по теме (например, "современный скандинавский дом в лесу утром").
⭐️Помощь в создании коллажей и визуальных исследований.

Инструменты и экосистема

Stable Diffusion — это не просто одна модель, а целая экосистема инструментов, с помощью которой можно генерировать, редактировать и дорабатывать изображения. Эти инструменты делают работу с моделью удобной, настраиваемой и эффективной — как для художников, так и для дизайнеров, архитекторов, маркетологов или разработчиков.

Web-интерфейсы и приложения

Существует множество веб-платформ, где можно использовать Stable Diffusion без необходимости устанавливать что-либо:
Hugging Face Spaces, Replicate, PlaygroundAI — позволяют быстро протестировать идеи.
InvokeAI, AUTOMATIC1111 WebUI — локальные графические интерфейсы с тонкой настройкой и поддержкой плагинов.
DiffusionBee — простое и удобное десктоп-приложение для macOS и Windows.

Расширенные возможности

Модель можно использовать не только для генерации с нуля, но и для доработки и редактирования:
img2img — загрузка начального изображения (эскиз, рендер, фото) и генерация на его основе. Очень полезно, если у вас уже есть базовая сцена.
inpainting — замена/дорисовка части изображения (например, убрать объект или изменить фасад здания).
ControlNet — инструмент, позволяющий управлять композицией, перспективой, позами и формой объектов (через скетчи, карты глубины, карты освещения и т.п.).
LoRA и Custom Models — можно обучать или использовать уже готовые стили (например, под архитектурный скетч, японский минимализм или брутализм).

Интеграции и плагины

Blender + Stable Diffusion: существуют плагины для генерации текстур и фонов прямо из 3D-сцены.
Photoshop + SD (через API или плагин ComfyUI): можно быстро обрабатывать изображения, не выходя из графического редактора.
TouchDesigner / Unreal Engine / Unity — интеграции для интерактивных и VR-проектов.

Комьюнити и модели под конкретные задачи

Существуют модели, заточенные специально под архитектуру (например, [archiStyleXL], [interiorDiffusion], [archisketch-style]).
Комьюнити на Hugging Face, Civitai и Reddit активно делится наработками и примерами.

Будущее Stable Diffusion

Stable Diffusion продолжает формироваться под влиянием значительных технологических достижений и стратегических инициатив компании Stability AI. С акцентом на доступность, кастомизацию и мультимодальность, платформа уверенно движется к созданию более мощных и универсальных инструментов генеративного ИИ.

Ожидаемые направления развития Stable Diffusion включают:

Мультимодальность: интеграция генерации текста, изображений, видео и 3D-контента для создания более богатых и интерактивных медиа-продуктов.

Улучшение анатомической точности: повышение реалистичности изображений, особенно в отображении человеческих фигур и лиц.

Оптимизация для мобильных устройств: разработка более лёгких моделей и интерфейсов для использования на мобильных платформах и в облачных сервисах.

Расширение образовательных ресурсов: создание обучающих материалов и инструментов для упрощения освоения технологий генеративного ИИ широким кругом пользователей.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171
🔥 Stable Diffusion — это мощная генеративная модель, которая изменяет подход к созданию изображений, открывая новые возможности для творчества и профессиональной работы. Однако важно помнить об этических и правовых аспектах использования таких технологий, чтобы избежать негативных последствий. В будущем Stable Diffusion может стать основным инструментом в различных сферах, от искусства до бизнеса, и сыграть важную роль в формировании следующего поколения контентных технологий.

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_ИИ #gripinsky_SD
Please open Telegram to view this post
VIEW IN TELEGRAM
24👍7
Уважаемые студенты!

🔥 У наших друзей и партнёров из Render RU вышел новый, четырнадцатый выпуск журнала Render Magazine!🔥

В этом выпуске вас, как всегда, ждет ряд эксклюзивных статей, которых нет на сайте: ежемесячный отчет, в котором рассказывается о ситуации в CG на сегодняшний день, статья «История Render Man от Pixar: как создатели «Истории игрушек»произвели революцию в 3D-анимации» от DigitalRazor,а также четыре замечательных материала: Making Of «Дракула 2014 (Люк Эванс)» от 3D художницы Аделины Дувинг, Making Of «Creation ZERO» от концепт скульптора Дмитрия Кононенко, Making Of «Волк - рыцарь» от 3D художницы по персонажам Маргариты Юхненко и Making Of «Квадрокулобатопс» от 3D художницы Александры Колтуновой.

📍Читать журнал можно прямо в браузере, скачать в PDF или открыть в приложении Render Magazine на iPad.
Все выпуски с 2016 по 2025 год — доступны к просмотру.

✔️ Кстати, у нашей академии тоже есть блог на Render.ru — и там выходит уникальный контент, которого нет ни в Telegram, ни в других наших каналах. Обязательно загляните: https://render.ru/ru/company/12502/about
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23