3D GRIPINSKY | INFO
19K subscribers
6.14K photos
308 videos
45 files
998 links
Академия 3D Евгения Грипинского
https://gosuslugi.ru/snet/67ab2a7b2189cb207b3cd1e4
Download Telegram
🔺 Осталось несколько часов до окончания акции!

Только сегодня до 23:59:

⭐️Дарим скидку 10% на все наши курсы.
Чтобы получить скидку на любой курс, введите при оплате на сайте промокод "май" (без кавычек, кириллицей) и получите скидку! Также доступна рассрочка и оплата частями. Не забывайте про подарочные сертификаты.

⭐️В связи с выпуском наш новый курс Gamedev lvl2 можно купить по минимальной цене за 19 900 вместо 24 900.
Напишите нам, и мы предоставим ссылку на оплату.

Есть вопросы?
Напишите нам и мы проведем профессиональную консультацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
🎈Сегодня отмечает день рождения наш любимый директор - Эвелина Бочарова! 🎈

Эвелина не просто талантливый и мудрый руководитель, но и человек с большим сердцем, всегда открытым для поддержки, понимания и дружбы!
Суперсила Эвелины - успевать то, что невозможно успеть никому другому и создавать невероятную атмосферу дружбы и взаимовыручки.

Спасибо за тепло, лёгкость, честность, за то, что всегда можно прийти не только с задачей, но и с шуткой, переживанием или радостью.

От всей нашей команды желаем Эвелине много любви, радости, вдохновения и классных идей, которые мы поможем воплотить в реальность!

С Днем Рождения!🎉🎉🎉

Присоединяйтесь к поздравлению в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
104🎉68👍9🐳1
Media is too big
VIEW IN TELEGRAM
🔥Обновление Chaos Vantage 2.8. Реализм, контроль и скорость в реальном времени

Chaos Vantage 2.8 — это значительное обновление инструмента визуализации в реальном времени от компании Chaos, предназначенного для архитектурной визуализации, VFX и дизайна. В этой версии представлены новые функции и улучшения, направленные на повышение производительности, реалистичности и удобства работы.​

Основные нововведения в Chaos Vantage 2.8

Shader Execution Reordering (SER)

Поддержка SER на графических процессорах NVIDIA поколений Ada и Blackwell обеспечивает прирост производительности до 80% при рендеринге в реальном времени и офлайн. Это особенно заметно при работе со сложными сценами. ​

Light Linking

Теперь можно точно контролировать, какие источники света влияют на определённые объекты в сцене, используя списки для добавления и исключения. Это упрощает художественное управление освещением, тенями и композицией. ​

Эффекты объектива

Добавлены эффекты bloom и glare из V-Ray Frame Buffer, позволяющие создавать реалистичное свечение и блики, имитируя поведение реальных камер. Пользователи могут настраивать цвет, размер, интенсивность, насыщенность и форму эффектов. ​

Parallax Shader

Новый Parallax Shader позволяет имитировать интерьер с мебелью на плоской геометрии, что ускоряет создание детализированных фасадов и витрин без необходимости моделирования интерьеров. ​

Temporal Consistency

Это новая функция, которая улучшает стабильность и плавность рендеринга анимаций в реальном времени. Она позволяет создавать более естественные и непрерывные переходы между кадрами, устраняя артефакты и мерцание, которые часто возникают при рендеринге анимаций с использованием GPU. Благодаря Temporal Consistency сцены становятся визуально более стабильными и точными, особенно при работе с динамическим освещением и сложными материалами.

Switch Material

Поддержка VRaySwitchMtl позволяет быстро переключаться между различными вариантами материалов на объекте. Это упрощает процесс тестирования и сравнений, ускоряет работу и помогает оценить визуальные различия без необходимости изменять шейдеры вручную. Функция особенно полезна при работе с крупными сценами и множеством материалов, позволяя мгновенно увидеть изменения в реальном времени

Поддержка видео в качестве текстур

Теперь можно использовать видеоролики в качестве текстур, что полезно при создании анимаций на экранах телевизоров или рекламных щитах. Поддерживаются кодеки H.264, H.265, AV1, VP8 и VP9. ​

Совместимость с AMD iGPU

Добавлена поддержка интегрированных графических процессоров AMD с 16 и более вычислительными блоками, расширяя спектр совместимого оборудования. ​

⭐️Chaos Vantage 2.8 представляет собой значительный шаг вперёд в области визуализации в реальном времени, предлагая пользователям расширенные возможности для создания высококачественных и реалистичных сцен. Благодаря новым функциям и улучшениям, Vantage становится ещё более мощным инструментом для архитекторов, дизайнеров и специалистов по визуальным эффектам.

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

Видео: Виктор Тверитин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_статья_обновления #gripinsky_Corona
Please open Telegram to view this post
VIEW IN TELEGRAM
17👍3
💜 Stable Diffusion: Революция в мире искусственного интеллекта и визуализации 💜

В последние годы генеративные модели искусственного интеллекта (ИИ) стали неотъемлемой частью различных сфер, включая искусство, дизайн, кино и игры. Одной из самых впечатляющих и популярных таких моделей является Stable Diffusion — передовая технология для генерации изображений, основанная на принципах диффузионных процессов и использующая глубокое обучение для преобразования текста в изображения.

⭐️Что такое Stable Diffusion?

Stable Diffusion — это диффузионная модель, которая генерирует изображения, начиная с случайного шума и постепенно восстанавливая его в соответствии с заданным запросом, например, текстом. Это один из типов генеративных моделей, использующих подход диффузии, который отличается от более традиционных генеративно-состязательных сетей (GAN). Главной особенностью Stable Diffusion является её способность создавать изображения на основе текстовых описаний с высокой степенью детализации и фотореалистичности. Модель была разработана таким образом, чтобы быть открытой и доступной, что позволяет всем желающим экспериментировать с её возможностями.

⭐️Как работает Stable Diffusion?

Stable Diffusion — это искусственный интеллект или генеративная модель, которая использует алгоритмы машинного обучения для создания изображений на основе текстовых описаний. Например, вы пишете: "Закат в горах, розовое небо, силуэты сосен", а она берёт и рисует именно это. Но делает она это не так, как обычный человек. Вместо того чтобы начать с пустого холста и добавлять детали, она начинает с шума — буквально с хаотичного пятна. И потихоньку превращает этот шум в изображение. Давайте разберём, как это работает, по шагам.

Шаг 1. Модель начинает с «шума»

Представьте, что вы открываете повреждённый фотофайл: на экране только серый фон и пиксели, смешанные в беспорядке. Это и есть шум — случайное распределение точек. Именно с такого состояния начинается работа модели.
Почему именно так? Потому что она использует процесс, называемый диффузией, который позволяет преобразовать этот хаос в чёткое и осмысленное изображение — от "шумного" к "понятному".

Шаг 2. Текстовая подсказка

Перед тем как начать рисовать, вы даёте модели подсказку, которая в мире ИИ называется промтом. Например: "Фантастический космический корабль над пустынной планетой". Эта фраза преобразуется в специальный вектор — набор чисел, который отражает суть вашего запроса. Модель как бы «понимает», что вам нужно: звезды, корабль, планета и пустыня, и начинает создавать изображение, опираясь на эти образы.

Шаг 3. Внутренний «умный» формат — латентное пространство

Stable Diffusion не работает напрямую с изображением. Она сначала переводит его в упрощённое представление — так называемое латентное пространство. Это как если бы вы объясняли кому-то картину по памяти: "там гора, тут человек, в углу солнце" — не все детали, но общая суть. Такой подход позволяет работать быстрее и экономнее, чем если бы рисовать прямо в пикселях.

Шаг 4. Постепенное «проявление» изображения

Теперь начинается магия. Модель берет этот шум и по шагам убирает его, добавляя смысл и формы. Это как проявлять старую фотоплёнку: сначала видно тени, потом контуры, потом детали. На каждом шаге она думает:
"А как должен выглядеть корабль?"
"Какой у пустыни цвет?"
"Как расположить тени, если свет падает справа?"
Каждый такой шаг — это одна итерация. Обычно их 20–50. На выходе — готовое изображение.

Шаг 5. Возврат к картинке

Когда картинка в латентном виде готова, модель переводит её обратно в обычное изображение, которое можно посмотреть, сохранить или доработать. Это делает специальный модуль — автокодировщик (VAE).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171
Как модель понимает, что вы хотите?

Чтобы научиться превращать шум в красивые и осмысленные изображения, модель Stable Diffusion сначала долго училась — как ученик, который сначала ничего не понимает, а потом начинает разбираться.

Обучение происходило на миллионах пар изображений и описаний к ним. Например:
картинка с собакой на пляже → подпись: "собака на песчаном пляже у океана".
портрет девушки в шляпе → подпись: "женщина в красной шляпе, реалистичный стиль".

Теперь главное: модель не училась рисовать с нуля, а делала наоборот — брала уже готовые изображения и добавляла к ним шум, превращая их в "грязную кашу". А потом училась этот шум обратно убирать, шаг за шагом. Она знала, сколько и какого шума было добавлено, и училась его точно предсказывать и удалять.
На каждом шаге она пыталась угадать: «А каким было изображение до того, как я испортила его шумом?»
Если модель ошибалась — ей показывали, где именно. Так она постепенно училась всё лучше восстанавливать изображения из шума. А заодно запоминала, как в реальных картинках выглядят собаки, города, свет, одежда, лица и многое другое.
Также модель обучалась учитывать текст — подсказки (промпты). Она училась понимать, как связаны слова и картинки: что "кот в шляпе" — это не просто кот и не просто шляпа, а конкретный образ.

В итоге — после длительного обучения на огромных наборах данных — модель научилась делать следующее:
брать случайный шум.
читать ваш текст.
превращать шум в изображение, которое точно отражает суть промпта.

Почему это круто?

Универсальность: можно нарисовать что угодно — от реализма до сказки.
Гибкость: можно менять стиль, добавлять или убирать детали, использовать дополнительные параметры (например, угол камеры или тип освещения).
Контроль: можно использовать референсы или даже маски, чтобы управлять композицией.

Возможности и преимущества

Гибкость и разнообразие стилей

Stable Diffusion способна создавать изображения в различных стилях — от фотореализма до абстракции, имитируя техники известных художников или создавая уникальные визуальные эффекты.

Высокое качество изображений

Благодаря использованию диффузионных процессов и глубоких нейронных сетей, модель генерирует изображения с высоким уровнем детализации, включая реалистичные текстуры, освещение и тени.

Доступность и открытость

Stable Diffusion является открытым проектом, предоставляя доступ к исходному коду и предобученным моделям. Это позволяет разработчикам и исследователям использовать модель в своих проектах, адаптировать её под специфические задачи и вносить улучшения.

Интерактивность и контроль над результатом

Пользователи могут влиять на процесс генерации, изменяя текстовые описания, стили, композицию и другие параметры, добиваясь желаемого результата.

Применение Stable Diffusion

Концепт-арт и дизайн

Stable Diffusion активно используется для создания концепт-артов для видеоигр, фильмов и других творческих проектов. Художники могут быстро генерировать пейзажи, персонажей и другие элементы, чтобы сэкономить время на предварительном проектировании и проверить различные идеи.

Маркетинг и реклама

В рекламе и маркетинге модели вроде Stable Diffusion находят своё применение в создании визуальных материалов для брендов, рекламы и социальных сетей. Модели могут быстро адаптировать изображения под запросы рекламных кампаний, создавая уникальные и привлекательные визуалы.

Видеоигры и виртуальные миры

В индустрии видеоигр и виртуальных миров Stable Diffusion может использоваться для генерации окружений или персонажей, что ускоряет процесс разработки. Это позволяет разработчикам быстро тестировать визуальные концепты и создавать уникальные, персонализированные игровые миры.

Мультимедийное искусство и образовательные проекты

Модель также используется для создания мультимедийных проектов, например, в образовательных целях. Студенты могут использовать Stable Diffusion для генерации визуальных материалов, изучая основы композиции, художественного стиля и цифрового искусства.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍105🥰2
Применение в архитектурной визуализации

Stable Diffusion становится мощным помощником для архитекторов, 3D-художников и визуализаторов. Вот как его можно использовать:

🟣Быстрое создание концептов.
⭐️Генерация вариантов фасадов, окон, крыш, террас по короткому описанию.
⭐️Прототипирование идей для жилых домов, общественных зданий, интерьеров.
⭐️Проверка атмосферы — как будет ощущаться объект в разное время суток, в разной погоде, с разным освещением.

🟣Улучшение и доработка деталей.
⭐️Позволяет значительно улучшить визуализацию людей на рендерах — изображения становятся менее «компьютерными» и приобретают более реалистичный и естественный вид.
⭐️Дорисовка элементов (озеленение, мебель, текстуры фасадов).
⭐️Быстрая генерация заднего плана или окружения (горы, лес, город, небо и т.п.).

🟣Атмосферные референсы и moodboard'ы.
⭐️Создание множества визуальных вариантов по теме (например, "современный скандинавский дом в лесу утром").
⭐️Помощь в создании коллажей и визуальных исследований.

Инструменты и экосистема

Stable Diffusion — это не просто одна модель, а целая экосистема инструментов, с помощью которой можно генерировать, редактировать и дорабатывать изображения. Эти инструменты делают работу с моделью удобной, настраиваемой и эффективной — как для художников, так и для дизайнеров, архитекторов, маркетологов или разработчиков.

Web-интерфейсы и приложения

Существует множество веб-платформ, где можно использовать Stable Diffusion без необходимости устанавливать что-либо:
Hugging Face Spaces, Replicate, PlaygroundAI — позволяют быстро протестировать идеи.
InvokeAI, AUTOMATIC1111 WebUI — локальные графические интерфейсы с тонкой настройкой и поддержкой плагинов.
DiffusionBee — простое и удобное десктоп-приложение для macOS и Windows.

Расширенные возможности

Модель можно использовать не только для генерации с нуля, но и для доработки и редактирования:
img2img — загрузка начального изображения (эскиз, рендер, фото) и генерация на его основе. Очень полезно, если у вас уже есть базовая сцена.
inpainting — замена/дорисовка части изображения (например, убрать объект или изменить фасад здания).
ControlNet — инструмент, позволяющий управлять композицией, перспективой, позами и формой объектов (через скетчи, карты глубины, карты освещения и т.п.).
LoRA и Custom Models — можно обучать или использовать уже готовые стили (например, под архитектурный скетч, японский минимализм или брутализм).

Интеграции и плагины

Blender + Stable Diffusion: существуют плагины для генерации текстур и фонов прямо из 3D-сцены.
Photoshop + SD (через API или плагин ComfyUI): можно быстро обрабатывать изображения, не выходя из графического редактора.
TouchDesigner / Unreal Engine / Unity — интеграции для интерактивных и VR-проектов.

Комьюнити и модели под конкретные задачи

Существуют модели, заточенные специально под архитектуру (например, [archiStyleXL], [interiorDiffusion], [archisketch-style]).
Комьюнити на Hugging Face, Civitai и Reddit активно делится наработками и примерами.

Будущее Stable Diffusion

Stable Diffusion продолжает формироваться под влиянием значительных технологических достижений и стратегических инициатив компании Stability AI. С акцентом на доступность, кастомизацию и мультимодальность, платформа уверенно движется к созданию более мощных и универсальных инструментов генеративного ИИ.

Ожидаемые направления развития Stable Diffusion включают:

Мультимодальность: интеграция генерации текста, изображений, видео и 3D-контента для создания более богатых и интерактивных медиа-продуктов.

Улучшение анатомической точности: повышение реалистичности изображений, особенно в отображении человеческих фигур и лиц.

Оптимизация для мобильных устройств: разработка более лёгких моделей и интерфейсов для использования на мобильных платформах и в облачных сервисах.

Расширение образовательных ресурсов: создание обучающих материалов и инструментов для упрощения освоения технологий генеративного ИИ широким кругом пользователей.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍171
🔥 Stable Diffusion — это мощная генеративная модель, которая изменяет подход к созданию изображений, открывая новые возможности для творчества и профессиональной работы. Однако важно помнить об этических и правовых аспектах использования таких технологий, чтобы избежать негативных последствий. В будущем Stable Diffusion может стать основным инструментом в различных сферах, от искусства до бизнеса, и сыграть важную роль в формировании следующего поколения контентных технологий.

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_ИИ #gripinsky_SD
Please open Telegram to view this post
VIEW IN TELEGRAM
24👍7
Уважаемые студенты!

🔥 У наших друзей и партнёров из Render RU вышел новый, четырнадцатый выпуск журнала Render Magazine!🔥

В этом выпуске вас, как всегда, ждет ряд эксклюзивных статей, которых нет на сайте: ежемесячный отчет, в котором рассказывается о ситуации в CG на сегодняшний день, статья «История Render Man от Pixar: как создатели «Истории игрушек»произвели революцию в 3D-анимации» от DigitalRazor,а также четыре замечательных материала: Making Of «Дракула 2014 (Люк Эванс)» от 3D художницы Аделины Дувинг, Making Of «Creation ZERO» от концепт скульптора Дмитрия Кононенко, Making Of «Волк - рыцарь» от 3D художницы по персонажам Маргариты Юхненко и Making Of «Квадрокулобатопс» от 3D художницы Александры Колтуновой.

📍Читать журнал можно прямо в браузере, скачать в PDF или открыть в приложении Render Magazine на iPad.
Все выпуски с 2016 по 2025 год — доступны к просмотру.

✔️ Кстати, у нашей академии тоже есть блог на Render.ru — и там выходит уникальный контент, которого нет ни в Telegram, ни в других наших каналах. Обязательно загляните: https://render.ru/ru/company/12502/about
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23
GRIPINSKY's magazine (весна 2025) 🎈

Весна — это время пробуждения и роста. Пусть этот номер станет для вас источником вдохновения и новых знаний.

🔶 В этом выпуске вы узнаете подробнее о наших обновленных и новых курсах:

⭐️«Масштабные ЖК»
⭐️«Maya. Level 1»
⭐️«Текстурирование под Gamedev»
⭐️«Архитектурная визуализация PRO»
⭐️«Визуализация в 3Ds Max и Chaos Corona»
⭐️«Визуализация в Blender»

🔶 В этом номере мы взяли интервью у Леонида Боролиса – талантливого VFX-techArt-а, моделера и преподавателя академии Евгения Грипинского.

🔶 Также вас ждёт полезная статья, в которой мы расскажем о ​дизайнере интерьера и 3D-визуализаторе: в чем их разница, сходства и ключевые особенности.

🔶 Кроме того, в весеннем выпуске вы найдете результаты конкурса «Эпоха рыцарей» и галерею лучших работ студентов.


Журнал можно скачать по ссылке.
Приятного просмотра!)
Please open Telegram to view this post
VIEW IN TELEGRAM
21🔥12👍6
💻 Marvelous Designer 2025.0: Всё, что нужно знать о новом обновлении

Marvelous Designer 2025.0 — это масштабное обновление популярного программного обеспечения для 3D-дизайна одежды от CLO Virtual Fashion, выпущенное 1 мая 2025 года. Версия 2025.0 приносит значительные улучшения в области анимации, моделирования, интерфейса и рабочего процесса, ориентируясь на потребности профессионалов в области моды, анимации и игровой индустрии.​

Основные нововведения

Ключевая анимация (Keyframe Animation)

В версии 2025.0 расширены возможности анимации: теперь можно задавать ключевые кадры для свойств ткани, ветра и других параметров симуляции. Это позволяет создавать более динамичные и реалистичные анимации одежды. Также улучшена навигация и управление анимациями, что упрощает процесс создания сложных движений.​

Поддержка меха (в бета-версии)

Введена экспериментальная поддержка меха: теперь можно визуализировать и настраивать параметры меховых материалов в 3D-окне, а также экспортировать их как сплайны. Это открывает новые возможности для создания фотореалистичных персонажей и животных. Мастера могут регулировать длину, толщину, завитки и цвет волокон, а также экспортировать их в формате USD для использования в других приложениях.​

Модульная библиотека (Modular Library)

Добавлена новая модульная библиотека, позволяющая сохранять и повторно использовать группы элементов одежды и блок-сеты. Это ускоряет процесс создания различных вариантов дизайна и улучшает организацию рабочего процесса. Пользователи могут создавать и сохранять стили, блоки и группы, а также настраивать параметры защиты от случайного изменения. Интерфейс библиотеки интегрирован с платформой CLO-SET и магазином CONNECT, что облегчает доступ к активам и совместную работу.​

Улучшения интерфейса и рабочего процесса

Обновлён пользовательский интерфейс для более интуитивного и удобного взаимодействия. Также улучшены инструменты автоматического шитья, подгонки и скульптинга, а также добавлены новые возможности для работы с UV-развёртками и экспортом в различные форматы. Теперь можно автоматически генерировать UV-развёртки не только для передней, но и для боковых и задних частей одежды, а также улучшена оптимизация топстичей, что способствует созданию более чистых и эффективных сеток.​

Поддержка новых форматов и улучшения экспорта

Теперь поддерживается экспорт моделей в формат USDZ для использования в приложениях дополненной реальности. Также добавлена возможность экспорта данных в формате FBX с сохранением имен материалов, что упрощает интеграцию с другими 3D-приложениями. Кроме того, улучшена оптимизация полигонов для топстичей, что способствует более качественному рендерингу и анимации.

Поддержка IK-мэппинга для скелетов

Добавлена поддержка IK-мэппинга (Inverse Kinematics) для скелетов, что улучшает контроль над анимацией персонажей и одежды. Эта функция позволяет более точно управлять позами и движениями, создавая естественные и реалистичные перемещения суставов. IK-мэппинг упрощает корректировку поз и улучшает взаимодействие одежды с анимациями, обеспечивая плавную и правдоподобную симуляцию движения. Это особенно полезно при работе со сложными анимациями, позволяя достичь высокого уровня детализации и точности в моделировании.

🌸 Marvelous Designer 2025.0 привносит важные обновления, включая ключевую анимацию для ткани, поддержку меха в бета-версии и улучшенную модульную библиотеку. Оптимизирован интерфейс, а также добавлены новые форматы экспорта, такие как USDZ и улучшенный FBX. Эти улучшения значительно ускоряют процесс работы, повышая качество создаваемых моделей и расширяя возможности.

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_Marvelous #gripinsky_MD
Please open Telegram to view this post
VIEW IN TELEGRAM
👍125
🔺 3DHamster. Встречайте новую партнёрскую программу академии!

3DHamster — это онлайн платформа и библиотека для 3D визуализаторов.

В приложении:
⭐️ 100 000+ моделей от фабрик
⭐️ 8 000+ настроенных материалов для Corona render
⭐️ Умные фильтры и коллекции — находит нужное за секунды
⭐️ Облачное хранилище для твоих моделей и материалов
⭐️ Десктоп-приложение с мгновенным переносом в 3Ds Max в 1 клик
⭐️ Маркетплейс для продажи и покупки моделей с модерацией авторства

Для наших студентов действуют эксклюзивные условия на использование Хамстера (при регистрации по промокоду из ссылки):
⭐️ В два раза больше пробного доступа
⭐️+5Гб хранилища навсегда
⭐️ Быстрый старт без привязки карты — просто скачал и работаешь

🔗 Скачать 3DHamster. Не забудьте активировать промокод именно при первой регистрации.

Для того, чтобы вы могли получить максимально подробную информацию о плагине из первых рук, мы проведем стрим с сооснователем сервиса, Семёном Красинцевым.
Семён расскажет о плагине, а также наглядно продемонстрирует весь его функционал.

Приглашаем на стрим:
🎦
14 мая, среда
18-00

💜 Во второй части стрима мы вместе с приглашенным гостем разберем работы наших студентов.

Ждем ваши вопросы к стриму под этим постом или задавайте их в прямом эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥10😱5👏31
Друзья!

Cегодня состоится
🔠🔠🔠 с приглашенным гостем Семёном Красинцевым в 18.00 (МСК)

🔊 Стрим будет проходить на ютуб-канале GRIPINSKY TV и в ВК

На стриме Семён:
⭐️Расскажет о плагине 3DHamster
⭐️Наглядно продемонстрирует его функционал
⭐️Ответит на все ваши вопросы
⭐️По традиции, приглашенный гость поучаствует в разборе работ наших студентов.

Ждем ваши вопросы к стриму под этим постом или задавайте их в прямом эфире!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥81👍1
🔺Lens Cap 2: бесплатный аддон для улучшения работы с камерой в Blender🔺

Lens Cap 2 — это обновлённый бесплатный аддон для Blender, разработанный художником по визуальным эффектам Робом Дикинсоном (Decoded). Он значительно расширяет возможности управления камерой в Blender, упрощая анимацию глубины резкости, переключение между камерами и синхронизацию видимости объектов. Совместим с Blender версии 4.3 и выше.

Ключевые функции

Camera Sync

Эта функция синхронизирует видимость объектов в 3D-вьюпорте с их настройками рендера. Это особенно полезно при предварительном просмотре сцен с исчезающими или появляющимися объектами, например, в разрушениях или сложных анимациях, позволяя избежать необходимости полного рендера для проверки эффектов.

DOF Finder

Инструмент для быстрого добавления эффекта глубины резкости. Позволяет установить фокус на 3D-курсор, что делает процесс настройки фокуса интуитивно понятным — достаточно кликнуть в нужной точке вьюпорта. Также поддерживается анимация фокуса с возможностью создания эффектов наподобие фокус-пула.

Active Camera List

Отображает все камеры сцены в одном списке, упрощая переключение между ними и анимацию смены активной камеры. Список автоматически обновляется при добавлении или удалении камер, а также при смене кадров.

Auto Focus (новинка в версии 2)
Новая функция, имитирующая автофокус настоящей камеры. Автоматически наводит фокус на объект в центре кадра, с возможностью регулировки скорости изменения фокуса и записи ключевых кадров для финального рендера.

🌸Установка и загрузка

Аддон распространяется бесплатно через платформу Gumroad. Для загрузки достаточно ввести сумму $0, но вы можете оставить добровольное пожертвование в поддержку разработчика. Установка стандартна для Blender: через меню Edit > Preferences > Add-ons > Install.
Ссылка для скачивания.

Lens Cap 2 — это мощный и удобный инструмент для художников и аниматоров, работающих в Blender. Он значительно упрощает работу с камерами, делая процессы настройки фокуса и управления видимостью объектов более интуитивными и эффективными. Если вы стремитесь оптимизировать свой рабочий процесс в Blender, этот аддон станет отличным дополнением к вашему инструментарию.

А вы уже пробовали Lens Cap 2? Поделитесь своими впечатлениями в комментариях — будет интересно узнать, как вы используете его в своих проектах!
Please open Telegram to view this post
VIEW IN TELEGRAM
14👍2
🔺 Встречайте долгожданный курс Нейросети!

Курс смонтирован и готов к продаже.

До конца мая вы можете купить курс по цене 12 900 RUB.
C 1 июня цена будет 16 900 RUB.

⭐️ На нашем сайте вы можете посмотреть вводный урок по курсу, ознакомиться подробно со структурой уроков и описанием.

Будущее уже наступило: как искусственный интеллект меняет наш мир

Еще вчера искусственный интеллект казался фантастикой, уделом научной элиты и сюжетов голливудских фильмов. Сегодня — он уже рядом. Мы живем в эпоху стремительных перемен, где ИИ становится неотъемлемой частью повседневной жизни, а для многих главным рабочим инструментом.
И всё это произошло не за десятилетия, а за каких-то пару лет.

Сфера образования, бизнеса, искусства, дизайна, программирования — ИИ внедрился повсюду. Он переводит тексты, создает музыку, пишет код, обрабатывает большие массивы данных, консультирует, помогает находить решения, предлагает стратегии развития.

В нашей сфере ИИ — необходимый к изучению мощный инструмент, который позволит 3D художнику существенно оптимизировать многие процессы, связанные с первичным концептингом, постобработкой, вписыванием людей и отдельных деталей, переработкой не фотореалистичных областей и другими моментами. ИИ также необходим и во всех смежных областях - архитектурном концептинге, дизайне, ретуши, рекламе и любых других сферах, связанных с визуалом.

Сегодня важно идти в ногу со временем — не бороться с ИИ и не бояться его, а использовать как инструмент для усиления своих навыков. Это шанс стать в разы продуктивнее и на порядок свободнее в креативе.
На фоне всплеска нейросетей появляются и абсолютно новые профессии. В частности, prompt engineer — это человек, который умеет правильно формулировать запросы, интерпретировать результаты, обучать модели и комбинировать нейросетевые инструменты между собой.

💜 Наш курс позволит вам глубоко освоить одну из наиболее гибких, управляемых и изученных нейросетей - Stable Diffusion. Вы станете высокоуровневым оператором ИИ, а также научитесь адаптировать и использовать нейросети под цели и задачи визуальной сферы.

Stable Diffusion позволяет полностью контролировать весь процесс генерации. В вашем распоряжении окажется целая масса инструментов, с помощью которых вы сможете сначала точечно настроить нейросеть под себя и свои задачи, а затем максимально гибко и контролируемо работать на результат. В этой сети, как скажем при программировании (но гораздо проще), вы будете осознанно получать именно тот результат, который задумали, и сможете легко повторять этот паттерн из раза в раз.

На курсе вас ждёт масса интересной практики, обязательная проверка всех ваших работ педагогом и кураторами в чате, стримы с разбором выпускных работ и многое другое.
Ко всем урокам идут методические материалы, содержащие в себе техническую документацию, а также наглядные визуальные примеры.

👑 Педагог курса

Опытнейший педагог академии, архитектор и талантливый 3D художник Карина Камола, соавтор курсов Визуализация в 3Ds Max (3 level) и Corona Materials, автор курса Marvelous Designer.

Нужна помощь в оформлении рассрочки или остались вопросы? Пишите в отдел продаж.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍31
Media is too big
VIEW IN TELEGRAM
💜 Встреча в Москве!

🗓️ 22 мая
18:00

Друзья!

Рады сообщить вам, что на следующей неделе в Москве состоится очная встреча с Евгением Грипинским, педагогами и админами академии! Нас будет много!

Мы забронировали для вас уютный лофт по адресу: метро Электрозаводская, ул. Малая Семеновская, д. 5с1.

Будем общаться, отдыхать, играть в настолки и делиться новостями (в том числе теми, которые сможем рассказать только лично 😉).

Если не сможете приехать к 18:00, приезжайте позже, мы останемся до позднего вечера и будем очень рады видеть вас всех!

Очень ждём, обязательно приходите!❤️

Также обязательно вступайте в чат встречи, будем держать связь
Please open Telegram to view this post
VIEW IN TELEGRAM
35🔥14👍9🐳1
💻 Mesh Cleaner 2 для Blender: бесплатный инструмент для очистки 3D-моделей💻

Художник по визуальным эффектам Роб Дикинсон (Decoded) выпустил обновлённую версию своего бесплатного аддона для Blender — Mesh Cleaner 2. Этот инструмент предназначен для быстрой и эффективной очистки 3D-моделей от распространённых артефактов, особенно полезен при работе с 3D-сканами, загруженными моделями и подготовке объектов к рендерингу, анимации или 3D-печати.

Основные возможности Mesh Cleaner 2

Mesh Cleaner объединяет ключевые инструменты очистки геометрии Blender в одном удобном интерфейсе, позволяя устранить распространённые проблемы одним кликом. Среди функций:

Удаление дублирующихся вершин

Удаление свободной геометрии

Заполнение отверстий в сетке

Преобразование треугольников в квадраты

Исправление перевёрнутых нормалей

В версии 2.0 добавлены новые функции:

Автоматическое удаление неиспользуемых материалов

Удаление пустых объектов и отмена их родительских связей

Обнаружение перекрывающихся граней для последующего удаления вручную

Теперь аддон доступен как в режиме Object Mode, так и в Edit Mode, что обеспечивает гибкость в использовании.

Установка и совместимость

Mesh Cleaner 2 совместим с Blender версии 4.3 и выше. Установка осуществляется через меню Preferences > Add-ons, где необходимо выбрать файл Mesh_cleaner.py.
Аддон распространяется бесплатно через платформу Gumroad. Для загрузки достаточно ввести сумму $0, но вы можете оставить добровольное пожертвование в поддержку разработчика.
Скачать можно по данной ссылке

Mesh Cleaner 2 — это мощный и удобный инструмент для художников и разработчиков, работающих в Blender. Он значительно упрощает процесс подготовки 3D-моделей, экономя время и усилия.

https://www.youtube.com/watch?v=Oa1uvFQt5mQ&t=84s

▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️▪️

Текст подготовил преподаватель Александр Чехутин

@gripinsky
#gripinsky_статья #gripinsky_soft #gripinsky_blender
Please open Telegram to view this post
VIEW IN TELEGRAM
29👍15
Media is too big
VIEW IN TELEGRAM
💜 Встреча в Москве!

🗓 22 мая
18:00

Друзья!

Напоминаем, что уже завтра в Москве состоится очная встреча с Евгением Грипинским, педагогами и админами академии! Нас будет много!

Мы забронировали для вас уютный лофт по адресу: метро Электрозаводская, ул. Малая Семеновская, д. 5с1, Workshoploft на 7 этаже
(небольшая инструкция как найти лофт: если смотреть на здание, вам нужен правый вход в здание с стеклянной дверью.
Зайдете, немного пройдите вперед и справа будет лестница, пол пролета поднимайтесь и увидите межэтажный лифт, на лифте на 6й этаж и еще пол этажа поднимайтесь пешком и вы на крыше)

Будем общаться, отдыхать, играть в настолки и делиться новостями (в том числе теми, которые сможем рассказать только лично 😉).

Если не сможете приехать к 18:00, приезжайте позже, мы останемся до позднего вечера и будем очень рады видеть вас всех!

Очень ждём, обязательно приходите!❤️

Также обязательно вступайте в чат встречи, будем держать связь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍237😁1🐳1
⭐️Cистемный разбор работ студентов курса GameDev!⭐️

🔥 В эту пятницу 23.05.2025 в 18.00

🔊 Стрим будет проходить на ютуб-канале GRIPINSKY TV и в ВК

Мы приглашаем вас на большой открытый стрим по разбору промежуточных и финальных результатов наших студентов курсов GameDev Lvl 1 и Lvl 2.

⭐️В формате стрима педагог курса Иоанн Дмитриев подробно и системно разберет все работы студентов, ответит на вопросы и покажет максимально наглядно, что можно улучшить и как именно это сделать.
Прямо в исходных файлах студентов в blender 💻

⭐️Нам очень важно, чтобы студенты академии получили от обучения максимум.
Чаты поддержки позволяют эффективно предоставлять обратную связь по работам и отвечать на возникающие вопросы, но все же письменный формат не всегда может закрыть все 100 процентов задач.
И мы решили пойти дальше, а заодно и помочь более широкой аудитории.

Очень ждем всех на стриме, не важно, студент вы или нет, эти знания вам будут очень полезны!
Если у вас есть вопросы/пожелания, пишите в комментариях.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥5
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Встречайте обновление курса Gamedev level2 и пакеты по Gamedev!

В обновление вошли уроки и методические пособия.

Новые уроки:
⭐️GD2_07_01_Layout
⭐️GD2_07_11_Lookdev
⭐️GD2_07_12_Compose
⭐️GD2_08_00_Outro

Методички:
⭐️GD2_07_00_Intro
⭐️GD2_07_01_01_ExportAnimations
⭐️GD2_07_01_Layout
⭐️GD2_07_02_WaterShader
⭐️GD2_07_03_Ocean
⭐️GD2_07_04_Foam
⭐️GD2_07_05_BirdRig
⭐️GD2_07_06_BirdsFlock
⭐️GD2_07_07_Sand
⭐️GD2_07_08_Clouds
⭐️GD2_07_09_Clouds2
⭐️GD2_07_10_Scatter
⭐️GD2_07_11_Lookdev
⭐️GD2_07_12_Compose

💜 Кроме того, мы собрали все курсы по направлению Props -> Environment в пакеты, которые позволят вам сэкономить 20% от стоимости курсов:
⭐️Оба курса Gamedev
⭐️Оба курса Gamedev + Визуализация в Blender + ZBrush с нуля

Если у вас приобретена часть курсов любого из пакетов, вы можете приобрести недостающие до пакета курса с пакетной скидкой. Действует программа беспроцентной рассрочки.

Нужна помощь в оформлении рассрочки или остались вопросы? Пишите в отдел продаж.
Please open Telegram to view this post
VIEW IN TELEGRAM
👏12👍103🤩1