Всем привет, настало время объявить даты и расписание первого в этом году воркшопа. Тема AI в архитектуре, конкретно мы будем разбираться только с ComfyUI, как можно использовать эту программу для работы над архитектурными концепциями, то есть прям рабочие процессы по созданию рендеров будем рассматривать, а не просто софт изучим. В этот раз обойдемся без Midjourney, с ним, я думаю, уже все способны разобраться самостоятельно. Ну и тем более мы не будем касаться всего, что построено на SD или Flux, типа LookX или Veras, так как все это бессмысленно, если вы знаете ComfyUI, он просто сильно лучше и бесплатный.
Тем более, в ComfyUI много нового появилось и не хочется тратить время на что-то еще. Работать будем не только с изображениями, но и с видео. Почти полностью откажемся от SD 1.5 и SD 2.1 (эти модели устарели), фокус будет на SDXL, SD 3.5 и Flux. Сразу начнем со сложного: первые занятия будут про тренировку LORA моделей, чтобы мы потом везде могли их использовать и получать интересные концепты, а не что-то стандартное.
Основная Информация:
1. Самое главное - расписание, начнём 1 февраля, в этот день будет открытая онлайн лекция, доступная всем бесплатно, ссылку скину в пятницу наверное. Запись тоже будет. Ну а занятия непосредственно воркшопа стартуют 9 февраля, закончим аж 23 марта.
Вот тут полное расписание:
https://docs.google.com/spreadsheets/d/1hIe0g7YyX2lX-05ODfzVlADK_9XLzp3BdZvDjXa8frU/edit?usp=sharing
2. Второе самое главное - цены. Воркшоп будет стоить 200 eu (21 000 руб.). Для тех, кто проходил воркшоп в прошлом мае и хочет повторить, будет скидка в 50%. Оплата мне напрямую по номеру телефона (если вы в РФ) или по IBAN. Для того чтобы сделать перевод, надо будет написать мне ( @aliksumin ) личное сообщение, я скину данные для оплаты и добавлю вас в специальный чат воркшопа в telegram. Если нужен будет чек или invoice для компании, всё это можно сделать.
3. Каждое занятие будет длиться 1.5 часа (но, кто уже у меня был на курсах, знают, что в реальности может быть несколько дольше, в общем, как пойдёт), и обязательно будут записи, которые останутся у вас навсегда.
4. На втором занятии мы будем работать с Google Colab, и если вы захотите тренировать модели для Flux, то вам понадобится платная подписка Colab Pro, стоит 11 евро, но, как водится, карта для оплаты нужна не из РФ, тут детали:
https://colab.research.google.com/signup
Это не строго обязательно, вы можете делать то же самое и на своем компьютере, но только если у вас NVIDIA 4090 или лучше. Также можно вообще не тренировать ничего для Flux, а использовать мои модели, которыми я поделюсь, и использовать SDXL, который менее требователен к ресурсам компьютера.
5. Основной наш инструмент для воркшопа - это ComfyUI, вам придется разобраться с его установкой, там теперь сильно проще, чем год назад, и вроде даже на MacOS работает без танцев (но я все же рекомендую Windows, так как если у вас будут проблемы на маке, то ничем помочь не смогу, а с Windows есть шанс, что я уже со всем тем, что у вас случится, сталкивался). Вот тут моя инструкция, как все установить, и системные требования.
Также надо будет установить Kohya, вот инструкция и на этот счёт.
И еще нам нужен будет Photoshop (любая версия).
6. Если у вас нет вариантов, как установить ComfyUI (компьютер слишком старый), но записаться на воркшоп всё равно есть желание, то так тоже можно.
7. Воркшоп в этом году на русском языке повторяться точно не будет, на английском может быть, но не факт.
#ai #education #comfyui #stablediffusion
Тем более, в ComfyUI много нового появилось и не хочется тратить время на что-то еще. Работать будем не только с изображениями, но и с видео. Почти полностью откажемся от SD 1.5 и SD 2.1 (эти модели устарели), фокус будет на SDXL, SD 3.5 и Flux. Сразу начнем со сложного: первые занятия будут про тренировку LORA моделей, чтобы мы потом везде могли их использовать и получать интересные концепты, а не что-то стандартное.
Основная Информация:
1. Самое главное - расписание, начнём 1 февраля, в этот день будет открытая онлайн лекция, доступная всем бесплатно, ссылку скину в пятницу наверное. Запись тоже будет. Ну а занятия непосредственно воркшопа стартуют 9 февраля, закончим аж 23 марта.
Вот тут полное расписание:
https://docs.google.com/spreadsheets/d/1hIe0g7YyX2lX-05ODfzVlADK_9XLzp3BdZvDjXa8frU/edit?usp=sharing
2. Второе самое главное - цены. Воркшоп будет стоить 200 eu (21 000 руб.). Для тех, кто проходил воркшоп в прошлом мае и хочет повторить, будет скидка в 50%. Оплата мне напрямую по номеру телефона (если вы в РФ) или по IBAN. Для того чтобы сделать перевод, надо будет написать мне ( @aliksumin ) личное сообщение, я скину данные для оплаты и добавлю вас в специальный чат воркшопа в telegram. Если нужен будет чек или invoice для компании, всё это можно сделать.
3. Каждое занятие будет длиться 1.5 часа (но, кто уже у меня был на курсах, знают, что в реальности может быть несколько дольше, в общем, как пойдёт), и обязательно будут записи, которые останутся у вас навсегда.
4. На втором занятии мы будем работать с Google Colab, и если вы захотите тренировать модели для Flux, то вам понадобится платная подписка Colab Pro, стоит 11 евро, но, как водится, карта для оплаты нужна не из РФ, тут детали:
https://colab.research.google.com/signup
Это не строго обязательно, вы можете делать то же самое и на своем компьютере, но только если у вас NVIDIA 4090 или лучше. Также можно вообще не тренировать ничего для Flux, а использовать мои модели, которыми я поделюсь, и использовать SDXL, который менее требователен к ресурсам компьютера.
5. Основной наш инструмент для воркшопа - это ComfyUI, вам придется разобраться с его установкой, там теперь сильно проще, чем год назад, и вроде даже на MacOS работает без танцев (но я все же рекомендую Windows, так как если у вас будут проблемы на маке, то ничем помочь не смогу, а с Windows есть шанс, что я уже со всем тем, что у вас случится, сталкивался). Вот тут моя инструкция, как все установить, и системные требования.
Также надо будет установить Kohya, вот инструкция и на этот счёт.
И еще нам нужен будет Photoshop (любая версия).
6. Если у вас нет вариантов, как установить ComfyUI (компьютер слишком старый), но записаться на воркшоп всё равно есть желание, то так тоже можно.
7. Воркшоп в этом году на русском языке повторяться точно не будет, на английском может быть, но не факт.
#ai #education #comfyui #stablediffusion
Запись сегодняшнего вебинара доступна по той же ссылке:
https://www.youtube.com/live/NuUYBv63-Js
#education #comfyui
https://www.youtube.com/live/NuUYBv63-Js
#education #comfyui
YouTube
AI для архитекторов
00:00:00 Презентация об использовании AI инструментов в архитектурном проектировании
00:52:09 Обучение нейросети для формирования mesh геометрии в Grasshopper+Crow
02:30:00 Text to Image workflow в ComfyUI
Файлы скриптов из этого видео:
https://t.me/gracehoppers/1822…
00:52:09 Обучение нейросети для формирования mesh геометрии в Grasshopper+Crow
02:30:00 Text to Image workflow в ComfyUI
Файлы скриптов из этого видео:
https://t.me/gracehoppers/1822…
новый (для меня, естественно, в целом-то наверняка кто-то раньше до этого дошёл) метод, который я пробую на воркшопе: натренировать модель на чём-то совсем не архитектурном, а потом смешивать с архитектурой. подобное мы делали тут с #midjourney пару лет назад, если помните, но там это на уровне текстовых prompt-ов решалось, модели в midjourney создавать нельзя. вижу по тестам, которые участники присылают, что кого-то заинтересовал этот подход.
в качестве примера на первом занятии я тренировал LoRA модель на природных ландшафтах. цель была в том, чтобы получить в итоговых рендерах здания, вписанные в такие ландшафты.
предыдущий пост показывает ранние эксперименты, а на этой неделе еще немного с параметрами в workflow поигрался, на прикрепленных изображениях то, что получилось.
что именно смешал, расскажу в воскресенье на уроке, все промпты и параметры будут доступны участникам в материалах курса. само же workflow простейшее, мы его на вебинаре смотрели, и доступно вообще всем тремя сообщениями выше. #comfyui #education
в качестве примера на первом занятии я тренировал LoRA модель на природных ландшафтах. цель была в том, чтобы получить в итоговых рендерах здания, вписанные в такие ландшафты.
предыдущий пост показывает ранние эксперименты, а на этой неделе еще немного с параметрами в workflow поигрался, на прикрепленных изображениях то, что получилось.
что именно смешал, расскажу в воскресенье на уроке, все промпты и параметры будут доступны участникам в материалах курса. само же workflow простейшее, мы его на вебинаре смотрели, и доступно вообще всем тремя сообщениями выше. #comfyui #education
вторая неделя воркшопа завершилась, а вместе с ней и занятия по тренировки собственных LoRA моделей. это тот навык, который нам нужен будет на протяжении всего воркшопа, поэтому и начали с этой сложной темы. впереди еще целый месяц.
кстати, у нас теперь два преподавателя, не только я, но и Artem Svetozarov, вчера он много полезного рассказал про Google Colab и как через него запустить #comfyui и kohya если собственный компьютер не тянет или просто не хочется его загружать длительной работой.
кстати, у нас теперь два преподавателя, не только я, но и Artem Svetozarov, вчера он много полезного рассказал про Google Colab и как через него запустить #comfyui и kohya если собственный компьютер не тянет или просто не хочется его загружать длительной работой.
Media is too big
VIEW IN TELEGRAM
сегодня на воркшопе по #comfyui наконец-то доберемся до ControlNet - это именно та штука, которая позволяет делать AI рендеры, но и не только, вот тут собрал презентацию, в которой показаны разные варианты использования ControlNet
Media is too big
VIEW IN TELEGRAM
Завершился воркшоп по #comfyui , он получился практически полностью другим в сравнении с прошлым годом, а через год (раньше точно нет) опять выйдет много нового и появится смысл собраться еще раз.
Я почти ничего не писал сюда за эти полтора месяца, так как подготовка к занятиям занимает почти всё свободное время (еще одна причина, почему не так часто могу себе позволить проводить такие воркшопы), с AI не получается, как со всеми другими темами, подготовить материал заранее, новые модели выходят на неделе между уроками, и то, что ты собирался рассказывать, уже не актуально. Поэтому выбрал для себя тактику сценариста сериалов, типа напишем первый сезон, и посмотрим, куда нас дальше понесет течением. По ощущениям - это неплохо сработало.
Думаю, в ближайшие дни контента будет больше, тем более, есть, что рассказать и про воркшоп. Кстати, если хотите присоединиться к нему в формате просмотра записей, то это можно сделать, условия те же.
А пока свежее видео с последнего занятия.
Я почти ничего не писал сюда за эти полтора месяца, так как подготовка к занятиям занимает почти всё свободное время (еще одна причина, почему не так часто могу себе позволить проводить такие воркшопы), с AI не получается, как со всеми другими темами, подготовить материал заранее, новые модели выходят на неделе между уроками, и то, что ты собирался рассказывать, уже не актуально. Поэтому выбрал для себя тактику сценариста сериалов, типа напишем первый сезон, и посмотрим, куда нас дальше понесет течением. По ощущениям - это неплохо сработало.
Думаю, в ближайшие дни контента будет больше, тем более, есть, что рассказать и про воркшоп. Кстати, если хотите присоединиться к нему в формате просмотра записей, то это можно сделать, условия те же.
А пока свежее видео с последнего занятия.
Хотел сегодня опубликовать новую LoRA модель и workflow к ней, но не успел, так что пока затравочка (на неделе всё будет). Идея в том, чтобы делать зимние рендеры из летних. Абсолютно идеально не получается, всё-таки это AI, поэтому немного Photoshop сверху, чтобы сохранить важные детали зданий.
На воркшопе по #comfyui показывал, что именно надо делать в Photoshop для этого, но опытный пользователь и без меня разберется, там всего лишь необходимо стереть лишнее с AI картинки и подогнать по цветам и яркости результат.
На воркшопе по #comfyui показывал, что именно надо делать в Photoshop для этого, но опытный пользователь и без меня разберется, там всего лишь необходимо стереть лишнее с AI картинки и подогнать по цветам и яркости результат.
This media is not supported in your browser
VIEW IN TELEGRAM
Опубликовал модель, качать тут:
https://civitai.com/models/1401415
, а здесь пример workflow:
https://civitai.com/models/1401477
#comfyui
https://civitai.com/models/1401415
, а здесь пример workflow:
https://civitai.com/models/1401477
#comfyui
Наконец добрался до того, чтобы протестировать новые функции ChatGPT по работе с изображениями (если вы проспали последнюю неделю, то там теперь можно словами редактировать и создавать практически любые картинки), и выглядит всё это очень круто. Но давайте копать глубже, и смотреть, какие есть недостатки. Сравнивать буду с #comfyui на двух примерах:
1. Зимний рендер
2. Заполнение пустого интерьера мебелью
1. Зимний рендер
2. Заполнение пустого интерьера мебелью
This media is not supported in your browser
VIEW IN TELEGRAM
в #comfyui пропорции интерьера и его оригинальные детали, понятное дело, на месте. Но тут уже по скорости преимущества нет, так как вставлять предметы надо по очереди, а не разом как в ChatGPT, и каждый раз ждать рендер. Кроме того, такой workflow можно собрать только на Flux, а он не быстрый сам по себе.
Опубликовал новую LoRA модель, скачать можно здесь:
https://civitai.com/models/1427110?modelVersionId=1613085
#comfyui
https://civitai.com/models/1427110?modelVersionId=1613085
#comfyui
Media is too big
VIEW IN TELEGRAM
сделал видео на тему того, на каком этапе сейчас находится генерация 3D моделей с помощью #comfyui
ссылка на используемый пакет нодов (там же и примеры workflow):
https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
ссылка на используемый пакет нодов (там же и примеры workflow):
https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Media is too big
VIEW IN TELEGRAM
обзор, что можно делать с помощью #comfyui
кстати, всё это и многое другое (обучение LoRA моделей, работа в Google Colab, создание собственных нодов...) мы изучали на воркшопе. если вдруг хотите получить доступ к записям, то условия тут:
https://t.me/gracehoppers/1811
а уже завтра поговорим про предстоящий воркшоп по Rhino.Inside
кстати, всё это и многое другое (обучение LoRA моделей, работа в Google Colab, создание собственных нодов...) мы изучали на воркшопе. если вдруг хотите получить доступ к записям, то условия тут:
https://t.me/gracehoppers/1811
а уже завтра поговорим про предстоящий воркшоп по Rhino.Inside
omni reference - новая функция в #midjourney позволяет точным (или не очень точным в зависимости от силы параметра) образом перенести предмет или персонажа в новую генерацию. кажется так мы сможем получать в отличном качестве ракурсы зданий или вписывать предметы в свой дизайн... это можно было делать в ChatGPT или в #comfyui , но midjourney традиционно выдает очень крутые картинки по умолчанию, так что расширение его функционала всегда радует.
сразу после воркшопа для PA Academy я уехал в Осаку на EXPO, поэтому не успел поделиться результатами, а ведь мы там смогли написать огромный скрипт за эти 4 дня, который собирает рандомную структуру из заданных элементов в Wasp и отправляет результат в #revit, и потом еще за 30 минут в конце сделали несколько рендеров в #comfyui
ровно такую штуку мы на завтрашнем воркшопе делать не будем, но тоже должно получиться интересно. если хотите записаться, то сегодня лучший день для этого, так как завтра я буду слегка занят финальной подготовкой к занятию.
ровно такую штуку мы на завтрашнем воркшопе делать не будем, но тоже должно получиться интересно. если хотите записаться, то сегодня лучший день для этого, так как завтра я буду слегка занят финальной подготовкой к занятию.
на воркшопе по #comfyui , который закончился еще в марте, у нас был курсовой проект (необязательный) со сроком до 1 июня, и вот потихоньку участники сдают свои работы. частью этого курсового могла быть тренировка собственных моделей. Ekaterina Zakablutskaya выбрала для себя тему зданий из кирпича; вот здесь модель, которую она натренировала для этой задачи:
https://civitai.com/models/1615218?modelVersionId=1827992
#education
https://civitai.com/models/1615218?modelVersionId=1827992
#education
сегодня вышли новые модели от Black Forest lab, общее название FLUX.1 Kontext. суть работы там как у Gemini и ChatGPT, то есть эти модели могут понимать как модифицировать изображение просто по текстовой инструкции. в #comfyui всё это доступно через API, то есть запускаться будет не с вашего компьютера. описание тут:
https://blog.comfy.org/p/flux1-kontext-api-node-in-day-1-workflow
https://blog.comfy.org/p/flux1-kontext-api-node-in-day-1-workflow
blog.comfy.org
GPT Killer: FLUX.1 Kontext API Node Day-0 Support
Open Source coming soon!
поделюсь сегодня изображениями из финального альбома Алены Федоренко с воркшопа по #comfyui .
#comfyui сегодня ночью планируют трансляцию про Flux.1 Kontext:
https://www.youtube.com/watch?v=v04emWRjNHU&ab_channel=ComfyOrg
https://www.youtube.com/watch?v=v04emWRjNHU&ab_channel=ComfyOrg
YouTube
FLUX.1 Kontext / June 3rd, 2025
A weekly roundup of ComfyUI news, community events, models, workflows, and interviews with artists and developers.
Today we're going to dive into FLUX.1 Kontext and use the API nodes to explore the potential of this model.
Host: @PurzBeats
Official…
Today we're going to dive into FLUX.1 Kontext and use the API nodes to explore the potential of this model.
Host: @PurzBeats
Official…