Grace Hopper
3.27K subscribers
1.58K photos
107 videos
91 files
298 links
Канал о Grasshopper и других технологиях для архитектора. Хотите знать больше, поступайте на курс:
https://stepik.org/a/51851/pay?promo=db96a145dda337d3

а еще есть курс по Revit:
https://stepik.org/a/738/pay?promo=f98b7cffa17ec185
Download Telegram
Всем привет, настало время объявить даты и расписание первого в этом году воркшопа. Тема AI в архитектуре, конкретно мы будем разбираться только с ComfyUI, как можно использовать эту программу для работы над архитектурными концепциями, то есть прям рабочие процессы по созданию рендеров будем рассматривать, а не просто софт изучим. В этот раз обойдемся без Midjourney, с ним, я думаю, уже все способны разобраться самостоятельно. Ну и тем более мы не будем касаться всего, что построено на SD или Flux, типа LookX или Veras, так как все это бессмысленно, если вы знаете ComfyUI, он просто сильно лучше и бесплатный.

Тем более, в ComfyUI много нового появилось и не хочется тратить время на что-то еще. Работать будем не только с изображениями, но и с видео. Почти полностью откажемся от SD 1.5 и SD 2.1 (эти модели устарели), фокус будет на SDXL, SD 3.5 и Flux. Сразу начнем со сложного: первые занятия будут про тренировку LORA моделей, чтобы мы потом везде могли их использовать и получать интересные концепты, а не что-то стандартное.


Основная Информация:

1. Самое главное - расписание, начнём 1 февраля, в этот день будет открытая онлайн лекция, доступная всем бесплатно, ссылку скину в пятницу наверное. Запись тоже будет. Ну а занятия непосредственно воркшопа стартуют 9 февраля, закончим аж 23 марта.
Вот тут полное расписание:
https://docs.google.com/spreadsheets/d/1hIe0g7YyX2lX-05ODfzVlADK_9XLzp3BdZvDjXa8frU/edit?usp=sharing

2. Второе самое главное - цены. Воркшоп будет стоить 200 eu (21 000 руб.). Для тех, кто проходил воркшоп в прошлом мае и хочет повторить, будет скидка в 50%. Оплата мне напрямую по номеру телефона (если вы в РФ) или по IBAN. Для того чтобы сделать перевод, надо будет написать мне ( @aliksumin ) личное сообщение, я скину данные для оплаты и добавлю вас в специальный чат воркшопа в telegram. Если нужен будет чек или invoice для компании, всё это можно сделать.

3. Каждое занятие будет длиться 1.5 часа (но, кто уже у меня был на курсах, знают, что в реальности может быть несколько дольше, в общем, как пойдёт), и обязательно будут записи, которые останутся у вас навсегда.

4. На втором занятии мы будем работать с Google Colab, и если вы захотите тренировать модели для Flux, то вам понадобится платная подписка Colab Pro, стоит 11 евро, но, как водится, карта для оплаты нужна не из РФ, тут детали:
https://colab.research.google.com/signup
Это не строго обязательно, вы можете делать то же самое и на своем компьютере, но только если у вас NVIDIA 4090 или лучше. Также можно вообще не тренировать ничего для Flux, а использовать мои модели, которыми я поделюсь, и использовать SDXL, который менее требователен к ресурсам компьютера.

5. Основной наш инструмент для воркшопа - это ComfyUI, вам придется разобраться с его установкой, там теперь сильно проще, чем год назад, и вроде даже на MacOS работает без танцев (но я все же рекомендую Windows, так как если у вас будут проблемы на маке, то ничем помочь не смогу, а с Windows есть шанс, что я уже со всем тем, что у вас случится, сталкивался). Вот тут моя инструкция, как все установить, и системные требования.
Также надо будет установить Kohya, вот инструкция и на этот счёт.
И еще нам нужен будет Photoshop (любая версия).

6. Если у вас нет вариантов, как установить ComfyUI (компьютер слишком старый), но записаться на воркшоп всё равно есть желание, то так тоже можно.

7. Воркшоп в этом году на русском языке повторяться точно не будет, на английском может быть, но не факт.

#ai #education #comfyui #stablediffusion
Файлы, в картинки зашито workflow, так что можно их использовать в #comfyui #ghsample
новый (для меня, естественно, в целом-то наверняка кто-то раньше до этого дошёл) метод, который я пробую на воркшопе: натренировать модель на чём-то совсем не архитектурном, а потом смешивать с архитектурой. подобное мы делали тут с #midjourney пару лет назад, если помните, но там это на уровне текстовых prompt-ов решалось, модели в midjourney создавать нельзя. вижу по тестам, которые участники присылают, что кого-то заинтересовал этот подход.

в качестве примера на первом занятии я тренировал LoRA модель на природных ландшафтах. цель была в том, чтобы получить в итоговых рендерах здания, вписанные в такие ландшафты.

предыдущий пост показывает ранние эксперименты, а на этой неделе еще немного с параметрами в workflow поигрался, на прикрепленных изображениях то, что получилось.

что именно смешал, расскажу в воскресенье на уроке, все промпты и параметры будут доступны участникам в материалах курса. само же workflow простейшее, мы его на вебинаре смотрели, и доступно вообще всем тремя сообщениями выше. #comfyui #education
вторая неделя воркшопа завершилась, а вместе с ней и занятия по тренировки собственных LoRA моделей. это тот навык, который нам нужен будет на протяжении всего воркшопа, поэтому и начали с этой сложной темы. впереди еще целый месяц.

кстати, у нас теперь два преподавателя, не только я, но и Artem Svetozarov, вчера он много полезного рассказал про Google Colab и как через него запустить #comfyui и kohya если собственный компьютер не тянет или просто не хочется его загружать длительной работой.
Media is too big
VIEW IN TELEGRAM
сегодня на воркшопе по #comfyui наконец-то доберемся до ControlNet - это именно та штука, которая позволяет делать AI рендеры, но и не только, вот тут собрал презентацию, в которой показаны разные варианты использования ControlNet
Media is too big
VIEW IN TELEGRAM
Завершился воркшоп по #comfyui , он получился практически полностью другим в сравнении с прошлым годом, а через год (раньше точно нет) опять выйдет много нового и появится смысл собраться еще раз.

Я почти ничего не писал сюда за эти полтора месяца, так как подготовка к занятиям занимает почти всё свободное время (еще одна причина, почему не так часто могу себе позволить проводить такие воркшопы), с AI не получается, как со всеми другими темами, подготовить материал заранее, новые модели выходят на неделе между уроками, и то, что ты собирался рассказывать, уже не актуально. Поэтому выбрал для себя тактику сценариста сериалов, типа напишем первый сезон, и посмотрим, куда нас дальше понесет течением. По ощущениям - это неплохо сработало.

Думаю, в ближайшие дни контента будет больше, тем более, есть, что рассказать и про воркшоп. Кстати, если хотите присоединиться к нему в формате просмотра записей, то это можно сделать, условия те же.

А пока свежее видео с последнего занятия.
Хотел сегодня опубликовать новую LoRA модель и workflow к ней, но не успел, так что пока затравочка (на неделе всё будет). Идея в том, чтобы делать зимние рендеры из летних. Абсолютно идеально не получается, всё-таки это AI, поэтому немного Photoshop сверху, чтобы сохранить важные детали зданий.

На воркшопе по #comfyui показывал, что именно надо делать в Photoshop для этого, но опытный пользователь и без меня разберется, там всего лишь необходимо стереть лишнее с AI картинки и подогнать по цветам и яркости результат.
This media is not supported in your browser
VIEW IN TELEGRAM
Опубликовал модель, качать тут:
https://civitai.com/models/1401415
, а здесь пример workflow:
https://civitai.com/models/1401477
#comfyui
Наконец добрался до того, чтобы протестировать новые функции ChatGPT по работе с изображениями (если вы проспали последнюю неделю, то там теперь можно словами редактировать и создавать практически любые картинки), и выглядит всё это очень круто. Но давайте копать глубже, и смотреть, какие есть недостатки. Сравнивать буду с #comfyui на двух примерах:
1. Зимний рендер
2. Заполнение пустого интерьера мебелью
This media is not supported in your browser
VIEW IN TELEGRAM
в #comfyui пропорции интерьера и его оригинальные детали, понятное дело, на месте. Но тут уже по скорости преимущества нет, так как вставлять предметы надо по очереди, а не разом как в ChatGPT, и каждый раз ждать рендер. Кроме того, такой workflow можно собрать только на Flux, а он не быстрый сам по себе.
Опубликовал новую LoRA модель, скачать можно здесь:
https://civitai.com/models/1427110?modelVersionId=1613085
#comfyui
Media is too big
VIEW IN TELEGRAM
сделал видео на тему того, на каком этапе сейчас находится генерация 3D моделей с помощью #comfyui

ссылка на используемый пакет нодов (там же и примеры workflow):
https://github.com/kijai/ComfyUI-Hunyuan3DWrapper
Media is too big
VIEW IN TELEGRAM
обзор, что можно делать с помощью #comfyui

кстати, всё это и многое другое (обучение LoRA моделей, работа в Google Colab, создание собственных нодов...) мы изучали на воркшопе. если вдруг хотите получить доступ к записям, то условия тут:
https://t.me/gracehoppers/1811

а уже завтра поговорим про предстоящий воркшоп по Rhino.Inside
omni reference - новая функция в #midjourney позволяет точным (или не очень точным в зависимости от силы параметра) образом перенести предмет или персонажа в новую генерацию. кажется так мы сможем получать в отличном качестве ракурсы зданий или вписывать предметы в свой дизайн... это можно было делать в ChatGPT или в #comfyui , но midjourney традиционно выдает очень крутые картинки по умолчанию, так что расширение его функционала всегда радует.
сразу после воркшопа для PA Academy я уехал в Осаку на EXPO, поэтому не успел поделиться результатами, а ведь мы там смогли написать огромный скрипт за эти 4 дня, который собирает рандомную структуру из заданных элементов в Wasp и отправляет результат в #revit, и потом еще за 30 минут в конце сделали несколько рендеров в #comfyui

ровно такую штуку мы на завтрашнем воркшопе делать не будем, но тоже должно получиться интересно. если хотите записаться, то сегодня лучший день для этого, так как завтра я буду слегка занят финальной подготовкой к занятию.
на воркшопе по #comfyui , который закончился еще в марте, у нас был курсовой проект (необязательный) со сроком до 1 июня, и вот потихоньку участники сдают свои работы. частью этого курсового могла быть тренировка собственных моделей. Ekaterina Zakablutskaya выбрала для себя тему зданий из кирпича; вот здесь модель, которую она натренировала для этой задачи:
https://civitai.com/models/1615218?modelVersionId=1827992
#education
сегодня вышли новые модели от Black Forest lab, общее название FLUX.1 Kontext. суть работы там как у Gemini и ChatGPT, то есть эти модели могут понимать как модифицировать изображение просто по текстовой инструкции. в #comfyui всё это доступно через API, то есть запускаться будет не с вашего компьютера. описание тут:
https://blog.comfy.org/p/flux1-kontext-api-node-in-day-1-workflow
поделюсь сегодня изображениями из финального альбома Алены Федоренко с воркшопа по #comfyui .