Media is too big
VIEW IN TELEGRAM
С наступающим Новым 2025 годом 🍾🥂🥳
This media is not supported in your browser
VIEW IN TELEGRAM
model: Flux
video: Ltx img2vid
prompt: a glass ball with a small Christmas scene inside. In the center of the ball is a cozy snow hut with warm glowing windows, surrounded by three illuminated pine trees. The hut is covered in snow, and small golden ornaments hang on the roof. Snowflakes are falling inside the glass ball, and a cozy light comes from the house. The glass ball on a small carved wooden base lies on a wooden table, next to it are Christmas ornaments. The background is blurred. Highly detailed art.
video: Ltx img2vid
prompt: a glass ball with a small Christmas scene inside. In the center of the ball is a cozy snow hut with warm glowing windows, surrounded by three illuminated pine trees. The hut is covered in snow, and small golden ornaments hang on the roof. Snowflakes are falling inside the glass ball, and a cozy light comes from the house. The glass ball on a small carved wooden base lies on a wooden table, next to it are Christmas ornaments. The background is blurred. Highly detailed art.
ControlNet Flux Tools — это мощные модули, которые расширяют функционал нейросетей для генерации изображений, предоставляя пользователю точный контроль над визуальными характеристиками.
✅ Flux Canny - помогает задавать контуры объектов, чтобы лучше контролировать композицию изображения.
✅ Flux Depth - добавляет глубину сцены, улучшая перспективу и реализм.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👁 Смотреть на YOUTUBE
👁 Смотреть на RUTUBE
📝 Controlnet Flux tools (canny и depth) - это хорошо работающие контрольные сети для генерации на основе контуров и карты глубины для модели flux. Ранее выходили controlnet от xlabs и универсальная union модель, но работали они не так качественно как controlnet tools.
🔥 Курс по "AUTOMATIC 1111" с моей поддержкой на сайте
🔥 Курс по "ComfyUI" с моей поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
model: Flux
video: ComfyUI
prompt: a massive spider climbing up the glass facade of a modern skyscraper in a bustling city. The spider is enormous, with intricate details on its hairy legs and a shiny, armored body. The skyscraper reflects the surrounding cityscape, including other towering buildings and a cloudy sky with hints of sunlight. The perspective emphasizes the height of the building as the spider moves upward, its legs gripping the glass. Below, tiny people on the street stop and look up in awe and fear. The atmosphere is dramatic, with cinematic lighting and a slight haze to enhance the scale and tension.
video: ComfyUI
prompt: a massive spider climbing up the glass facade of a modern skyscraper in a bustling city. The spider is enormous, with intricate details on its hairy legs and a shiny, armored body. The skyscraper reflects the surrounding cityscape, including other towering buildings and a cloudy sky with hints of sunlight. The perspective emphasizes the height of the building as the spider moves upward, its legs gripping the glass. Below, tiny people on the street stop and look up in awe and fear. The atmosphere is dramatic, with cinematic lighting and a slight haze to enhance the scale and tension.
TeaCache УСКОРИТЕЛЬ ГЕНЕРАЦИЙ
📗 TeaCache (Timestep Embedding Aware Cache) — это метод кэширования, не требующий обучения, предназначенный для ускорения вывода диффузионных моделей, таких как модели для обработки изображений, видео и аудио. Он оценивает и использует изменения в выходных данных модели на разных временных шагах, что позволяет повысить эффективность работы.
📘 Основные особенности TeaCache:
Интеграция с ComfyUI: TeaCache полностью совместим с ComfyUI и может быть легко подключен к его стандартным узлам.
📙 Поддержка FLUX:
TeaCache обеспечивает ускорение работы с FLUX, достигая 1,4-кратного ускорения без потери качества и 2-кратного ускорения с минимальными визуальными изменениями. Также поддерживаются FLUX LoRA и FLUX ControlNet.
🪇 Установка:
1. Перейдите в папку ComfyUI/custom_nodes/.
2. Выполните команду:
git clone https://github.com/welltop-cn/ComfyUI-TeaCache.git
🪠 Использование:
Пример рабочего процесса доступен в файле
customer_nodes/comfyui-teacache/examples/teacache_example.json.
💡 Для получения дополнительной информации посетите репозиторий проекта на GitHub: ССЫЛКА
#comfyui
📗 TeaCache (Timestep Embedding Aware Cache) — это метод кэширования, не требующий обучения, предназначенный для ускорения вывода диффузионных моделей, таких как модели для обработки изображений, видео и аудио. Он оценивает и использует изменения в выходных данных модели на разных временных шагах, что позволяет повысить эффективность работы.
📘 Основные особенности TeaCache:
Интеграция с ComfyUI: TeaCache полностью совместим с ComfyUI и может быть легко подключен к его стандартным узлам.
📙 Поддержка FLUX:
TeaCache обеспечивает ускорение работы с FLUX, достигая 1,4-кратного ускорения без потери качества и 2-кратного ускорения с минимальными визуальными изменениями. Также поддерживаются FLUX LoRA и FLUX ControlNet.
🪇 Установка:
1. Перейдите в папку ComfyUI/custom_nodes/.
2. Выполните команду:
git clone https://github.com/welltop-cn/ComfyUI-TeaCache.git
🪠 Использование:
Пример рабочего процесса доступен в файле
customer_nodes/comfyui-teacache/examples/teacache_example.json.
💡 Для получения дополнительной информации посетите репозиторий проекта на GitHub: ССЫЛКА
#comfyui
💥 Разработчики модели Qwen запустили веб-чат, доступный через регистрацию по email.
💥 Qwen2.5 — это передовая серия крупных языковых моделей, разработанных компанией Alibaba Cloud.
🔥 Полный функционал доступен бесплатно!
📝 Основные модели:
✅ Qwen2.5-Plus: Универсальная мощная модель для любых задач.
✅ Qwen2.5-Turbo: Модель с поддержкой длинного контекста до 1 миллиона токенов.
📝 Основные особенности:
✔️ Масштабное обучение: Модели обучены на 18 триллионах токенов, что позволяет лучше понимать и генерировать текст.
✔️ Длительный контекст: Способность обрабатывать до 128 000 токенов для работы с большими объемами данных
✔️ Многоязычность: Поддержка 29 языков, включая китайский, английский, русский и другие
✔️ Специализация: Версии для программирования (Qwen2.5-Coder) и решения математических задач (Qwen2.5-Math)
✔️ Открытый исходный код
✔️ В будущем планируются функции генерации изображений, поиска в интернете и голосового режима.
📎 Попробовать чат можно тут: http://chat.qwenlm.ai/
💥 Qwen2.5 — это передовая серия крупных языковых моделей, разработанных компанией Alibaba Cloud.
🔥 Полный функционал доступен бесплатно!
📝 Основные модели:
✅ Qwen2.5-Plus: Универсальная мощная модель для любых задач.
✅ Qwen2.5-Turbo: Модель с поддержкой длинного контекста до 1 миллиона токенов.
📝 Основные особенности:
✔️ Масштабное обучение: Модели обучены на 18 триллионах токенов, что позволяет лучше понимать и генерировать текст.
✔️ Длительный контекст: Способность обрабатывать до 128 000 токенов для работы с большими объемами данных
✔️ Многоязычность: Поддержка 29 языков, включая китайский, английский, русский и другие
✔️ Специализация: Версии для программирования (Qwen2.5-Coder) и решения математических задач (Qwen2.5-Math)
✔️ Открытый исходный код
✔️ В будущем планируются функции генерации изображений, поиска в интернете и голосового режима.
📎 Попробовать чат можно тут: http://chat.qwenlm.ai/
Media is too big
VIEW IN TELEGRAM
🎬 LTX VIDEO STG & SUPIR VIDEO UPSCALE
💥 Видео генерации на своём ПК
🎦 СМОТРЕТЬ НА YOUTUBE
🎦 СМОТРЕТЬ НА RUTUBE
✅ Сегодня вы познакомитесь с лучшей на данный момент схемой LTX Video с поддержкой STG.
✅ Схемой апскейла видео на базе быстрой схемы Supir.
⏱ Вы сможете генерировать 3, 5 и 10 секундные видео.
📌На RTX 4090: 10 сек видео генерируется за 2,5 мин, 5 сек в два раза быстрее.
📌На RTX 3060 12Гб схема генерирует 5 и 10 секундные видео но в 3 раза дольше.
🔥 Курс по "AUTOMATIC 1111" с моей поддержкой на сайте
🔥 Курс по "ComfyUI" с моей поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
Делитесь в комментариях, что у вас получилось 🎥🔥
💥 Видео генерации на своём ПК
🎦 СМОТРЕТЬ НА YOUTUBE
🎦 СМОТРЕТЬ НА RUTUBE
✅ Сегодня вы познакомитесь с лучшей на данный момент схемой LTX Video с поддержкой STG.
✅ Схемой апскейла видео на базе быстрой схемы Supir.
⏱ Вы сможете генерировать 3, 5 и 10 секундные видео.
📌На RTX 4090: 10 сек видео генерируется за 2,5 мин, 5 сек в два раза быстрее.
📌На RTX 3060 12Гб схема генерирует 5 и 10 секундные видео но в 3 раза дольше.
🔥 Курс по "AUTOMATIC 1111" с моей поддержкой на сайте
🔥 Курс по "ComfyUI" с моей поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
Делитесь в комментариях, что у вас получилось 🎥🔥
🚀 Ускоряем FLUX и SDXL | TRITON | Windows | WaveSpeed
🎦 СМОТРЕТЬ НА YOUTUBE
🎦 СМОТРЕТЬ НА RUTUBE
✅ Сегодня вы узнаете как можно ускорить генерации на Flux и SDXL в 1,5 - 2,5 раза и при этом не потерять в качестве.
💥 Для Flux мы установим Triton и WaveSpeed.
💥 Для SDXL будем использовать только WaveSpeed.
✅ Triton под windows позволяет поднять скорость на 30% без потерь качества.
✅ WaveSpeed при 30-50% увеличении скорости с определёнными настройками Sampler тоже не вызывает существенного понижения качества генераций.
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
🎦 СМОТРЕТЬ НА YOUTUBE
🎦 СМОТРЕТЬ НА RUTUBE
✅ Сегодня вы узнаете как можно ускорить генерации на Flux и SDXL в 1,5 - 2,5 раза и при этом не потерять в качестве.
💥 Для Flux мы установим Triton и WaveSpeed.
💥 Для SDXL будем использовать только WaveSpeed.
✅ Triton под windows позволяет поднять скорость на 30% без потерь качества.
✅ WaveSpeed при 30-50% увеличении скорости с определёнными настройками Sampler тоже не вызывает существенного понижения качества генераций.
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
🧩 Flux Dragon Scale - решение ошибки
Если кто-то пользуется моим апскейлером Flux Dragon Scale и у вас выскакивает ошибка как на скриншоте (приложены в комментариях), то в manager выберите версию узлов TTS Nightly как на скриншоте и этой проблемы не будет.
Кнопка Switch Ver. и выбрать версию nightly.
ССЫЛКА НА АПСКЕЙЛЕР
Если кто-то пользуется моим апскейлером Flux Dragon Scale и у вас выскакивает ошибка как на скриншоте (приложены в комментариях), то в manager выберите версию узлов TTS Nightly как на скриншоте и этой проблемы не будет.
Кнопка Switch Ver. и выбрать версию nightly.
ССЫЛКА НА АПСКЕЙЛЕР
boosty.to
Upscaler Flux Dragon Scale | Custom Tile - OreX
Posted on Dec 23 2024
🚀 Встречайте DeepSeek R1: новая звезда в мире ИИ! 🌟
Китайская компания DeepSeek выпустила модель, которая уже вызвала настоящий фурор в индустрии искусственного интеллекта. DeepSeek R1 — это не просто очередная языковая модель, а настоящий прорыв в области логического мышления, математики и программирования.
💡 DeepSeek R1 — это модель Mixture of Experts (MoE), обученная с использованием парадигмы отражения на базе модели Deepseek-V3. Она сочетает в себе огромный потенциал и высокую эффективность благодаря инновационным методам дистилляции.
📊 Модель доступна в нескольких размерах:
От 1,5 млрд до 70 млрд параметров .
Самая маленькая версия может работать даже на устройствах с ограниченными ресурсами!
⚡️ Исследователи из Unsloth смогли оптимизировать её размер, сократив его на 80% — с 720 ГБ до 131 ГБ, сохранив при этом высокую производительность.
🏆 DeepSeek R1 уже сравнивают с такими гигантами, как:
Llama от Meta
o1 от OpenAI
По некоторым тестам, особенно в решении сложных логических и математических задач, DeepSeek R1 превосходит своих конкурентов. Более того, она полностью открытая (MIT-лицензия) и доступна для бесплатного использования без необходимости VPN.
🎙️ Комментарий руководителя Meta
"DeepSeek's R1 может превзойти ИИ Llama от Meta" — заявил директор инфраструктуры ИИ в Meta, Мэттью Олдхэм. Он также отметил, что новая модель DeepSeek может превзойти даже следующую версию их продукта .
🎙️ Комментарий разработчика DeepSeek R1
"Мы создали R1 за 5,6 млн долларов, и это был настоящий 'прорыв' для нас. Мы хотели показать миру, что китайские технологии могут не только догонять, но и обогнать западные решения," — написал один из ключевых разработчиков в соцсети X.
🌟 DeepSeek R1 — это не просто модель, это новый уровень возможностей для разработчиков, исследователей и энтузиастов ИИ 🚀
🔹 Google play
🔹 Web ресурс
🔹 Получить API
🔹 LLM Studio для ПК
все ресурсы бесплатные и без vpn
Китайская компания DeepSeek выпустила модель, которая уже вызвала настоящий фурор в индустрии искусственного интеллекта. DeepSeek R1 — это не просто очередная языковая модель, а настоящий прорыв в области логического мышления, математики и программирования.
💡 DeepSeek R1 — это модель Mixture of Experts (MoE), обученная с использованием парадигмы отражения на базе модели Deepseek-V3. Она сочетает в себе огромный потенциал и высокую эффективность благодаря инновационным методам дистилляции.
📊 Модель доступна в нескольких размерах:
От 1,5 млрд до 70 млрд параметров .
Самая маленькая версия может работать даже на устройствах с ограниченными ресурсами!
⚡️ Исследователи из Unsloth смогли оптимизировать её размер, сократив его на 80% — с 720 ГБ до 131 ГБ, сохранив при этом высокую производительность.
🏆 DeepSeek R1 уже сравнивают с такими гигантами, как:
Llama от Meta
o1 от OpenAI
По некоторым тестам, особенно в решении сложных логических и математических задач, DeepSeek R1 превосходит своих конкурентов. Более того, она полностью открытая (MIT-лицензия) и доступна для бесплатного использования без необходимости VPN.
🎙️ Комментарий руководителя Meta
"DeepSeek's R1 может превзойти ИИ Llama от Meta" — заявил директор инфраструктуры ИИ в Meta, Мэттью Олдхэм. Он также отметил, что новая модель DeepSeek может превзойти даже следующую версию их продукта .
🎙️ Комментарий разработчика DeepSeek R1
"Мы создали R1 за 5,6 млн долларов, и это был настоящий 'прорыв' для нас. Мы хотели показать миру, что китайские технологии могут не только догонять, но и обогнать западные решения," — написал один из ключевых разработчиков в соцсети X.
🌟 DeepSeek R1 — это не просто модель, это новый уровень возможностей для разработчиков, исследователей и энтузиастов ИИ 🚀
🔹 Google play
🔹 Web ресурс
🔹 Получить API
🔹 LLM Studio для ПК
все ресурсы бесплатные и без vpn
🔥 PyTorch 2.6: Что нового?
Встречайте свежий релиз PyTorch 2.6! 🚀 Эта версия приносит множество улучшений, которые делают работу с фреймворком ещё удобнее и эффективнее. Давайте разберём основные нововведения!
🌟 Основные улучшения:
Поддержка Python 3.13 для torch.compile
Теперь вы можете использовать torch.compile с Python 3.13, что открывает новые возможности для оптимизации вашего кода. Это особенно полезно для работы с большими моделями и сложными вычислениями.
Улучшения AOTInductor
AOTInductor (Ahead-of-Time компилятор) получил несколько значительных обновлений. Эти изменения позволяют ещё больше ускорить выполнение моделей на CPU и GPU 💻.
Поддержка FP16 на X86 CPU
В PyTorch 2.6 добавлена поддержка FP16 (полуточности) для процессоров с архитектурой X86. Это означает, что теперь можно добиться более высокой производительности даже на CPU! ⚡️
Расширение возможностей torch.fx
Библиотека torch.fx получила обновления, которые позволяют более гибко работать с графами вычислений. Если вы вносите изменения в граф, не забудьте вызвать метод recompile() для обновления кода 🔄
Новые возможности для работы с моделями
Обновлены инструменты для загрузки и сохранения моделей через torch.load(). Теперь работа с тензорами стала ещё удобнее благодаря улучшенной обработке хранилищ данных 📂
🔗 Подробнее: PyTorch Blog
#PyTorch #DeepLearning #AI #MachineLearning
Встречайте свежий релиз PyTorch 2.6! 🚀 Эта версия приносит множество улучшений, которые делают работу с фреймворком ещё удобнее и эффективнее. Давайте разберём основные нововведения!
🌟 Основные улучшения:
Поддержка Python 3.13 для torch.compile
Теперь вы можете использовать torch.compile с Python 3.13, что открывает новые возможности для оптимизации вашего кода. Это особенно полезно для работы с большими моделями и сложными вычислениями.
Улучшения AOTInductor
AOTInductor (Ahead-of-Time компилятор) получил несколько значительных обновлений. Эти изменения позволяют ещё больше ускорить выполнение моделей на CPU и GPU 💻.
Поддержка FP16 на X86 CPU
В PyTorch 2.6 добавлена поддержка FP16 (полуточности) для процессоров с архитектурой X86. Это означает, что теперь можно добиться более высокой производительности даже на CPU! ⚡️
Расширение возможностей torch.fx
Библиотека torch.fx получила обновления, которые позволяют более гибко работать с графами вычислений. Если вы вносите изменения в граф, не забудьте вызвать метод recompile() для обновления кода 🔄
Новые возможности для работы с моделями
Обновлены инструменты для загрузки и сохранения моделей через torch.load(). Теперь работа с тензорами стала ещё удобнее благодаря улучшенной обработке хранилищ данных 📂
🔗 Подробнее: PyTorch Blog
#PyTorch #DeepLearning #AI #MachineLearning
🔥 SUPIR Mask Tile TTP | Быстрее в 2 раза
👁 Смотреть на YouTube
👁 Смотреть на RuTube
🚀С помощью этих 3-х схем вы повысите скорость и качества фотографий и других изображений.
🔥
🔐 На Boosty через несколько дней добавлю видео с приёмами восстановления тяжело восстанавливаемых фото на 3-й схеме Supir Mask Tile TTP.
👌 Восстановление по выделенной маски с разбиением на отдельные изображения. Это самая быстрая схема Supir.
😱 В 2,5 раза быстрее Supir Base.
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
📌 В комментариях примеры upscale
👁 Смотреть на YouTube
👁 Смотреть на RuTube
🚀С помощью этих 3-х схем вы повысите скорость и качества фотографий и других изображений.
🔥
Новые возможности работы с Supir.
🔐 На Boosty через несколько дней добавлю видео с приёмами восстановления тяжело восстанавливаемых фото на 3-й схеме Supir Mask Tile TTP.
👌 Восстановление по выделенной маски с разбиением на отдельные изображения. Это самая быстрая схема Supir.
😱 В 2,5 раза быстрее Supir Base.
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте
🔑 Все ссылки и файлы доступны на Boosty
📌 В комментариях примеры upscale
Всех приветствую 🖐
🔥 Стрим по Automatic1111 и ComfyUI для учеников курса https://stabledif.ru
https://stabledif.ru/comfyui
🔥 Такие стримы мы проводим в закрытой телеграмм группе по пятницам в 19.00.
👁 Смотреть на YOUTUBE
👁 Смотреть на RUTUBE
ТЕМЫ СТРИМА:
📗Automatic/Forge
11:35 - TeaCache - ускорение генераций в Forge на моделях Flux.
📕 ComfyUI
31:28 - Pixtral LLM - получение API.
45:18 - Pixtral - описание сцены по 1 изображению.
56:08 - Pixtral - описание сцены по 3 изображениям.
01:03:02 - Pixtral LLM - как chat в comfyui.
01:08:38 - ComfyUi Copilot - чат для генерации схем ComfyUI.
01:26:44 - Создание обложки для стрима.
01:33:58 - Triton и Light Cache - ModelSamplingFlux и 3000 серия
01:46:37 - Prompt optimazer для подсказок.
01:49:15 - Pollinations - бесплатный генератор Flux в ComfyUI ⚡️
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте: ССЫЛКА
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте: ССЫЛКА
🔑 Все ссылки и файлы доступны на Boosty: ССЫЛКА
🔥 Стрим по Automatic1111 и ComfyUI для учеников курса https://stabledif.ru
https://stabledif.ru/comfyui
🔥 Такие стримы мы проводим в закрытой телеграмм группе по пятницам в 19.00.
👁 Смотреть на YOUTUBE
👁 Смотреть на RUTUBE
ТЕМЫ СТРИМА:
📗Automatic/Forge
11:35 - TeaCache - ускорение генераций в Forge на моделях Flux.
📕 ComfyUI
31:28 - Pixtral LLM - получение API.
45:18 - Pixtral - описание сцены по 1 изображению.
56:08 - Pixtral - описание сцены по 3 изображениям.
01:03:02 - Pixtral LLM - как chat в comfyui.
01:08:38 - ComfyUi Copilot - чат для генерации схем ComfyUI.
01:26:44 - Создание обложки для стрима.
01:33:58 - Triton и Light Cache - ModelSamplingFlux и 3000 серия
01:46:37 - Prompt optimazer для подсказок.
01:49:15 - Pollinations - бесплатный генератор Flux в ComfyUI ⚡️
🔥 Мой структурированный курс по "AUTOMATIC 1111" с поддержкой на сайте: ССЫЛКА
🔥 Мой структурированный курс по "ComfyUI" с поддержкой на сайте: ССЫЛКА
🔑 Все ссылки и файлы доступны на Boosty: ССЫЛКА