Сегодня наш амбассадор Даня Грызлов делится полезными приёмами, как ускорить предпросмотр шейдеров и геометрии в Blender, когда сцена еле ворочается, Cycles тормозит, а ноды — как паутина
Если у вас:
⚙️ десятки гигов в сцене
🎨 текстуры 8К
🌪 сложные шейдеры и Geometry Nodes
— этот мини-гайд вам точно пригодится.
1️⃣ Eevee vs Cycles — на каком этапе что использовать
2️⃣ Как делать быстрые Preview-анимации
3️⃣ Дебаг нод: ручная чистка и отключения
4️⃣ Финальная проверка сцены на облачном GPU-сервере immers.cloud
💡 Облако дает возможность завершить рендер в десятки и сотни раз быстрее с использованием большого количества виртуальных машин, особенно когда рендер долгий, а тайминги горят.
#immerscloud #Blender #рендеринг
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5 5👏4🔥1
Мы завершили переход на релиз OpenStack Zed, включая обновление ключевых компонентов нашей инфраструктуры:
- memcached
- haproxy
- galera
- rabbitmq
- keystone
- placement
- cinder
- glance
- nova
- neutron
- horizon
Обновление прошло без остановки обслуживания активных виртуальных машин.
Во время миграции наблюдались следующие временные ограничения:
Всем затронутым пользователям начислены компенсации в соответствии с политикой SLA.
🔗 Подробнее об изменениях:
Обновленные фичи на сайте
Актуальная документация API
Release Notes OpenStack Zed
Благодарим за понимание и стабильную работу с нами.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6⚡4👏3 3🏆1
В immers.cloud есть простая настройка, которая поможет вам избежать таких ситуаций:
автоматическое удаление ВМ после выключения.
– где найти опцию,
– как задать таймер удаления,
– важные нюансы.
Не забывайте, что для наших подписчиков действует промокод +10% на первое пополнение!
#immerscloud #инструкция #FAQ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍4❤🔥2🏆2 1
Gemma 3, DeepSeek, Qwen 3, QwQ и Phi-4.
✔️ Какая из них даст лучший reasoning?
✔️ Что можно запустить на CPU, а что — только в облаке?
✔️ Где лучший баланс между размером и универсальностью?
Гайд подготовил наш амбассадор Ruslan Dev — в слайдах всё по делу. Листайте карусель
⚙️ Все эти модели скоро появятся в immers.cloud через единый API. Поддержка публичных и приватных эндпоинтов и оплатой по подписке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5😱3⚡1
Давайте узнаем, для каких задач вы чаще всего используете облако immers.cloud
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👏3🏆2👍1
Для каких задач вы используете облако?
Anonymous Poll
43%
Машинное обучение и ИИ
22%
Рендеринг и VFX
2%
Стриминг
2%
Виртуальные рабочие места (VDI)
2%
Работа с хэшами
20%
Облачный гейминг
9%
Другое (пишите в комментариях)
Kimi K2: Разбор архитектуры, сильных сторон и способа запуска — внутри 👇
Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.
🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.
🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.
🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.
🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании
🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач
🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.
🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.
🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.
🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.
🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.
🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании
🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач
🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.
Обзор подготовил наш амбассадор Ruslan Dev
🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
🔥6❤5⚡2👍1