immers.cloud | Облако с GPU
1.02K subscribers
949 photos
8 videos
258 links
immers.cloud — облачный GPU-сервис с широким выбором видеокарт для ML, генеративных моделей, 3D и рендеринга.

Самый большой ассортимент GPU Tesla и RTX 💻

👉 Наш сайт https://immers.cloud/
🎧 @immerscloudsupport

Чат по ИИ - https://t.me/immersAI
Download Telegram
👋 Привет, друзья!

Сегодня наш амбассадор Даня Грызлов делится полезными приёмами, как ускорить предпросмотр шейдеров и геометрии в Blender, когда сцена еле ворочается, Cycles тормозит, а ноды — как паутина 🕸

Если у вас:
⚙️ десятки гигов в сцене
🎨 текстуры 8К
🌪 сложные шейдеры и Geometry Nodes
— этот мини-гайд вам точно пригодится.

👇 В карусели — практический подход:

1️⃣ Eevee vs Cycles — на каком этапе что использовать
2️⃣ Как делать быстрые Preview-анимации
3️⃣ Дебаг нод: ручная чистка и отключения
4️⃣ Финальная проверка сцены на облачном GPU-сервере immers.cloud

💡 Облако дает возможность завершить рендер в десятки и сотни раз быстрее с использованием большого количества виртуальных машин, особенно когда рендер долгий, а тайминги горят.


➡️Листайте слайды и делитесь своими лайфхаками в комментариях — кто как готовит сцену к финальному рендеру?

#immerscloud #Blender #рендеринг
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
55👏4🔥1
🔧 Обновление OpenStack до релиза Zed завершено

Мы завершили переход на релиз OpenStack Zed, включая обновление ключевых компонентов нашей инфраструктуры:

- memcached
- haproxy
- galera
- rabbitmq
- keystone
- placement
- cinder
- glance
- nova
- neutron
- horizon


Обновление прошло без остановки обслуживания активных виртуальных машин.

Во время миграции наблюдались следующие временные ограничения:

🟠 ограниченный доступ к личному кабинету — до 30 минут
🟠 задержки при включении/выключении ВМ — до 3,5 часов
🟠 невозможность создать новые GPU-инстансы — до 3,5 часов

Всем затронутым пользователям начислены компенсации в соответствии с политикой SLA.

🔗 Подробнее об изменениях:

Обновленные фичи на сайте
Актуальная документация API
Release Notes OpenStack Zed

Благодарим за понимание и стабильную работу с нами.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍64👏33🏆1
💡 Как не платить за забытые виртуалки?

В immers.cloud есть простая настройка, которая поможет вам избежать таких ситуаций:
автоматическое удаление ВМ после выключения.

🔧 Всё включается за пару кликов — и вы больше не теряете ни время, ни бюджет.

Внутри карусели:
– где найти опцию,
– как задать таймер удаления,
– важные нюансы.

👉 Листайте слайды — рассказываем пошагово, как включить эту полезную настройку.

Не забывайте, что для наших подписчиков действует промокод +10% на первое пополнение! 🚀

#immerscloud #инструкция #FAQ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4❤‍🔥2🏆21
👋 Open-source LLM меняются стремительно — и теперь вы можете выбрать не только между LLaMA и Mistral.

📌 В этом посте сравнили 5 перспективных моделей:
Gemma 3, DeepSeek, Qwen 3, QwQ и Phi-4.

✔️ Какая из них даст лучший reasoning?
✔️ Что можно запустить на CPU, а что — только в облаке?
✔️ Где лучший баланс между размером и универсальностью?

Гайд подготовил наш амбассадор Ruslan Dev — в слайдах всё по делу. Листайте карусель 👉

⚙️ Все эти модели скоро появятся в immers.cloud через единый API. Поддержка публичных и приватных эндпоинтов и оплатой по подписке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65😱31
☁️ Облако — это мощное и удобное решение, особенно если локальное оборудование не справляется или его обслуживание слишком дорогое.

Давайте узнаем, для каких задач вы чаще всего используете облако immers.cloud 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
4👏3🏆2👍1
Kimi K2: Разбор архитектуры, сильных сторон и способа запуска — внутри 👇

Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.

🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.

🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.

🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.

🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании

🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач

🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.

Обзор подготовил наш амбассадор Ruslan Dev


🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
🔥652👍1