immers.cloud | Облако с GPU
1.02K subscribers
949 photos
8 videos
258 links
immers.cloud — облачный GPU-сервис с широким выбором видеокарт для ML, генеративных моделей, 3D и рендеринга.

Самый большой ассортимент GPU Tesla и RTX 💻

👉 Наш сайт https://immers.cloud/
🎧 @immerscloudsupport

Чат по ИИ - https://t.me/immersAI
Download Telegram
💡 Как не платить за забытые виртуалки?

В immers.cloud есть простая настройка, которая поможет вам избежать таких ситуаций:
автоматическое удаление ВМ после выключения.

🔧 Всё включается за пару кликов — и вы больше не теряете ни время, ни бюджет.

Внутри карусели:
– где найти опцию,
– как задать таймер удаления,
– важные нюансы.

👉 Листайте слайды — рассказываем пошагово, как включить эту полезную настройку.

Не забывайте, что для наших подписчиков действует промокод +10% на первое пополнение! 🚀

#immerscloud #инструкция #FAQ
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍4❤‍🔥2🏆21
👋 Open-source LLM меняются стремительно — и теперь вы можете выбрать не только между LLaMA и Mistral.

📌 В этом посте сравнили 5 перспективных моделей:
Gemma 3, DeepSeek, Qwen 3, QwQ и Phi-4.

✔️ Какая из них даст лучший reasoning?
✔️ Что можно запустить на CPU, а что — только в облаке?
✔️ Где лучший баланс между размером и универсальностью?

Гайд подготовил наш амбассадор Ruslan Dev — в слайдах всё по делу. Листайте карусель 👉

⚙️ Все эти модели скоро появятся в immers.cloud через единый API. Поддержка публичных и приватных эндпоинтов и оплатой по подписке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65😱31
☁️ Облако — это мощное и удобное решение, особенно если локальное оборудование не справляется или его обслуживание слишком дорогое.

Давайте узнаем, для каких задач вы чаще всего используете облако immers.cloud 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
4👏3🏆2👍1
Kimi K2: Разбор архитектуры, сильных сторон и способа запуска — внутри 👇

Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.

🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.

🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.

🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.

🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании

🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач

🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.

Обзор подготовил наш амбассадор Ruslan Dev


🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
🔥652👍1
🎉 Сегодня — День системного администратора!

🖥 Сегодня поздравляем профессионалов, благодаря которым работают серверы, сеть не падает, а мы спокойно заходим в любимые сервисы.

🙌 Спасибо за стабильность, бэкапы и бдительность!

🖇 В карусели — немного ироничных мемов о повседневной реальности ИТ-специалистов.

☝️ Листайте — возможно, узнаете знакомые ситуации 😉

🎁 В этот день мы подготовили для вас подарок — бонус 10% на пополнение счета!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1032🎉1
Qwen3-235B-A22B-Instruct-2507: архитектура и преимущества — коротко и по делу 👇

👋 Alibaba Cloud представила новую флагманскую модель Qwen3-235B-A22B-Instruct-2507. Как и предыдущие LLM серии Qwen 3, она сочетает сильные показатели по всем классическим бенчмаркам и лицензируется под Apache 2.0.

🔹 Производительность и сравнение с закрытыми LLM
Модель показала впечатляющие результаты в задачах общего понимания и кодогенерации, обойдя по ряду метрик закрытые LLM. Не только GPT-4o, которую обошли уже многие, но и Anthropic Claude 4 Opus (версию без reasoning).
⬇️
На бенчмарках типа GPQA, SimpleQA и задачах по программированию (LiveCodeBench, Arena-Hard, BFCL-v3 и др.) она часто набирает наивысшие или близкие к ним оценки, что говорит о смене тенденции:
📈 качество открытых моделей не уступает, а в ряде случаев обгоняет проприетарные аналоги.

🔹 Архитектура и технические характеристики
Qwen3-235B-A22B-Instruct-2507 — это модель Mixture-of-Experts (MoE) архитектуры.
Содержит 235 млрд параметров (из них 22 млрд активны на токен), 94 слоя, 64 «запросных» и 4 «ключ/значение» attention heads, а также 128 экспертных веток (с 8 активными одновременно).
Максимальный размер контекста — 262 144 токена. Такая конструкция позволяет эффективно распределять вычисления по экспертам.

🔹 Особенности применения
Модель не использует рассуждения. Хотя для точных задач, требующих глубоких логических цепочек, LRM предпочтительнее, инференс Instruct-модели быстрее, что делает её оптимальным инструментом для real-time чат-ботов и вызова функций.

Пост подготовил наш амбассадор Ruslan Dev — практик и исследователь в области современных AI/ML-технологий.


☁️ Рекомендованные начальные конфигурации для запуска Qwen3-235B-A22B-Instruct-2507 в точности 4 бита:

— teslaa100-2.24.256.240
— teslah100-2.24.256.240

🚀 Подключайтесь, тестируйте и разворачивайте собственные проекты в облаке immers.cloud!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥443👍2🎉1