Gemma 3, DeepSeek, Qwen 3, QwQ и Phi-4.
✔️ Какая из них даст лучший reasoning?
✔️ Что можно запустить на CPU, а что — только в облаке?
✔️ Где лучший баланс между размером и универсальностью?
Гайд подготовил наш амбассадор Ruslan Dev — в слайдах всё по делу. Листайте карусель
⚙️ Все эти модели скоро появятся в immers.cloud через единый API. Поддержка публичных и приватных эндпоинтов и оплатой по подписке.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤5😱3⚡1
Давайте узнаем, для каких задач вы чаще всего используете облако immers.cloud
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👏3🏆2👍1
Для каких задач вы используете облако?
Anonymous Poll
43%
Машинное обучение и ИИ
22%
Рендеринг и VFX
2%
Стриминг
2%
Виртуальные рабочие места (VDI)
2%
Работа с хэшами
20%
Облачный гейминг
9%
Другое (пишите в комментариях)
Kimi K2: Разбор архитектуры, сильных сторон и способа запуска — внутри 👇
Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.
🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.
🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.
🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.
🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании
🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач
🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.
🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
Недавно пекинский стартап Moonshot AI выпустил большую языковую модель Kimi K2, которая достигла SOTA на многих бенчмарках среди LLM своей категории.
🔹 Размер и архитектура
Модель включает 1 триллион параметров, из которых активны только 32 миллиарда, так как используется архитектура Mixture-of-Experts, похожая на DeepSeek V3.
🔹 Отличие от reasoning-моделей
Kimi K2 — не «думающая» модель. В отличие от Qwen 3 или DeepSeek R1, она генерирует ответы без построения цепочек мыслей.
Поэтому на бенчмарках ее сравнивают с традиционными LLM, а на точных задачах, вроде математики, она уступает LRM-моделям.
🔹 Сильные стороны: агентские системы
Kimi K2 демонстрирует продвинутые способности в контексте агентских систем — модель обучалась на симулированных вызовах функций с применением Reinforcement Learning.
Она умеет комбинировать различные инструменты, адаптируя поведение к специфике задачи.
🔹 Контекст и оптимизация
— Контекстное окно: 131 072 токена
— Новый оптимизатор MuonClip, эффективнее AdamW при масштабировании
🔹 Две версии модели:
• Base — для углубленных экспериментов, чтобы путем файнтюнинга создавать модели с новыми свойствами и возможностями
• Instruct — для практических задач
🔹 Развёртывание
В формате fp8 веса модели занимают около 1 ТБ.
Рекомендуется 4bit-квантизация, чтобы развернуть модель на 8 × H100 / A100 в облаке immers.cloud.
Обзор подготовил наш амбассадор Ruslan Dev
🔗 Подключайтесь к immers.cloud, чтобы первыми протестировать Kimi K2, не привязываясь к локальному железу.
Оплата — только за фактическое время, без оверселлинга и очередей.
🔥6❤5⚡2👍1
🎉 Сегодня — День системного администратора!
🖥 Сегодня поздравляем профессионалов, благодаря которым работают серверы, сеть не падает, а мы спокойно заходим в любимые сервисы.
🙌 Спасибо за стабильность, бэкапы и бдительность!
🖇 В карусели — немного ироничных мемов о повседневной реальности ИТ-специалистов.
☝️ Листайте — возможно, узнаете знакомые ситуации 😉
🎁 В этот день мы подготовили для вас подарок — бонус 10% на пополнение счета!
🖥 Сегодня поздравляем профессионалов, благодаря которым работают серверы, сеть не падает, а мы спокойно заходим в любимые сервисы.
🙌 Спасибо за стабильность, бэкапы и бдительность!
🖇 В карусели — немного ироничных мемов о повседневной реальности ИТ-специалистов.
☝️ Листайте — возможно, узнаете знакомые ситуации 😉
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁10❤3 2🎉1
Qwen3-235B-A22B-Instruct-2507: архитектура и преимущества — коротко и по делу 👇
👋 Alibaba Cloud представила новую флагманскую модель Qwen3-235B-A22B-Instruct-2507. Как и предыдущие LLM серии Qwen 3, она сочетает сильные показатели по всем классическим бенчмаркам и лицензируется под Apache 2.0.
🔹 Производительность и сравнение с закрытыми LLM
Модель показала впечатляющие результаты в задачах общего понимания и кодогенерации, обойдя по ряду метрик закрытые LLM. Не только GPT-4o, которую обошли уже многие, но и Anthropic Claude 4 Opus (версию без reasoning).
⬇️
На бенчмарках типа GPQA, SimpleQA и задачах по программированию (LiveCodeBench, Arena-Hard, BFCL-v3 и др.) она часто набирает наивысшие или близкие к ним оценки, что говорит о смене тенденции:
📈 качество открытых моделей не уступает, а в ряде случаев обгоняет проприетарные аналоги.
🔹 Архитектура и технические характеристики
Qwen3-235B-A22B-Instruct-2507 — это модель Mixture-of-Experts (MoE) архитектуры.
Содержит 235 млрд параметров (из них 22 млрд активны на токен), 94 слоя, 64 «запросных» и 4 «ключ/значение» attention heads, а также 128 экспертных веток (с 8 активными одновременно).
Максимальный размер контекста — 262 144 токена. Такая конструкция позволяет эффективно распределять вычисления по экспертам.
🔹 Особенности применения
Модель не использует рассуждения. Хотя для точных задач, требующих глубоких логических цепочек, LRM предпочтительнее, инференс Instruct-модели быстрее, что делает её оптимальным инструментом для real-time чат-ботов и вызова функций.
☁️ Рекомендованные начальные конфигурации для запуска Qwen3-235B-A22B-Instruct-2507 в точности 4 бита:
— teslaa100-2.24.256.240
— teslah100-2.24.256.240
🚀 Подключайтесь, тестируйте и разворачивайте собственные проекты в облаке immers.cloud!
🔹 Производительность и сравнение с закрытыми LLM
Модель показала впечатляющие результаты в задачах общего понимания и кодогенерации, обойдя по ряду метрик закрытые LLM. Не только GPT-4o, которую обошли уже многие, но и Anthropic Claude 4 Opus (версию без reasoning).
⬇️
На бенчмарках типа GPQA, SimpleQA и задачах по программированию (LiveCodeBench, Arena-Hard, BFCL-v3 и др.) она часто набирает наивысшие или близкие к ним оценки, что говорит о смене тенденции:
📈 качество открытых моделей не уступает, а в ряде случаев обгоняет проприетарные аналоги.
🔹 Архитектура и технические характеристики
Qwen3-235B-A22B-Instruct-2507 — это модель Mixture-of-Experts (MoE) архитектуры.
Содержит 235 млрд параметров (из них 22 млрд активны на токен), 94 слоя, 64 «запросных» и 4 «ключ/значение» attention heads, а также 128 экспертных веток (с 8 активными одновременно).
Максимальный размер контекста — 262 144 токена. Такая конструкция позволяет эффективно распределять вычисления по экспертам.
🔹 Особенности применения
Модель не использует рассуждения. Хотя для точных задач, требующих глубоких логических цепочек, LRM предпочтительнее, инференс Instruct-модели быстрее, что делает её оптимальным инструментом для real-time чат-ботов и вызова функций.
Пост подготовил наш амбассадор Ruslan Dev — практик и исследователь в области современных AI/ML-технологий.
— teslaa100-2.24.256.240
— teslah100-2.24.256.240
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4 4❤3👍2🎉1
📌 Собрали самые популярные вопросы, которые нам задают про наш сервис, и постараемся коротко и понятно на них ответить.
📲 Листайте карусель — в ней вы найдёте ответы на ключевые вопросы: от ресурсов и видеокарт до сроков аренды.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍3🔥3⚡1
🧱 Rebuild теперь доступен и для томов
⚙️ Функция Rebuild теперь работает для volume-backed инстансов — пересборка позволяет вернуть ВМ к исходному состоянию с любым образом, фактически как «сброс до заводских настроек».
🔒 При этом сохраняются:
— IP-адрес
— ID инстанса
— Привязанные тома (в случае volume-backed)
📌 Как использовать:
В панели управления выберите нужную ВМ, откройте меню «Действия» и нажмите Rebuild.
🔁 Теперь восстановление окружения стало ещё удобнее — вне зависимости от типа хранилища.
🚀 Попробуйте Rebuild на практике — входите в систему и управляйте окружением с максимальной гибкостью:
👉 immers.cloud
⚙️ Функция Rebuild теперь работает для volume-backed инстансов — пересборка позволяет вернуть ВМ к исходному состоянию с любым образом, фактически как «сброс до заводских настроек».
🔒 При этом сохраняются:
— IP-адрес
— ID инстанса
— Привязанные тома (в случае volume-backed)
📌 Как использовать:
В панели управления выберите нужную ВМ, откройте меню «Действия» и нажмите Rebuild.
🔁 Теперь восстановление окружения стало ещё удобнее — вне зависимости от типа хранилища.
🚀 Попробуйте Rebuild на практике — входите в систему и управляйте окружением с максимальной гибкостью:
👉 immers.cloud
👍8❤3🏆3 1
📌 Разбираем ключевые технологии, поддержку reasoning, MoE-архитектуру и инструменты, встроенные в эти модели.
📲 В карусели — факты, которые помогут вам оценить потенциал gpt-oss.
Уже опубликованы на immers.cloud:
➡️ gpt-oss-20b
➡️ gpt-oss-120b
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍4🏆3❤🔥1⚡1🎉1