Имеет ли смысл создавать собственный LLM сервер?
Еще недавно, когда приложения, использующие AI, находились на ранней стадии своего развития, большинство разработчиков ограничивались использованием сторонних API — главным образом OpenAI. Исключение составляли те, у кого была возможность развертывания собственной дорогостоящей GPU-инфраструктуры.
Сейчас ситуация изменилась под влиянием двух факторов: появилось больше открытых моделей, способных конкурировать с OpenAI, и возросла доступность GPU в облаке.
У открытых моделей всегда есть альтернатива — самостоятельный деплой весов на LLM-сервер. Наша платформа immers.cloud стремится к тому, чтобы у разработчиков была возможность в полной мере воспользоваться преимуществами этого пути. Подробности — в карусели.
@ruslandevlive — мысли о современных AI/ML-технологиях
Еще недавно, когда приложения, использующие AI, находились на ранней стадии своего развития, большинство разработчиков ограничивались использованием сторонних API — главным образом OpenAI. Исключение составляли те, у кого была возможность развертывания собственной дорогостоящей GPU-инфраструктуры.
Сейчас ситуация изменилась под влиянием двух факторов: появилось больше открытых моделей, способных конкурировать с OpenAI, и возросла доступность GPU в облаке.
У открытых моделей всегда есть альтернатива — самостоятельный деплой весов на LLM-сервер. Наша платформа immers.cloud стремится к тому, чтобы у разработчиков была возможность в полной мере воспользоваться преимуществами этого пути. Подробности — в карусели.
@ruslandevlive — мысли о современных AI/ML-технологиях
👍4🎉3🏆3
🔥 Квантованная Qwen 3 — теперь вы можете запустить 235B модель всего на двух GPU H100!
Alibaba выпустила оптимизированные версии своих моделей, и теперь даже Qwen3-235B (234 млрд параметров!) работает с 40K контекстом на скорости ~40 токенов/сек — идеально для production.
💡 Листайте карусель выше — наш амбассадор Ruslan Dev рассказывает про форматы квантизации, требования к железу и как запустить модель в immers.cloud!
Alibaba выпустила оптимизированные версии своих моделей, и теперь даже Qwen3-235B (234 млрд параметров!) работает с 40K контекстом на скорости ~40 токенов/сек — идеально для production.
💡 Листайте карусель выше — наш амбассадор Ruslan Dev рассказывает про форматы квантизации, требования к железу и как запустить модель в immers.cloud!
@ruslandevlive — мысли о современных AI/ML-технологиях
❤4🎉4🏆3🔥1
Как клонировать Виртуальную машину?
Как скачать файлы с Виртуальной машины с Linux?
Как использовать S3-хранилище?
Как перенести Том на другой аккаунт?
Мы собрали для вас ответы на самые распространенные вопросы!
А если не нашли ответ на свой вопрос — не стесняйтесь задавать вопросы в комментариях или заглянуть в FAQ: там вас точно ждет решение!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3🤔3❤🔥1🏆1
🎉 Мы в эфире федерального ТВ!
В недавнем сюжете на ТВЦ мэр Москвы рассказал Президенту о достижениях столичных высокотехнологичных компаний. В числе примеров — технологии DTL, к созданию и развитию которых причастна команда immers.cloud.
🔗 Полный выпуск: tvc.ru/news/316017
🎬 Видео ниже — только моменты про нас.
В недавнем сюжете на ТВЦ мэр Москвы рассказал Президенту о достижениях столичных высокотехнологичных компаний. В числе примеров — технологии DTL, к созданию и развитию которых причастна команда immers.cloud.
Это короткий эпизод, но для нас — важный знак признания. Гордость за то, что наши разработки — на государственном уровне 💪
🔗 Полный выпуск: tvc.ru/news/316017
🎬 Видео ниже — только моменты про нас.
This media is not supported in your browser
VIEW IN TELEGRAM
🔥14❤6🏆5⚡2🎉2
Сегодня наш амбассадор Даня Грызлов подготовил для вас подборку из 5 важных настроек в Blender, которые напрямую влияют на стабильность анимации.
Если вы сталкивались с багами, рывками или неожиданными результатами при рендере — этот пост для вас.
Мы предлагаем посекундную тарификацию, благодаря чему вы платите только за реально использованное время. Регистрация упрощена до минимума — вы можете запустить виртуальную машину буквально через пару минут после создания аккаунта, без заявок и ожидания. На время аренды вся мощность выбранного GPU закрепляется исключительно за вами, что обеспечивает стабильную и высокую производительность.
Наше облако подходит не только для рендеринга 3D-анимаций, но и для обучения нейросетей, научных расчётов, визуальных эффектов, ресурсоёмкого гейминга и обработки больших объёмов данных. Сегодня immers.cloud предлагает самый широкий выбор топовых графических ускорителей в России — 11 моделей NVIDIA RTX и Tesla, включая решения с поддержкой GPUDirect и NVLink.
🎯 Надеемся, эта подборка поможет вам сделать анимацию стабильной, а рендер — предсказуемым!
Делитесь своими техлайфхаками в комментариях — будем собирать опыт вместе!
Даня Грызлов — про жизнь 3D-дизайнера
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👤 Пост подготовил наш амбассадор Ruslan Dev — автор канала @ruslandevlive.
🐳 DeepSeek-R1-0528 — апгрейд одной из лучших открытых моделей рассуждений
DeepSeek представили новую версию своей reasoning-модели — DeepSeek-R1-0528.
Судя по бенчмаркам на странице модели, она уверенно превосходит предыдущую версию R1 в задачах на логику, математику и программирование.
Особенно впечатляет результат на AIME-бенчмарке — модель сравнялась с OpenAI o3 и Gemini 2.5 Pro, что делает её крайне интересной для разработчиков generative AI-приложений.
✍️ Как достигли такого прироста?
При её обучении увеличили глубину цепочки рассуждений — в среднем 23К токенов на вопрос по сравнению с 12К токенов у R1.
Также разработчики объявили, что в новой версии улучшена поддержка вызова функций, а инференс моделей более устойчив к галлюцинациям.
✍️ Как развернуть модель на практике?
Ранее я писал о том, как развернуть DeepSeek на immers.cloud — очевидно, придётся задействовать квантизацию, и даже в fp4 потребуется шесть видеокарт H100 для полной загрузки весов.
Для тех, кто работает с ограниченными ресурсами, команда выпустила дистиллированную версию — DeepSeek-R1-0528-Qwen3-8B.
Она обучена на reasoning-трейсах старшей модели и по результатам AIME 2024 вплотную приблизилась к Qwen3-235B — почти 30-кратное снижение параметров без значительной потери качества.
🔗 Подключайтесь, тестируйте, запускайте эксперименты — immers.cloud подходит как для ресерча, так и для продакшн-нагрузок.
DeepSeek представили новую версию своей reasoning-модели — DeepSeek-R1-0528.
Судя по бенчмаркам на странице модели, она уверенно превосходит предыдущую версию R1 в задачах на логику, математику и программирование.
Особенно впечатляет результат на AIME-бенчмарке — модель сравнялась с OpenAI o3 и Gemini 2.5 Pro, что делает её крайне интересной для разработчиков generative AI-приложений.
При её обучении увеличили глубину цепочки рассуждений — в среднем 23К токенов на вопрос по сравнению с 12К токенов у R1.
Также разработчики объявили, что в новой версии улучшена поддержка вызова функций, а инференс моделей более устойчив к галлюцинациям.
Ранее я писал о том, как развернуть DeepSeek на immers.cloud — очевидно, придётся задействовать квантизацию, и даже в fp4 потребуется шесть видеокарт H100 для полной загрузки весов.
Для тех, кто работает с ограниченными ресурсами, команда выпустила дистиллированную версию — DeepSeek-R1-0528-Qwen3-8B.
Она обучена на reasoning-трейсах старшей модели и по результатам AIME 2024 вплотную приблизилась к Qwen3-235B — почти 30-кратное снижение параметров без значительной потери качества.
🔗 Подключайтесь, тестируйте, запускайте эксперименты — immers.cloud подходит как для ресерча, так и для продакшн-нагрузок.
@ruslandevlive — мысли о современных AI/ML-технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🎉3👍2🔥1