immers.cloud | Облако с GPU
1.02K subscribers
951 photos
8 videos
260 links
immers.cloud — облачный GPU-сервис с широким выбором видеокарт для ML, генеративных моделей, 3D и рендеринга.

Самый большой ассортимент GPU Tesla и RTX 💻

👉 Наш сайт https://immers.cloud/
🎧 @immerscloudsupport

Чат по ИИ - https://t.me/immersAI
Download Telegram
🎉 С Днём Рунета!

7 апреля 1994 года в базе IANA появилась доменная зона .ru — с этого момента началась официальная история российского интернета. Сегодня Рунету исполняется 31 год!

В честь праздника мы отправились в цифровое путешествие во времени и собрали подборку старейших сайтов: как они выглядели в прошлом и как изменились за эти годы.

Спойлер: некоторые просто не узнать!

Листай карусель и ностальгируй вместе с нами👀⬇️

Интернет очень сильно изменил нашу жизнь за эти 30 лет. Нам очевидно, что искусственный интеллект так же радикально изменит нашу жизнь в следующие десятилетия.
🔥5😱5👍4🤔2
Meta* (*признана экстремистской организацией и запрещена в РФ) наконец-то ответила DeepSeek. Мы детально изучили новую Llama 4: архитектура, обучение, кластеры, параметры, практика.

Модель выпущена в различных вариантах:
👉 https://huggingface.co/meta-llama/Llama-4-Scout-17B-16E
👉 https://huggingface.co/meta-llama/Llama-4-Scout-17B-16E-Instruct
👉 https://huggingface.co/meta-llama/Llama-4-Maverick-17B-128E
👉 https://huggingface.co/meta-llama/Llama-4-Maverick-17B-128E-Instruct
👉 https://huggingface.co/meta-llama/Llama-4-Maverick-17B-128E-Instruct-FP8


Для работы с библиотекой transformers. Имеются также оригинальные веса не под transformers.

Кому интересно посмотреть другие параметры без регистрации и SMS берите любые веса и Llama4 для transformers на hugging face тут https://huggingface.co/collections/meta-llama/llama-4-67f0c30d9fe03840bc9d0164 и смотрите его config.json.

На практике пока не использовали. Сейчас Llama4 — в топ-2 моделей на chatbot arena и топ-1 среди открытых моделей.

Хотите быстро протестировать Llama 4 или другой ИИ-проект? Разворачивайте в пару кликов в нашем облаке
immers.cloud — подойдёт как для экспериментов, так и для продакшн-задач.
👏5❤‍🔥4🔥4👍11
🇨🇳 DeepSeek прокачал логическое мышление ИИ и готовит громкий релиз!

Китайский AI-стартап DeepSeek в сотрудничестве с Университетом Цинхуа представил новую методику улучшения логики у LLM-моделей — комбинацию GRM (генеративное моделирование наград) и самокритичной настройки. Этот подход помогает моделям быстрее и точнее отвечать, ориентируясь на человеческие предпочтения. Результаты уже сравнимы с лучшими публичными решениями.

📂 Код обещают открыть, но сроки не объявлены.
Всё это происходит на фоне слухов о скором выходе DeepSeek-R2 — продолжения нашумевшей reasoning-модели R1, которую называли «тёмной лошадкой» на фоне гигантов индустрии.

🧠 Напомним:
— В марте обновили V3-модель с упором на логику и китайский язык
— В феврале открыли 5 репозиториев и опубликовали исследование по sparse attention
— Основатель DeepSeek — Лян Вэньфэн, финансируемый через свой хедж-фонд High-Flyer Quant
— Лян уже засветился на встрече с Си Цзиньпином как лидер прогрессивного китайского ИИ

Следим за ними — возможно, именно они зададут новый стандарт reasoning-моделей 💡

Если вы работаете с LLM и хотите быстро развернуть проект — используйте immers.cloud. Топовые GPU, настройка окружения и запуск модели занимают пару минут.
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥4👏4❤‍🔥2
Meta* (*признана экстремистской организацией и запрещена в РФ) представила Llama 4 — две мультимодальные модели, которые бросают вызов закрытым ИИ!

🦙 Llama 4 Maverick и Scout уже на Hugging Face.
🔥 Открытые веса, мультимодальность, поддержка FP8 и контекст побольше, чем у Deepseek.

Наш амбассадор Виталий Кулиев подготовил короткий обзор и объясняет, чем эти модели интересны разработчикам и почему Llama 4 Maverick — почти догнала Gemini 2.5!

📌 Читай карусель и подписывайся на Виталия:
🔗 YouTube
🔗 Telegram
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥4👏32
Оптимизируйте расходы и скорость работы с функцией смены типа тома в immers.cloud!

Теперь у вас есть возможность использовать Retype — функцию смены типа тома!

💡 Как это поможет?
Быстрое тестирование: попробуйте разные типы томов (SSD и HDD) без необходимости создавать новые.
Гибкость в скорости: если HDD оказался слишком медленным, просто переключитесь на SSD.
Экономия на хранении: используйте SSD для интенсивных задач, а затем переводите данные на HDD для долгосрочного хранения.

Важно знать:
🚫 Машина в статусе Shelved_offloaded не позволяет изменить тип тома.
💱 Для предоплаченных машин доступен только переход с HDD на SSD.
Процесс смены типа тома занимает время, особенно для больших объемов данных.

Используйте Retype и платите за SSD только тогда, когда они вам действительно нужны!
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥4🎉4🏆2👏1
🔥 Вы уже пробовали наш предустановленный образ Stable Diffusion, FLUX.1: ComfyUI? Тогда у нас для вас челлендж!

Поделитесь вашими лучшими изображениями и выиграйте нашего фирменного маскота — косатку Иммерсика! ☁️

Как участвовать?
🔹 Используйте Flux для генерации крутого изображения, попробуйте создать что-то необычное: киберпанк-город будущего, эпичный фэнтези-пейзаж или даже мемный арт, чем креативнее — тем лучше!
🔹 Опубликуйте результат в комментариях к этому посту.
🔹 Жди голосования — сообщество выберет победителя!

🏆 Приз — плюшевая косатка Иммерсик, которая станет вашим верным товарищем в мире облачных технологий.

Дедлайн для участия: 24 апреля.
📢 Итоги голосования: 30 апреля.
Важно: участвовать могут только подписчики из России — чтобы мы смогли передать Иммерсика без лишних сложностей.

Делитесь своими работами и удивляйте всех возможностями нашего облака. 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
5😱5🎉4👍1🏆11
🧠 Зачем нужен Semantic Chunking для RAG приложений

При построении AI-агентов, работающих с пользовательскими данными, Retrieval-Augmented Generation — это одна из основных технологий наряду с LLM, на которых строится разработка Gen-AI приложений.
Тем более важно понимать, как именно использовать данные в RAG-пайплайнах и от чего зависит эффективность их использования.

📌 Ключевой момент — подготовка данных для загрузки в индекс перед их использованием в RAG-системах.
В библиотеках типа Langchain уже реализованы абстракции, которые делают что-то с данными “под капотом“.

Фактически данные — изначально большие куски текста — разбиваются на куски поменьше, так называемые чанки.
И здесь всё становится сложнее и интереснее:

- Можно разбить текст по переносу строки, если превышен фиксированный лимит символов (так делает CharacterSplitter в Langchain)
- Можно применить чуть более сложный Recursive Chunking

🤔 Но как не потерять изначальный контекст при таком делении?

Для решения этой проблемы в индустрии появился Semantic Chunking и его вариации.
По сути, этот метод вычисляет сходство между векторами разных предложений и объединяет их в один чанк либо, наоборот, разделяет на основе некоторого порога сходства.

Таким образом, не теряются семантические связи при делении текста на чанки, и это очень важный момент для эффективного RAG.

⚙️ Технически Semantic Chunking сложнее, особенно при использовании моделей-эмбеддингов.
Можно:

- Обучить такую модель на наших GPU immers.cloud и собственных данных
- Взять готовую с HuggingFace
- Или воспользоваться API OpenAI

@ruslandevlive — мысли о современных AI/ML-технологиях
33🏆3
🔍 Сравнение DeepSeek/OpenAI по критерию цена/качество

Я Ruslan Dev, амбассадор immers.cloud, и этот пост я подготовил на основе собственного опыта использования моделей OpenAI и DeepSeek V3 в одном приложении.

Я написал достаточно простой агент для автономной обработки текста средствами LLM.

Сразу стоит сказать, что есть открытые бенчмарки, которые показывают, какая из моделей на каких задачах справляется лучше.
Но — при использовании LLM в реальном приложении есть большой нюанс: стоимость генерируемых токенов.

На бенчмарках видно, что DeepSeek V3 и GPT-4o дают очень близкие результаты, и DeepSeek незначительно превосходит в большинстве случаев.
Однако стоимость инференса официального API DeepSeek V3 в 8–10 раз меньше, чем GPT-4o. Она ближе к стоимости GPT-4o-mini — именно последнюю я и использовал для своего агента.
И разница между v3 и mini уже очевидна, особенно для русского языка. GPT-4o-mini малопригодна для генерации сложных текстов на русском, с которыми DeepSeek справляется достаточно хорошо.

Но есть нюанс — для многих прикладных задач LLM необходимо файнтюнить.
И для малого бизнеса файнтюнинг модели уровня DeepSeek — неподъёмная задача:
я показывал развертывание 4bit-кванта этой модели в облаке immers.cloud, и мне понадобилось три видеокарты H100, чтобы выгрузить на GPU лишь половину слоёв модели.

Для файнтюнинга же вам понадобится деплоить несжатые веса в fp8, которые весят около 720 гигабайт.

@ruslandevlive — мысли о современных AI/ML-технологиях
43🔥3👍1
🌿 С майскими праздниками!

Команда immers.cloud поздравляет вас с наступающими майскими праздниками! Желаем мощного перезаряда, свежего воздуха, сочного шашлыка и чуть-чуть отдохнуть от нейросетей (или наоборот — придумать новую). А если вдохновение придет прямо в разгар отдыха — наши облачные GPU, как всегда, готовы к работе! 💪💻

📅 График работы на майские:
Наша техподдержка в чате, как всегда, на посту 24/7 — без выходных, праздников и перерывов. Мы рядом, чтобы ваши проекты работали стабильно, даже когда вы отдыхаете.

💳 Важно для юр. лиц:
Из-за особенностей работы банков в праздничные дни, платежи могут зачисляться с задержкой.
Рекомендуем пополнить баланс до 30 апреля включительно, чтобы всё работало без пауз и неожиданностей.

Пусть май будет продуктивным... и вкусным!
4👍3👏311