immers.cloud | Облако с GPU
1.01K subscribers
955 photos
8 videos
261 links
immers.cloud — облачный GPU-сервис с широким выбором видеокарт для ML, генеративных моделей, 3D и рендеринга.

Самый большой ассортимент GPU Tesla и RTX 💻

👉 Наш сайт https://immers.cloud/
🎧 @immerscloudsupport

Чат по ИИ - https://t.me/immersAI
Download Telegram
🔥Не знаете, какой тип инстанса выбрать — Local или Volume-backed?

Мы подготовили гайд, чтобы помочь вам сделать правильный выбор! В новом посте мы подробно объясняем, как работают локальные диски и сетевые тома, какие у них преимущества и в каких сценариях лучше использовать каждый из вариантов. Независимо от того, ищете ли вы максимальную скорость или гибкость масштабирования, этот пост поможет вам разобраться в тонкостях настройки инстансов для ваших задач.

➡️Пролистайте карусель и выберите решение, которое подойдет именно вам!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3👏3🎉3👍1
☀️Квантованные модели Llama 3.2 на Android

Llama продолжает покорять мобильные устройства. Вышла версия Llama 3.2 1B с весами, квантованными до 4-битного формата. Согласно опубликованным результатам бенчмарков, эта версия вполне способна конкурировать с несжатой моделью в формате BF16. Скорость инференса на ARM-процессорах для Android значительно возросла.

Разработчики использовали несколько методов квантизации, и наилучшие результаты показал хорошо известный метод QLoRA.

Чтобы самостоятельно сжать веса крупной языковой модели до 4-битного формата, улучшив её скорость и экономичность по памяти, потребуется подходящий графический процессор.

На платформе immers.cloud доступны видеокарты для различных типов нагрузок. Также понадобятся базовые теоретические знания и навыки работы с инструментами квантизации, такими как библиотека bitsandbytes.

➡️Подробнее о том, как работает метод QLoRA, вы можете узнать из этого видео.

@ruslandevlive — мысли о современных AI/ML технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
👏5😱4🏆31👍1
Мы информируем вас о изменении условий аренды предоплаченных тарифов на GPU Nvidia A100 и H100.
Обратите внимание на новые тарифы и скидки на аренду:

Актуальные тарифы:

• При предоплате за 30 дней — скидка 10%
• При предоплате за 60 дней — скидка 15%
• Новый тариф: 180 дней — скидка 20%

Важно отметить, что пользователи, которые уже арендовали виртуальные машины, могут продлить аренду по старым тарифам (скидкам), установленным на момент запуска ВМ.
Это позволит вам сохранить более выгодные условия на текущий период.
5👍43
🚀 Портировать Llama 3.2 на Android и iOS - легко

AI разработчики могут сконвертировать веса моделей llama 3.2 1B и 3B в формат, поддерживаемый мобильными устройствами. Для этого есть официальная открытая реализация нового метода post-training квантизации SpinQuant, который оптимизирует названные модели для работы на мобильных платформах. Оптимизация заключается в сокращении потребляемой памяти и повышении скорости инференса.

Этот метод проще, чем QLoRA, потому что вам не нужно файнтюнить модель. Достаточно взять готовые несжатые веса, выполнить подготовительный шаг - ротацию матриц весов и активации, для чего есть готовый скрипт в названном репозитории. Для этого понадобится видеокарта - можно выбрать любую на immers.cloud, RTX 3090 более чем достаточно, так как речь идет о легковесных 1B и 3B моделях.

После ротации можно выполнить обычную post-training квантизацию - для этого тоже есть готовый скрипт - и экспортировать модель для запуска на мобильном устройстве. Но как именно запустить Llama, скажем, на Android? Для этого служит ExecuTorch, фреймворк для создания Pytorch-программ под мобильные процессоры. И да, репозиторий SpinQuant предоставляет скрипты для экспорта весов в совместимый с ExecuTorch формат.

@ruslandevlive - мысли о современных AI/ML технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4👏2🎉2🏆1
⚡️ Как Llama 3.2 заработала на мобильных устройствах: квантизация и новые горизонты

Теперь даже мобильные устройства могут работать с последней версией Llama 3.2 благодаря новым подходам к квантизации. В статье наш амбассадор immers.cloud Ruslan Dev рассказывает, как технологии QLoRA и SpinQuant сделали возможным запуск языковых моделей на iOS и Android, сохранив их потенциал и экономя ресурсы. Вы узнаете об особенностях ExecuTorch и Llama Stack, которые обеспечивают высокую скорость инференса и кроссплатформенность.

📌 Хабр
📌 vc.ru
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥3👏3👍2
🏡Дайджест IT-новостей

1. Nvidia и MediaTek создают ARM-процессоры для ПК
Nvidia готовится выйти на рынок ARM-устройств для потребителей, работая над новой платформой с MediaTek. Ожидается, что релиз состоится в сентябре 2025 года и будет нацелен на премиум-устройства с Windows. Эта новинка обещает конкурировать с традиционными x86-решениями от Intel и AMD, а также предложит высокую производительность для игр и ресурсоемких задач.

2. AI-генерация в играх: Etched представили Oasis
Стартап Etched совместно с Decart выпустил демо-версию первой в мире игры, полностью созданной искусственным интеллектом. Игра Oasis работает на основе графических процессоров Nvidia H100 и напоминает Minecraft: генерация и визуализация игрового мира происходят в реальном времени под управлением ИИ. Проект привлек внимание благодаря открытию кода и использованию собственного чипа Sohu, который планируется для будущих версий.

3. Бигтех инвестирует $200 млрд в ИИ
Amazon, Microsoft, Meta* и Alphabet продолжают масштабные вложения в искусственный интеллект. В 2024 году их расходы на ИИ превысят $200 млрд, включая строительство дата-центров и закупку процессоров для ИИ. Несмотря на недовольство инвесторов темпами возврата вложений, компании уверены в долгосрочной пользе, считая ИИ важным элементом будущего роста.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍43🔥3
👩‍💻 Агенты Microsoft Copilot

В то время как разработчики экосистемы Llama делают ставку на кроссплатформенность, Microsoft вкладывается в нативную для Windows AI-платформу - Copilot и ее новую систему агентов.

Помимо агентов, сильными сторонами Microsoft Copilot являются глубокие интеграции с операционной системой Windows. Открытым экосистемам будет трудно конкурировать с Microsoft по части пользовательского опыта, и единственный способ предложить достойную альтернативу - это разрабатывать GenAI приложения под все доступные пользователям платформы, благо у разработчиков теперь есть возможности для этого. Достаточно развернуть необходимый программный стек на GPU immers.cloud и пользоваться преимуществами новых подходов к обучению моделей.

Microsoft тоже побуждает пользователей создавать AI-приложения на своей платформе - теперь можно создавать агентов в Copilot Studio и публиковать прямо в Copilot. Но так как OpenAI модели остаются закрытыми, разработчики экосистемы Llama и подобный открытых моделей сохраняют уникальное преимущество - доступ к низкоуровневым ML алгоритмам, возможность обучения, файнтюнинга, промпт-инжиниринга и квантизации моделей.

@ruslandevlive — мысли о современных AI/ML технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥4👏4👍3
🔔 Уведомления о доступности конфигураций GPU 

Хотим поделиться с вами удобным инструментом — Уведомлениях о доступности конфигураций GPU!

Если выбранная вами конфигурация Виртуальной Машины недоступна, вы можете установить уведомление, чтобы всегда быть в курсе её доступности. Благодаря посекундной тарификации, доступность оборудования может изменяться динамично, и вы сможете быстро получить доступ к нужной конфигурации, как только она станет свободной. 

Чтобы настроить уведомление, просто перейдите на страницу GPU по этой ссылке и нажмите на колокольчик (🔔) рядом с нужной конфигурацией. 

Как только оборудование станет доступным, вы получите уведомление на вашу электронную почту.
Please open Telegram to view this post
VIEW IN TELEGRAM
33👍3🎉1
🦾 Как использовать GenAI для анализа базы знаний

Одно из популярных практических применений GenAI - анализ базы знаний с помощью Retrieval Augmented Generation. Разработчики давно заметили, что ответы LLM становятся значительно полезнее, если они опираются на реальные данные, например, пользовательские файлы, документацию и так далее.

База может содержать очень много данных, но их польза зависит от того, как пользователь может их анализировать. Традиционные инструменты - SQL, различные алгоритмы поиска, построение графиков и диаграмм. Но AI оказался более мощным инструментом анализа данных, чем ранее известные разработчикам алгоритмы. На любой запрос в Гугле вы уже можете видеть результаты RAG со ссылками на различные документы в сети, которые LLM Гугла использовала в своем ответе.

Чтобы строить собственные RAG системы, нужно развернуть LLM на сервере достаточной вычислительной мощности. У нас в облаке immers.cloud есть GPU под разные нагрузки и виртуальные образы с программным стеком, необходимым для инференса моделей через интерфейс Pytorch или Tensorflow. Также нужно изучить векторные базы данных и фреймворки для создания RAG-процессов, такие как LangChain.

@ruslandevlive — мысли о современных AI/ML технологиях
4👍4🏆2
Как правильно выбрать конфигурацию под задачи 🧐

Выбирая конфигурацию, важно учитывать особенности вашего проекта: рендеринг, обучение нейросетей, гейминг, стриминг или задачи с интенсивной нагрузкой на диск. Следующие рекомендации помогут вам сделать оптимальный выбор для каждой задачи!

Учитывайте тип задачи и выбирайте оптимальную конфигурацию с immers.cloud для лучшей производительности и экономии бюджета! 💻
53👍3🤔1
🔩 Ваш гайд по освещению в Blender: топовые фишки и инструменты

Наш амбассадор Данил Грызлов написал новую статью на vc.ru:
«Как улучшить освещение в Blender: лучшие лайфхаки и аддоны».

Если вы хотите создавать потрясающие рендеры и анимации, освещение — это ключ к успеху! В статье вы узнаете:
✔️ Как быстро настроить источники света.
✔️ Какие аддоны упрощают работу.
✔️ Почему immers.cloud поможет в рендеринге сложных сцен.

Подробные советы и примеры уже ждут вас в материале!

💡 Смотрите видеоуроки и другие полезные материалы от Дани Грызлова:

📌 YouTube-канал
📌 Telegram-канал

Читайте статью и воплощайте свои идеи в Blender прямо сейчас!
Please open Telegram to view this post
VIEW IN TELEGRAM
5🎉3🏆3👍1
👨‍💻 Qwen2.5 Coder — лучшая открытая модель для генерации кода

Недавно опубликованная большая языковая модель Qwen2.5 Coder показывает SOTA по генерации программного кода. На самом деле это коллекция моделей, которая обладает рядом характеристик, делающих ее привлекательной для разработчиков.

Во-первых, в коллекцию вошли веса модели под любую конфигурацию: 0.5B / 3B / 14B / 32B. Последняя версия, наилучшая по бенчмаркам, близка к GPT-4o по качеству генерации кода. Эту модель можно развернуть в облаке immers.cloud и получить собственный мощный сервер — анализатор кода, или аналог GitHub Copilot.

А если нужен компактный помощник программиста на локальном девайсе, то веса меньшего размера сделаны как раз на этот случай - и все они поддерживаются Ollama.

Далее, благодаря длине контекстного окна 128К токенов и поддержке 92 языков программирования Qwen2.5 Coder должен быть полезен в решении широкого набора задач по программированию. Так ли это, сообществу разработчиков скоро предстоит оценить.

@ruslandevlive - мысли о современных AI/ML технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥54👏3👍21
📢 Дайджест новостей мира ИИ

1. Nvidia готова представить RTX 5090 и 5080
Компания Nvidia объявила о скором релизе первых видеокарт серии RTX 50. Новинки RTX 5090 и 5080 будут презентованы в январе 2025 года на выставке CES.

RTX 5090: 32 ГБ GDDR7 памяти, цена — $1999.
RTX 5080: 16 ГБ GDDR7 памяти, цена — $999.
С февраля 2025 года линейка пополнится моделями RTX 5070 и 5060, которые предложат отличное соотношение цены и производительности.


Архитектура Blackwell обещает значительный прирост производительности и энергоэффективности благодаря памяти GDDR7.

2. Проблемы с перегревом серверов на Nvidia Blackwell
Новые серверные чипы Nvidia Blackwell страдают от перегрева при установке в стойки на 72 GPU.

• Проблемы особенно актуальны для моделей Blackwell NVL72, потребляющих до 1 кВт на один чип.
• Nvidia работает над решением, но поставки могут быть ограничены до устранения неисправностей.


💡В immers.cloud таких проблем нет благодаря иммерсионному охлаждению, которое эффективно защищает оборудование от перегрева.

3. Российские ученые повысили точность распознавания объектов на фото
Ученые из T-Bank AI Research совместно с МИСИС и МФТИ разработали метод SDDE, который на 20% уменьшает ошибки распознавания ранее неизвестных объектов.

• Метод основан на глубоких ансамблях, использующих карты внимания для повышения точности.
• Технология имеет потенциал в медицинской диагностике и беспилотных автомобилях.


Мировой рынок компьютерного зрения растет, прогнозируя увеличение с $25,8 млрд в 2024 до $47 млрд к 2030 году.
👍43🎉3
📖 DeepSeek-R1-Lite-Preview: открытый аналог o1

Китайский AI-разработчик Deepseek разрабатывает открытую модель, способную строить пошаговые логические рассуждения - как OpenAI o1. Сейчас доступна ранняя версия этой модели DeepSeek-R1-Lite-Preview.

У этой модели интересные результаты по математическим бенчмаркам и задачам на логику - некоторые из них превосходят o1. Ещё одним безусловным преимуществом R1 является открытая цепочка мыслей, наконец-то можно наблюдать весь ход рассуждений модели в "сыром" виде. Как мы помним, OpenAI скрывают цепочку мыслей o1, показывают только саммари и результат.

DeepSeek-R1-Lite-Preview пока доступен через чат на сайте разработчика, скоро обещают доступ по API и, самое главное, открытый доступ к весам. Разработчики гадают, каков размер R1 Lite. Пока лишь известно, что модель "относительно небольшая", а значит, ее можно эффективно использовать на одной или нескольких видеокартах.

В связи с этим рекомендуем ознакомиться гайдом нашего амбассадора Ruslan Dev по облачным GPU immers.cloud и обучению LLM. Процесс инференса и файнтюнинга модели с логическими цепочками мыслей должен отличаться от рассмотренных мной моделей Llama, но это невероятно интересная и перспективная область.

@ruslandevlive — мысли о современных AI/ML технологиях
4🔥3👏3👍1
Что такое OpenAI Operator

Согласно недавнему отчёту Блумберг, OpenAI работает над AI-агентом, релиз которого состоится в январе. Новая система известна как Operator и предназначена для автоматического выполнения задач на пользовательском компьютере - от веб-запросов в браузере до написания кода.

AI-агенты управляются большими языковыми языковыми и интегрированы с различными API, чтобы обеспечить автономное выполнение задач. 
Кстати, в последних рейтингах среди открытых LLM, подходящих для создания AI-агентов, лидирует Qwen 2.5. Неизвестно, какими возможностями будет обладать Operator, но у открытых моделей есть перед ним большое преимущество - разработчики могут файнтюнить их на собственных данных.

На канале @ruslandevlive есть множество примеров файнтюнинга Llama с помощью GPU immers.cloud. Эти инструкции работают и для Qwen. Кроме того, только с открытой LLM агент может стать по-настоящему автономным, не зависящим от сторонних API. Это критично для некоторых задач, например, связанных с обработкой конфиденциальных данных.
4🎉442👍2
💾 Нужно больше места на диске вашей Виртуальной Машины? Расширить его в immers.cloud проще простого!

Рассказываем, как это сделать для разных типов ВМ — Volume-backed и Local. Управляйте ресурсами быстро и удобно.

Будь то ВМ Volume-backed или Local, расширение диска — это всего пара кликов в immers.cloud. Следуйте простой инструкции и забудьте о нехватке места!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤‍🔥4🎉41