Как правильно выбрать конфигурацию под задачи 🧐
Выбирая конфигурацию, важно учитывать особенности вашего проекта: рендеринг, обучение нейросетей, гейминг, стриминг или задачи с интенсивной нагрузкой на диск. Следующие рекомендации помогут вам сделать оптимальный выбор для каждой задачи!
Учитывайте тип задачи и выбирайте оптимальную конфигурацию с immers.cloud для лучшей производительности и экономии бюджета! 💻
Выбирая конфигурацию, важно учитывать особенности вашего проекта: рендеринг, обучение нейросетей, гейминг, стриминг или задачи с интенсивной нагрузкой на диск. Следующие рекомендации помогут вам сделать оптимальный выбор для каждой задачи!
Учитывайте тип задачи и выбирайте оптимальную конфигурацию с immers.cloud для лучшей производительности и экономии бюджета! 💻
⚡5❤3👍3🤔1
Наш амбассадор Данил Грызлов написал новую статью на vc.ru:
«Как улучшить освещение в Blender: лучшие лайфхаки и аддоны».
Если вы хотите создавать потрясающие рендеры и анимации, освещение — это ключ к успеху! В статье вы узнаете:
✔️ Как быстро настроить источники света.
✔️ Какие аддоны упрощают работу.
✔️ Почему immers.cloud поможет в рендеринге сложных сцен.
Подробные советы и примеры уже ждут вас в материале!
💡 Смотрите видеоуроки и другие полезные материалы от Дани Грызлова:
📌 YouTube-канал
📌 Telegram-канал
Читайте статью и воплощайте свои идеи в Blender прямо сейчас!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🎉3🏆3👍1
Недавно опубликованная большая языковая модель Qwen2.5 Coder показывает SOTA по генерации программного кода. На самом деле это коллекция моделей, которая обладает рядом характеристик, делающих ее привлекательной для разработчиков.
Во-первых, в коллекцию вошли веса модели под любую конфигурацию: 0.5B / 3B / 14B / 32B. Последняя версия, наилучшая по бенчмаркам, близка к GPT-4o по качеству генерации кода. Эту модель можно развернуть в облаке immers.cloud и получить собственный мощный сервер — анализатор кода, или аналог GitHub Copilot.
А если нужен компактный помощник программиста на локальном девайсе, то веса меньшего размера сделаны как раз на этот случай - и все они поддерживаются Ollama.
Далее, благодаря длине контекстного окна 128К токенов и поддержке 92 языков программирования Qwen2.5 Coder должен быть полезен в решении широкого набора задач по программированию. Так ли это, сообществу разработчиков скоро предстоит оценить.
@ruslandevlive - мысли о современных AI/ML технологиях
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5 4👏3👍2❤1
📢 Дайджест новостей мира ИИ
1. Nvidia готова представить RTX 5090 и 5080
Компания Nvidia объявила о скором релизе первых видеокарт серии RTX 50. Новинки RTX 5090 и 5080 будут презентованы в январе 2025 года на выставке CES.
Архитектура Blackwell обещает значительный прирост производительности и энергоэффективности благодаря памяти GDDR7.
2. Проблемы с перегревом серверов на Nvidia Blackwell
Новые серверные чипы Nvidia Blackwell страдают от перегрева при установке в стойки на 72 GPU.
💡В immers.cloud таких проблем нет благодаря иммерсионному охлаждению, которое эффективно защищает оборудование от перегрева.
3. Российские ученые повысили точность распознавания объектов на фото
Ученые из T-Bank AI Research совместно с МИСИС и МФТИ разработали метод SDDE, который на 20% уменьшает ошибки распознавания ранее неизвестных объектов.
Мировой рынок компьютерного зрения растет, прогнозируя увеличение с $25,8 млрд в 2024 до $47 млрд к 2030 году.
1. Nvidia готова представить RTX 5090 и 5080
Компания Nvidia объявила о скором релизе первых видеокарт серии RTX 50. Новинки RTX 5090 и 5080 будут презентованы в январе 2025 года на выставке CES.
• RTX 5090: 32 ГБ GDDR7 памяти, цена — $1999.
• RTX 5080: 16 ГБ GDDR7 памяти, цена — $999.
С февраля 2025 года линейка пополнится моделями RTX 5070 и 5060, которые предложат отличное соотношение цены и производительности.
Архитектура Blackwell обещает значительный прирост производительности и энергоэффективности благодаря памяти GDDR7.
2. Проблемы с перегревом серверов на Nvidia Blackwell
Новые серверные чипы Nvidia Blackwell страдают от перегрева при установке в стойки на 72 GPU.
• Проблемы особенно актуальны для моделей Blackwell NVL72, потребляющих до 1 кВт на один чип.
• Nvidia работает над решением, но поставки могут быть ограничены до устранения неисправностей.
💡В immers.cloud таких проблем нет благодаря иммерсионному охлаждению, которое эффективно защищает оборудование от перегрева.
3. Российские ученые повысили точность распознавания объектов на фото
Ученые из T-Bank AI Research совместно с МИСИС и МФТИ разработали метод SDDE, который на 20% уменьшает ошибки распознавания ранее неизвестных объектов.
• Метод основан на глубоких ансамблях, использующих карты внимания для повышения точности.
• Технология имеет потенциал в медицинской диагностике и беспилотных автомобилях.
Мировой рынок компьютерного зрения растет, прогнозируя увеличение с $25,8 млрд в 2024 до $47 млрд к 2030 году.
👍4❤3🎉3
📖 DeepSeek-R1-Lite-Preview: открытый аналог o1
Китайский AI-разработчик Deepseek разрабатывает открытую модель, способную строить пошаговые логические рассуждения - как OpenAI o1. Сейчас доступна ранняя версия этой модели DeepSeek-R1-Lite-Preview.
У этой модели интересные результаты по математическим бенчмаркам и задачам на логику - некоторые из них превосходят o1. Ещё одним безусловным преимуществом R1 является открытая цепочка мыслей, наконец-то можно наблюдать весь ход рассуждений модели в "сыром" виде. Как мы помним, OpenAI скрывают цепочку мыслей o1, показывают только саммари и результат.
DeepSeek-R1-Lite-Preview пока доступен через чат на сайте разработчика, скоро обещают доступ по API и, самое главное, открытый доступ к весам. Разработчики гадают, каков размер R1 Lite. Пока лишь известно, что модель "относительно небольшая", а значит, ее можно эффективно использовать на одной или нескольких видеокартах.
В связи с этим рекомендуем ознакомиться гайдом нашего амбассадора Ruslan Dev по облачным GPU immers.cloud и обучению LLM. Процесс инференса и файнтюнинга модели с логическими цепочками мыслей должен отличаться от рассмотренных мной моделей Llama, но это невероятно интересная и перспективная область.
Китайский AI-разработчик Deepseek разрабатывает открытую модель, способную строить пошаговые логические рассуждения - как OpenAI o1. Сейчас доступна ранняя версия этой модели DeepSeek-R1-Lite-Preview.
У этой модели интересные результаты по математическим бенчмаркам и задачам на логику - некоторые из них превосходят o1. Ещё одним безусловным преимуществом R1 является открытая цепочка мыслей, наконец-то можно наблюдать весь ход рассуждений модели в "сыром" виде. Как мы помним, OpenAI скрывают цепочку мыслей o1, показывают только саммари и результат.
DeepSeek-R1-Lite-Preview пока доступен через чат на сайте разработчика, скоро обещают доступ по API и, самое главное, открытый доступ к весам. Разработчики гадают, каков размер R1 Lite. Пока лишь известно, что модель "относительно небольшая", а значит, ее можно эффективно использовать на одной или нескольких видеокартах.
В связи с этим рекомендуем ознакомиться гайдом нашего амбассадора Ruslan Dev по облачным GPU immers.cloud и обучению LLM. Процесс инференса и файнтюнинга модели с логическими цепочками мыслей должен отличаться от рассмотренных мной моделей Llama, но это невероятно интересная и перспективная область.
@ruslandevlive — мысли о современных AI/ML технологиях
❤4🔥3👏3👍1
Что такое OpenAI Operator
Согласно недавнему отчёту Блумберг, OpenAI работает над AI-агентом, релиз которого состоится в январе. Новая система известна как Operator и предназначена для автоматического выполнения задач на пользовательском компьютере - от веб-запросов в браузере до написания кода.
AI-агенты управляются большими языковыми языковыми и интегрированы с различными API, чтобы обеспечить автономное выполнение задач.
Кстати, в последних рейтингах среди открытых LLM, подходящих для создания AI-агентов, лидирует Qwen 2.5. Неизвестно, какими возможностями будет обладать Operator, но у открытых моделей есть перед ним большое преимущество - разработчики могут файнтюнить их на собственных данных.
На канале @ruslandevlive есть множество примеров файнтюнинга Llama с помощью GPU immers.cloud. Эти инструкции работают и для Qwen. Кроме того, только с открытой LLM агент может стать по-настоящему автономным, не зависящим от сторонних API. Это критично для некоторых задач, например, связанных с обработкой конфиденциальных данных.
Согласно недавнему отчёту Блумберг, OpenAI работает над AI-агентом, релиз которого состоится в январе. Новая система известна как Operator и предназначена для автоматического выполнения задач на пользовательском компьютере - от веб-запросов в браузере до написания кода.
AI-агенты управляются большими языковыми языковыми и интегрированы с различными API, чтобы обеспечить автономное выполнение задач.
Кстати, в последних рейтингах среди открытых LLM, подходящих для создания AI-агентов, лидирует Qwen 2.5. Неизвестно, какими возможностями будет обладать Operator, но у открытых моделей есть перед ним большое преимущество - разработчики могут файнтюнить их на собственных данных.
На канале @ruslandevlive есть множество примеров файнтюнинга Llama с помощью GPU immers.cloud. Эти инструкции работают и для Qwen. Кроме того, только с открытой LLM агент может стать по-настоящему автономным, не зависящим от сторонних API. Это критично для некоторых задач, например, связанных с обработкой конфиденциальных данных.
❤4🎉4 4⚡2👍2
Рассказываем, как это сделать для разных типов ВМ — Volume-backed и Local. Управляйте ресурсами быстро и удобно.
Будь то ВМ Volume-backed или Local, расширение диска — это всего пара кликов в immers.cloud. Следуйте простой инструкции и забудьте о нехватке места!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤🔥4🎉4❤1
🛠 Простое подключение к виртуальной машине с Windows Server: пошаговая инструкция.
По умолчанию мы предоставляем подключение через Remote Desktop Protocol (RDP). Если для работы с Виртуальной Машиной (ВМ) требуется подключение другими способами (например, SSH для Linux), их необходимо будет настроить вручную.
Подключение из Windows
Подключение из MacOS
Для выключения Виртуальной Машины воспользуйтесь командой Stop в выпадающем меню «Действия».
❗️Важно:
Биллинг vCPU и RAM Виртуальной машины прекращается только при использовании указанного способа выключения.
Узнайте больше о возможностях наших ВМ и настройке подключения на странице с подробными инструкциями.
По умолчанию мы предоставляем подключение через Remote Desktop Protocol (RDP). Если для работы с Виртуальной Машиной (ВМ) требуется подключение другими способами (например, SSH для Linux), их необходимо будет настроить вручную.
Подключение из Windows
1. Расшифруйте пароль:
• В меню «Действия» выберите пункт Get password.
• На открывшейся странице нажмите кнопку «Показать».
2. Нажмите на IP-адрес, отображаемый на странице виртуальной машины, и сохраните на свой компьютер файл vmname.rdp.
3. Запустите скачанный файл.
4. Для входа используйте:
• Имя пользователя: admin.
• Пароль: тот, который вы расшифровали ранее.
Подключение из MacOS
1. Установите приложение Microsoft Remote Desktop из Mac App Store.
2. В приложении нажмите Add PC, введите IP-адрес ВМ в поле PC name и нажмите Add.
3. Расшифруйте пароль:
• В меню «Действия» выберите пункт Get password.
• На открывшейся странице нажмите кнопку «Показать».
4. Подключитесь к добавленной Виртуальной машине.
5. Для входа используйте:
• Имя пользователя: admin.
• Пароль: тот, который вы расшифровали ранее.
Для выключения Виртуальной Машины воспользуйтесь командой Stop в выпадающем меню «Действия».
❗️Важно:
Биллинг vCPU и RAM Виртуальной машины прекращается только при использовании указанного способа выключения.
Узнайте больше о возможностях наших ВМ и настройке подключения на странице с подробными инструкциями.
👍7❤5🔥5
🤖 AI агенты — это не только интеграция LLM с внешними системами
Большое разнообразие GenAI приложений в последнее время все чаще включает рабочие процессы, управляемые агентами.
Одно из свойств AI агентов — это способность интегрироваться с различными внешними API (вызов функций).
Наше облако immers.cloud предлагает новейшие видеокарты для быстрого инференса, что так важно для агентских систем, ведь они требуют значительно больше токенов в секунду, чем обычные zero-shot чатботы.
Помимо облачной инфраструктуры важна архитектура самой нейросети, сейчас получают распространение модели рассуждений, Large Reasoning Model - на моем телеграм канале выходят публикации об этом. Рекомендую рассмотреть Marco-o1, LRM на базе Qwen 2, которая дает представление о том, как обучать такие модели, какие использовать стратегии промптинга.
Большое разнообразие GenAI приложений в последнее время все чаще включает рабочие процессы, управляемые агентами.
Одно из свойств AI агентов — это способность интегрироваться с различными внешними API (вызов функций).
Наше облако immers.cloud предлагает новейшие видеокарты для быстрого инференса, что так важно для агентских систем, ведь они требуют значительно больше токенов в секунду, чем обычные zero-shot чатботы.
Помимо облачной инфраструктуры важна архитектура самой нейросети, сейчас получают распространение модели рассуждений, Large Reasoning Model - на моем телеграм канале выходят публикации об этом. Рекомендую рассмотреть Marco-o1, LRM на базе Qwen 2, которая дает представление о том, как обучать такие модели, какие использовать стратегии промптинга.
@ruslandevlive — мысли о современных AI/ML технологиях
👏5❤3🔥3👍2
🎬 Новогодний киномарафон для айтишников
Праздники — время расслабиться, зарядиться вдохновением и немного поразмышлять о технологиях, которые делают нашу жизнь ярче. Мы собрали подборку фильмов и сериалов, которые идеально подойдут для уютных зимних вечеров.
От биографий гениальных изобретателей до фантастических историй о будущем — каждый найдет что-то интересное!
Заваривайте какао, укутывайтесь в плед и готовьтесь погрузиться в мир ИТ и праздничный киномарафон начинается! 🎉
Праздники — время расслабиться, зарядиться вдохновением и немного поразмышлять о технологиях, которые делают нашу жизнь ярче. Мы собрали подборку фильмов и сериалов, которые идеально подойдут для уютных зимних вечеров.
От биографий гениальных изобретателей до фантастических историй о будущем — каждый найдет что-то интересное!
Заваривайте какао, укутывайтесь в плед и готовьтесь погрузиться в мир ИТ и праздничный киномарафон начинается! 🎉
🔥6👏5❤4👍2