🧱 Что если собирать 3D-модели так же легко, как конструктор LEGO? 
Давно у нас не было интересных моделей для генерации 3D-объектов, как раз вышла новая SOTA - OmniPart.
Вместо того чтобы генерировать объект целиком (и надеяться, что он не выйдет «слипшимся»), OmniPart:
1. ПОзвоялет задавать структуру - где будут ножки у стула, спинка, подлокотники и т.д.
2. Затем модель генерирует каждую часть отдельно, но с учётом общей формы и стиля.
3. Собирает всё в единый, согласованный 3D-объект.
 
🔹 Моделька поддерживает кастомные макеты можно задаёте, задавать различные части и где должны быть.
🔹 Даёт точный контроль над каждой деталью (цвет, форма, материал).
🔹 Показывает лучшее в классе качество (SOTA) за счёт семантического разделения и структурной е.
📚 Детали
• Статья: arXiv:2507.06165
• Проект: omnipart.github.io
• Код: github.com/HKU-MMLab/OmniPart
• Демо: Hugging Face Spaces
  
#3D #генеративныйИИ #компьютерноезрение #OmniPart #искусственныйинтеллект
Давно у нас не было интересных моделей для генерации 3D-объектов, как раз вышла новая SOTA - OmniPart.
Вместо того чтобы генерировать объект целиком (и надеяться, что он не выйдет «слипшимся»), OmniPart:
1. ПОзвоялет задавать структуру - где будут ножки у стула, спинка, подлокотники и т.д.
2. Затем модель генерирует каждую часть отдельно, но с учётом общей формы и стиля.
3. Собирает всё в единый, согласованный 3D-объект.
🔹 Моделька поддерживает кастомные макеты можно задаёте, задавать различные части и где должны быть.
🔹 Даёт точный контроль над каждой деталью (цвет, форма, материал).
🔹 Показывает лучшее в классе качество (SOTA) за счёт семантического разделения и структурной е.
📚 Детали
• Статья: arXiv:2507.06165
• Проект: omnipart.github.io
• Код: github.com/HKU-MMLab/OmniPart
• Демо: Hugging Face Spaces
#3D #генеративныйИИ #компьютерноезрение #OmniPart #искусственныйинтеллект
❤16👍6🥰3
  🚀 Mistral AI Studio: новая платформа для «ИИ-в продакшн»
Mistral AI Studio позиционируется как «платформа для производства ИИ»: с тремя основными столпами: Observability, Agent Runtime и AI Registry.
✅ Основные функции
Observability: подробный просмотр трафика, фильтры, анализ ошибок, сбор данных об использовании.
Agent Runtime: запусне агентов , повторением, трассировкой, в гибкой среде, включая гибридные и on-prem решения.
AI Registry: единый реестр моделей, наборов данных, инструментов и рабочих процессов с версионированием, аудиторией, контролем доступа.
https://mistral.ai/news/ai-studio
Mistral AI Studio позиционируется как «платформа для производства ИИ»: с тремя основными столпами: Observability, Agent Runtime и AI Registry.
✅ Основные функции
Observability: подробный просмотр трафика, фильтры, анализ ошибок, сбор данных об использовании.
Agent Runtime: запусне агентов , повторением, трассировкой, в гибкой среде, включая гибридные и on-prem решения.
AI Registry: единый реестр моделей, наборов данных, инструментов и рабочих процессов с версионированием, аудиторией, контролем доступа.
https://mistral.ai/news/ai-studio
❤10🔥3🥰3😐2
  📘 На Stepik вышел курс — «ML-инженер: от первой модели до продакшена»
Хотите не просто натренировать модель в ноутбуке, а довести её до реального продукта? Этот курс — полный путь от основ до production.
• Математика и Python: линейная алгебра, статистика, NumPy, Pandas, визуализация (Matplotlib, Seaborn, Plotly)
• Классика ML: регрессия, KNN, деревья решений, Random Forest, SVM, Naive Bayes
• Ансамбли: XGBoost, LightGBM, CatBoost, подбор параметров (Optuna, Hyperopt), MLflow
• Deep Learning: PyTorch и TensorFlow/Keras, CNN, RNN/LSTM, Attention, Transfer Learning
• Работа с данными: парсинг (BeautifulSoup, Scrapy), SQL/API, feature engineering
• Продвинутые задачи: рекомендательные системы, временные ряды (ARIMA, Prophet), SHAP и LIME
• MLOps: FastAPI, Docker, деплой в облако, мониторинг моделей
• Подготовка к собеседованиям: технические вопросы, системный дизайн, SQL, портфолио
🎓 Сертификат — добавьте в резюме или LinkedIn
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс на Stepik
Хотите не просто натренировать модель в ноутбуке, а довести её до реального продукта? Этот курс — полный путь от основ до production.
• Математика и Python: линейная алгебра, статистика, NumPy, Pandas, визуализация (Matplotlib, Seaborn, Plotly)
• Классика ML: регрессия, KNN, деревья решений, Random Forest, SVM, Naive Bayes
• Ансамбли: XGBoost, LightGBM, CatBoost, подбор параметров (Optuna, Hyperopt), MLflow
• Deep Learning: PyTorch и TensorFlow/Keras, CNN, RNN/LSTM, Attention, Transfer Learning
• Работа с данными: парсинг (BeautifulSoup, Scrapy), SQL/API, feature engineering
• Продвинутые задачи: рекомендательные системы, временные ряды (ARIMA, Prophet), SHAP и LIME
• MLOps: FastAPI, Docker, деплой в облако, мониторинг моделей
• Подготовка к собеседованиям: технические вопросы, системный дизайн, SQL, портфолио
🎓 Сертификат — добавьте в резюме или LinkedIn
🚀 Скидка 25%, действует 48 часов
👉 Пройти курс на Stepik
😁8❤6☃3👍2💊2🔥1🤪1
  🚀 ModelOpt: NVIDIA TensorRT Model Optimizer  
Опенсорс-тулкит для ускорения моделей прямо в продакшене ⚡
✨ Возможности:
• Оптимизация end-to-end: quantization, pruning, distillation, speculative decoding, sparsity
• Поддержка Hugging Face, PyTorch, ONNX моделей
• Интеграция с NeMo, Megatron-LM, HF Accelerate
• Деплой в SGLang, TensorRT-LLM, TensorRT, vLLM
🔗 Репозиторий: https://github.com/NVIDIA/TensorRT-Model-Optimizer
@machinelearning_interview
Опенсорс-тулкит для ускорения моделей прямо в продакшене ⚡
✨ Возможности:
• Оптимизация end-to-end: quantization, pruning, distillation, speculative decoding, sparsity
• Поддержка Hugging Face, PyTorch, ONNX моделей
• Интеграция с NeMo, Megatron-LM, HF Accelerate
• Деплой в SGLang, TensorRT-LLM, TensorRT, vLLM
🔗 Репозиторий: https://github.com/NVIDIA/TensorRT-Model-Optimizer
@machinelearning_interview
👍7🔥3❤1
  🖼️ Комикс-атакa на мультимодальные модели: простой сюжет превращается в jailbreak
Недавняя публикация показывает, как последовательные комиксы могут обойти защиту даже у топовых мультимодальных моделей.
Они достигают успеха атаки в среднем 83.5%, что примерно на 46% выше предыдущих визуальных методов.
Вот как это работает:
- Опасный запрос разбивается на маленький рассказ, по кадрам - комикс.
- Каждый кадр сам по себе безопасен: персонаж находит инструмент, планирует, действует.
- Модель, способная видеть и читать, смотрит все кадры и пытается понять сюжет.
- Она соединяет шаги, восстанавливает скрытое значение, которого нет явно.
- В конце модель невольно восстанавливает полную вредоносную инструкцию, спрятанную между строк и картинками.
Почему это проходит защиту?
Потому что фильтры безопасности проверяют каждое изображение отдельно, а не весь рассказ целиком. Так что каждый кадр выглядит безопасным, но когда модель «собирает историю», она воспроизводит запретный контент.
📄 Подробнее читай: arxiv.org/abs/2510.15068
Недавняя публикация показывает, как последовательные комиксы могут обойти защиту даже у топовых мультимодальных моделей.
Они достигают успеха атаки в среднем 83.5%, что примерно на 46% выше предыдущих визуальных методов.
Вот как это работает:
- Опасный запрос разбивается на маленький рассказ, по кадрам - комикс.
- Каждый кадр сам по себе безопасен: персонаж находит инструмент, планирует, действует.
- Модель, способная видеть и читать, смотрит все кадры и пытается понять сюжет.
- Она соединяет шаги, восстанавливает скрытое значение, которого нет явно.
- В конце модель невольно восстанавливает полную вредоносную инструкцию, спрятанную между строк и картинками.
Почему это проходит защиту?
Потому что фильтры безопасности проверяют каждое изображение отдельно, а не весь рассказ целиком. Так что каждый кадр выглядит безопасным, но когда модель «собирает историю», она воспроизводит запретный контент.
📄 Подробнее читай: arxiv.org/abs/2510.15068
👍12🤣5❤3
  В публикации на блоге vLLM описан новый режим работы - Sleep Mode - который позволяет резко ускорить переключение между языковыми моделями. Традиционные методы требуют либо держать обе модели загруженными (что удваивает нагрузку на GPU), либо перезагружать их по очереди с паузой в 30–100 секунд. Sleep Mode предлагает третий вариант: модели «усыпляют» и «просыпают» за считанные секунды, сохраняя уже инициализированное состояние.
Доступны два уровня сна: уровень 1 - веса сбрасываются на RAM, быстрый подъём, но требуется много оперативной памяти; уровень 2 - веса выгружаются полностью, минимальное использование RAM, подъём чуть медленнее. Оба уровня дали прирост производительности: переключения моделей стали от 18 до 200 раз быстрее, а время инференса после пробуждения - на 61–88 % выше, поскольку сохраняется память процессов, CUDA-графы и JIT-компиляция.
Sleep Mode идеально подходит для сценариев с частым использованием разных моделей и делает практичным мульти-модельное обслуживание даже на GPU среднего уровня - от A4000 до A100.
Блог: https://blog.vllm.ai/2025/10/26/sleep-mode.html
Please open Telegram to view this post
    VIEW IN TELEGRAM
  Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤17👍9🔥4🥰3
  🧠 ИИ теперь не только создаёт знания — он их спасает  
Издательская группа Frontiers сообщила: около 90% научных данных никогда не переиспользуются и не публикуются должным образом.
Иными словами, большинство открытий исчезает в цифровом небытии.
Чтобы это изменить, Frontiers запустила платформу на базе ИИ, которая
- сканирует забытые исследования,
- систематизирует данные,
- и связывает их между собой, превращая «потерянные» результаты в новые открытия.
💡 Наука тонет в данных — и теперь именно ИИ помогает достать их на поверхность.
https://www.sciencedaily.com/releases/2025/10/251013040314.htm
Издательская группа Frontiers сообщила: около 90% научных данных никогда не переиспользуются и не публикуются должным образом.
Иными словами, большинство открытий исчезает в цифровом небытии.
Чтобы это изменить, Frontiers запустила платформу на базе ИИ, которая
- сканирует забытые исследования,
- систематизирует данные,
- и связывает их между собой, превращая «потерянные» результаты в новые открытия.
💡 Наука тонет в данных — и теперь именно ИИ помогает достать их на поверхность.
https://www.sciencedaily.com/releases/2025/10/251013040314.htm
👍26🔥8❤4
  ⚙️ Yandex Cloud удвоил выручку от ИИ-сервисов
За девять месяцев 2025 года совокупная выручка облачных и on-premises ИИ-сервисов Yandex Cloud достигла 1,5 млрд ₽ — в два раза больше, чем за тот же период прошлого года.
Рост обеспечен высоким спросом бизнеса на генеративные модели, ML-сервисы и инструменты для создания собственных AI-решений. Всё это объединено в единую платформу Yandex AI Studio, где компании могут за несколько часов собрать собственного AI-агента и встроить его в продукт.
Помимо облака, активно растёт on-premises-направление: YandexGPT, SpeechKit и SpeechSense теперь доступны для развёртывания прямо в инфраструктуре клиента — это важно для компаний, где критична безопасность данных и контроль над моделью.
В третьем квартале также усилилось направление кибербезопасности: сервисами ИБ пользовался каждый четвёртый коммерческий клиент, а выручка в этом сегменте выросла в 2,5 раза год к году. Кроме того, Yandex B2B Tech создал совместное предприятие с SolidSoft, чтобы укрепить защиту бизнес-инфраструктуры и ускорить развитие ИБ-сервисов в облаке.
За девять месяцев 2025 года совокупная выручка облачных и on-premises ИИ-сервисов Yandex Cloud достигла 1,5 млрд ₽ — в два раза больше, чем за тот же период прошлого года.
Рост обеспечен высоким спросом бизнеса на генеративные модели, ML-сервисы и инструменты для создания собственных AI-решений. Всё это объединено в единую платформу Yandex AI Studio, где компании могут за несколько часов собрать собственного AI-агента и встроить его в продукт.
Помимо облака, активно растёт on-premises-направление: YandexGPT, SpeechKit и SpeechSense теперь доступны для развёртывания прямо в инфраструктуре клиента — это важно для компаний, где критична безопасность данных и контроль над моделью.
В третьем квартале также усилилось направление кибербезопасности: сервисами ИБ пользовался каждый четвёртый коммерческий клиент, а выручка в этом сегменте выросла в 2,5 раза год к году. Кроме того, Yandex B2B Tech создал совместное предприятие с SolidSoft, чтобы укрепить защиту бизнес-инфраструктуры и ускорить развитие ИБ-сервисов в облаке.
👍4❤3😁1
  🤖 Многоагентная система кодинга
Этот проект представляет собой многоагентную ИИ-систему, которая использует оркестратор для координации работы исследовательских и кодирующих агентов. Оркестратор разбивает задачи на подзадачи и управляет процессом, обеспечивая стратегический подход к решению задач.
🚀 Основные моменты:
- Достижения: 12-е место в TerminalBench, превосходя Claude Code.
- Оркестратор управляет делегированием и верификацией задач.
- Агенты работают с уникальными контекстами и инструментами.
- Инновационный подход к совместному использованию знаний через контекстный хранилище.
📌 GitHub: https://github.com/Danau5tin/multi-agent-coding-system
#python
Этот проект представляет собой многоагентную ИИ-систему, которая использует оркестратор для координации работы исследовательских и кодирующих агентов. Оркестратор разбивает задачи на подзадачи и управляет процессом, обеспечивая стратегический подход к решению задач.
🚀 Основные моменты:
- Достижения: 12-е место в TerminalBench, превосходя Claude Code.
- Оркестратор управляет делегированием и верификацией задач.
- Агенты работают с уникальными контекстами и инструментами.
- Инновационный подход к совместному использованию знаний через контекстный хранилище.
📌 GitHub: https://github.com/Danau5tin/multi-agent-coding-system
#python
❤10👍6🔥3
  🔥 Вот такое мы любим: практический интенсив под реальные задачи LLM. 
LLM Scaling Week от ШАДа и Яндекс Образования. Вам расскажут о том, как ещё сильнее ускорять обучение и инференс LLM, снижать затраты на GPU и максимально эффективно масштабировать проекты.
— Разберетесь в коммуникации в распределенном обучении и инференсе
— Познакомитесь и попрактикуетесь в современных подходах к увеличению эффективности обучения LLM: от FP8 и Triton до параллелизмов и Mixture of Experts
— Погрузитесь в арифметику глубокого обучения
— Изучите кейсы и поймете принципы, как не сжигая бюджет перейти с одной до десятка GPU
В итоге научитесь масштабировать, ускорять модели и получите навыки, которые можно сразу применять в проектах.
Участие в LLM Scaling Week в конце ноября бесплатное, но нужно зарегистрироваться. Сейчас самое время — ссылка
LLM Scaling Week от ШАДа и Яндекс Образования. Вам расскажут о том, как ещё сильнее ускорять обучение и инференс LLM, снижать затраты на GPU и максимально эффективно масштабировать проекты.
— Разберетесь в коммуникации в распределенном обучении и инференсе
— Познакомитесь и попрактикуетесь в современных подходах к увеличению эффективности обучения LLM: от FP8 и Triton до параллелизмов и Mixture of Experts
— Погрузитесь в арифметику глубокого обучения
— Изучите кейсы и поймете принципы, как не сжигая бюджет перейти с одной до десятка GPU
В итоге научитесь масштабировать, ускорять модели и получите навыки, которые можно сразу применять в проектах.
Участие в LLM Scaling Week в конце ноября бесплатное, но нужно зарегистрироваться. Сейчас самое время — ссылка
❤11🔥5👏3
  🤖 GaussGym: обучайте роботов ходить прямо из пикселей — быстро, фотореалистично и открыто 
Представлен GaussGym - open-source фреймворк для симуляции роботов, который впервые объединяет высокую скорость и фотореалистичное зрение.
С помощью 3D Gaussian Splatting, встроенного как drop-in рендерер в векторизованные симуляторы (например, IsaacGym), GaussGym позволяет обучать визуомоторные политики на основе RGB-изображений со скоростью свыше 100 000 шагов в секунду — даже на одной RTX 4090.
🔹 Создавайте тренировочные миры из видео с iPhone, датасетов (GrandTour, ARKit) или генеративных видео (например, через Veo)
🔹 Автоматически стройте физически корректные сцены с помощью VGGT и NKSR — без ручного 3D-моделирования
🔹 Тренируйте политики навигации и локомоции прямо из пикселей, а затем переносите их в реальный мир без донастройки (zero-shot sim2real) — авторы уже продемонстрировали восхождение робота по 17-см ступенькам
🔹 Поддержка глубины, motion blur, рандомизации камеры и других реалистичных эффектов для лучшего переноса
Всё это — полностью открыто: код, данные, модели и даже готовые датасеты на Hugging Face.
GaussGym стирает компромисс между скоростью и реализмом в робототехнике — и делает обучение роботов изображениям действительно масштабируемым.
🔗 Демо: https://escontrela.me/gauss_gym/
📄 Paper: https://arxiv.org/abs/2510.15352
💾 Data: https://huggingface.co/collections/escontra/gauss-gym-datasets
💻 Code: https://github.com/escontra/gauss_gym
Представлен GaussGym - open-source фреймворк для симуляции роботов, который впервые объединяет высокую скорость и фотореалистичное зрение.
С помощью 3D Gaussian Splatting, встроенного как drop-in рендерер в векторизованные симуляторы (например, IsaacGym), GaussGym позволяет обучать визуомоторные политики на основе RGB-изображений со скоростью свыше 100 000 шагов в секунду — даже на одной RTX 4090.
🔹 Создавайте тренировочные миры из видео с iPhone, датасетов (GrandTour, ARKit) или генеративных видео (например, через Veo)
🔹 Автоматически стройте физически корректные сцены с помощью VGGT и NKSR — без ручного 3D-моделирования
🔹 Тренируйте политики навигации и локомоции прямо из пикселей, а затем переносите их в реальный мир без донастройки (zero-shot sim2real) — авторы уже продемонстрировали восхождение робота по 17-см ступенькам
🔹 Поддержка глубины, motion blur, рандомизации камеры и других реалистичных эффектов для лучшего переноса
Всё это — полностью открыто: код, данные, модели и даже готовые датасеты на Hugging Face.
GaussGym стирает компромисс между скоростью и реализмом в робототехнике — и делает обучение роботов изображениям действительно масштабируемым.
🔗 Демо: https://escontrela.me/gauss_gym/
📄 Paper: https://arxiv.org/abs/2510.15352
💾 Data: https://huggingface.co/collections/escontra/gauss-gym-datasets
💻 Code: https://github.com/escontra/gauss_gym
😱5👍4❤2🔥1
  🔥Прими участие в Хакатоне от ИТ-холдинга Т1 в Москве и поборись за призовой фонд 1 200 000 рублей!
Когда: 25–28 ноября
Формат: онлайн + финал на площадке
Участвуй, если ты:
🔹обучаешься на технической или ИТ-специальности
🔹развиваешься в направлении разработки, системной администрации, AI/ML или DevOps
🔹сможешь быть в Москве 28 ноября.
Выбери свой кейс:
✴️VibeCode Jam: собеседование будущего. Создай ИИ-платформу для прохождения технических собеседований с виртуальным интервьюером.
✴️Self-Deploy: CI/CD без DevOps. Автоматизируй генерацию CI/CD пайплайнов по анализу структуры Git-репозитория.
Почему стоит участвовать:
🔘Кейс в портфолио и полезная обратная связь от менторов Т1
🔘Шанс проявить себя, чтобы начать карьеру в одной из крупнейших ИТ-компаний
🔘Реальный опыт командной работы
🔘Мерч и атмосфера сильного комьюнити — в Т1 более 5 000 джунов из 580+ вузов России и Беларуси.
Регистрация открыта!
➡️ Успей до 23 ноября по ссылке.
#реклама
О рекламодателе
  Когда: 25–28 ноября
Формат: онлайн + финал на площадке
Участвуй, если ты:
🔹обучаешься на технической или ИТ-специальности
🔹развиваешься в направлении разработки, системной администрации, AI/ML или DevOps
🔹сможешь быть в Москве 28 ноября.
Выбери свой кейс:
✴️VibeCode Jam: собеседование будущего. Создай ИИ-платформу для прохождения технических собеседований с виртуальным интервьюером.
✴️Self-Deploy: CI/CD без DevOps. Автоматизируй генерацию CI/CD пайплайнов по анализу структуры Git-репозитория.
Почему стоит участвовать:
🔘Кейс в портфолио и полезная обратная связь от менторов Т1
🔘Шанс проявить себя, чтобы начать карьеру в одной из крупнейших ИТ-компаний
🔘Реальный опыт командной работы
🔘Мерч и атмосфера сильного комьюнити — в Т1 более 5 000 джунов из 580+ вузов России и Беларуси.
Регистрация открыта!
➡️ Успей до 23 ноября по ссылке.
#реклама
О рекламодателе
🎓 Stanford выпустил новый курс: “Transformers & Large Language Models”
Авторы - братья Amidi, и уже вышли три бесплатные лекции на YouTube. Это, пожалуй, один из самых системных вводных курсов по современным LLM.
Содержание курса:
• Transformers: токенизация, эмбеддинги, attention, архитектура
• Основы LLM: Mixture of Experts, типы декодирования
• Обучение и настройка: SFT, RL, LoRA
• Оценка моделей: LLM/VLM-as-a-judge, лучшие практики
• Трюки: RoPE, аппроксимации attention, квантизация
• Резонирование: масштабирование при обучении и инференсе
• Agentic-подходы: RAG, tool calling
Если ты уже знаком с этой темой — отличный повод освежить знания и попробовать реализовать некоторые приёмы с нуля.
https://cme295.stanford.edu/syllabus/
Авторы - братья Amidi, и уже вышли три бесплатные лекции на YouTube. Это, пожалуй, один из самых системных вводных курсов по современным LLM.
Содержание курса:
• Transformers: токенизация, эмбеддинги, attention, архитектура
• Основы LLM: Mixture of Experts, типы декодирования
• Обучение и настройка: SFT, RL, LoRA
• Оценка моделей: LLM/VLM-as-a-judge, лучшие практики
• Трюки: RoPE, аппроксимации attention, квантизация
• Резонирование: масштабирование при обучении и инференсе
• Agentic-подходы: RAG, tool calling
Если ты уже знаком с этой темой — отличный повод освежить знания и попробовать реализовать некоторые приёмы с нуля.
https://cme295.stanford.edu/syllabus/
❤16👍6🔥2🤣1
  Поговорим про деньги в IT?
Приглашаем опытных IT-специалистов пройти небольшой опрос про зарплаты и бенефиты в технологических компаниях. Это займёт не более 7 минут — а ваше мнение поможет одному крупному российскому работодателю делать актуальные оферы.
Пройти опрос можно здесь
Приглашаем опытных IT-специалистов пройти небольшой опрос про зарплаты и бенефиты в технологических компаниях. Это займёт не более 7 минут — а ваше мнение поможет одному крупному российскому работодателю делать актуальные оферы.
Пройти опрос можно здесь
👍3👌2🙈2👏1
  Forwarded from Machinelearning
  
🧾 Microsoft раскрыла цифры, которые показывают масштабы расходов OpenAI.
В отчёте для SEC видно: OpenAI потеряла около $11.5 млрд за один квартал.
Это считается по методу учёта доли — Microsoft владеет примерно 27% OpenAI и списала у себя $3.1 млрд. Если 27% = $3.1 млрд убытка, то общий минус - около $11.5 млрд.
Ещё один факт: Microsoft уже перечислила $11.6 млрд из обещанных $13 млрд - почти всё финансирование уже пришло в OpenAI.
И при этом Microsoft за тот же период заработала $27.7 млрд чистой прибыли, так что такой минус она спокойно выдерживает.
Гонка за лидерство в ИИ - это игра, где даже крупнейшие компании готовы сжигать гигантские суммы.
Интересно посмотреть, сколько она ещё продлится и кто выдержит дольше?
theregister.com/2025/10/29/microsoft_earnings_q1_26_openai_loss
@ai_machinelearning_big_data
#opanai #Microsoft #money
В отчёте для SEC видно: OpenAI потеряла около $11.5 млрд за один квартал.
Это считается по методу учёта доли — Microsoft владеет примерно 27% OpenAI и списала у себя $3.1 млрд. Если 27% = $3.1 млрд убытка, то общий минус - около $11.5 млрд.
Ещё один факт: Microsoft уже перечислила $11.6 млрд из обещанных $13 млрд - почти всё финансирование уже пришло в OpenAI.
И при этом Microsoft за тот же период заработала $27.7 млрд чистой прибыли, так что такой минус она спокойно выдерживает.
Гонка за лидерство в ИИ - это игра, где даже крупнейшие компании готовы сжигать гигантские суммы.
Интересно посмотреть, сколько она ещё продлится и кто выдержит дольше?
theregister.com/2025/10/29/microsoft_earnings_q1_26_openai_loss
@ai_machinelearning_big_data
#opanai #Microsoft #money
🔥10❤5👍1
  This media is not supported in your browser
    VIEW IN TELEGRAM
  27 ноября Яндекс проведёт Data Dojo — встречу сообщества ML-экспертов
Обсудим востребованные направления машинного обучения, разберём реальные задачи из соревнований и понетворкаем с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Для участия офлайн или онлайн нужно заполнить анкету до 16 ноября. 👉 Заявка на Data Dojo
Всех ждём в нашем ML-комьюнити — совершенствовать мастерство вместе с Data Dojo.
Реклама. ООО "Яндекс". ИНН 7736207543
Додзё в японской культуре — место, где мастер и ученик ежедневно совершенствуют своё мастерство и дух. Мы перенесли этот принцип в мир данных — отсюда и название Data Dojo.
Обсудим востребованные направления машинного обучения, разберём реальные задачи из соревнований и понетворкаем с руководителями команд, чтобы узнать больше о карьере ML’щика в Яндексе.
Для участия офлайн или онлайн нужно заполнить анкету до 16 ноября. 👉 Заявка на Data Dojo
Всех ждём в нашем ML-комьюнити — совершенствовать мастерство вместе с Data Dojo.
Реклама. ООО "Яндекс". ИНН 7736207543
❤6
  🚀 Nvidia инвестирует до $1 млрд в Poolside - стартап, создающий инструменты автоматизации программирования. Раунд нацелен на $2 млрд при оценке $12 млрд.
Условия сделки:
- стартовый чек Nvidia - $500 млн, с ростом до $1 млрд при достижении целей по привлечению капитала;
- уже подтверждено более $1 млрд, ~**$700 млн** - от текущих инвесторов.
Что делает Poolside
- автоматизация разработки и генерирование кода;
- фокус на гос-сектор и оборону;
- долгосрочная цель — системы AGI.
Зачем деньги
- закупка кластеров Nvidia GB300 (Blackwell Ultra, 72 GPU + Grace CPU, оптимизировано под высокоскоростной инференс);
- масштабирование compute и R&D.
Контекст
- проект связан с Project Horizon - дата-центром на 2 ГВт в Техасе (CoreWeave), мощность которой сопоставима с энергией для 1.5 млн домов.
- Nvidia в 2025 уже проинвестировала 59+ AI-стартапов — растит спрос на свои чипы и усиливает позиции в AI-инфраструктуре.
Poolside получает доверие рынка и доступ к топовой вычислительной мощности. Nvidia укрепляет доминирование в AI-железе.
Автогенерация кода выходит из экспериментов в реальный продакшн-масштаб.
#Nvidia #AI #AGI #VC #DeepTech
bloomberg com/news/articles/2025-10-30/nvidia-to-invest-up-to-1-billion-in-ai-startup-poolside
Условия сделки:
- стартовый чек Nvidia - $500 млн, с ростом до $1 млрд при достижении целей по привлечению капитала;
- уже подтверждено более $1 млрд, ~**$700 млн** - от текущих инвесторов.
Что делает Poolside
- автоматизация разработки и генерирование кода;
- фокус на гос-сектор и оборону;
- долгосрочная цель — системы AGI.
Зачем деньги
- закупка кластеров Nvidia GB300 (Blackwell Ultra, 72 GPU + Grace CPU, оптимизировано под высокоскоростной инференс);
- масштабирование compute и R&D.
Контекст
- проект связан с Project Horizon - дата-центром на 2 ГВт в Техасе (CoreWeave), мощность которой сопоставима с энергией для 1.5 млн домов.
- Nvidia в 2025 уже проинвестировала 59+ AI-стартапов — растит спрос на свои чипы и усиливает позиции в AI-инфраструктуре.
Poolside получает доверие рынка и доступ к топовой вычислительной мощности. Nvidia укрепляет доминирование в AI-железе.
Автогенерация кода выходит из экспериментов в реальный продакшн-масштаб.
#Nvidia #AI #AGI #VC #DeepTech
bloomberg com/news/articles/2025-10-30/nvidia-to-invest-up-to-1-billion-in-ai-startup-poolside
🔥6❤3👍1
  Хотите научиться «разговаривать» с аудиторией на языке персонализированных рекомендаций?
Вебинар: «Методы сегментации в рекомендациях»
Когда: 5 ноября, 20:00 (МСК).
Формат: онлайн.
Участие: бесплатное.
На уроке разберём:
✅  как с помощью RFM‑анализа «распаковать» поведение клиентов;
✅  методы кластеризации — как группировать пользователей «по интересам»;
✅   сегментацию через логистическую регрессию — как превратить данные в работающие рекомендации.
Вы узнаете:
- как выделять целевые группы для маркетинговых кампаний;
- как персонализировать предложения без лишних затрат;
- в каких случаях достаточно классических ML‑методов — и не нужно «изобретать велосипед».
Будет полезно IT‑специалистам, которые хотят прокачать навыки в Data Science; дата‑сайентистам, ищущим реальные кейсы для применения знаний.
Открытый урок пройдет в рамках курса «Рекомендательные системы» от Otus! Не упустите шанс заглянуть в «кухню» рекомендательных систем!
➡️  Регистрируйтесь по ссылке: (https://tglink.io/42f56813042d?erid=2W5zFK5g5be
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Вебинар: «Методы сегментации в рекомендациях»
Когда: 5 ноября, 20:00 (МСК).
Формат: онлайн.
Участие: бесплатное.
На уроке разберём:
Вы узнаете:
- как выделять целевые группы для маркетинговых кампаний;
- как персонализировать предложения без лишних затрат;
- в каких случаях достаточно классических ML‑методов — и не нужно «изобретать велосипед».
Будет полезно IT‑специалистам, которые хотят прокачать навыки в Data Science; дата‑сайентистам, ищущим реальные кейсы для применения знаний.
Открытый урок пройдет в рамках курса «Рекомендательные системы» от Otus! Не упустите шанс заглянуть в «кухню» рекомендательных систем!
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Please open Telegram to view this post
    VIEW IN TELEGRAM
  ❤3👍2
  🚀 Ваш ИИ-агент забывает только потому что вы ему позволяете
Есть простая техника, которая радикально улучшает качество агента. Её почти никто не применяет, хотя прирост достигает 51.1%.
Называется workflow memory.
Представьте задачу: вы просите агента обучить ML-модель на вашем CSV. Он пишет код на PyTorch, перебирает гиперпараметры, правит конфиг, оптимизирует пайплайн и выдаёт финальный скрипт. Всё отлично. Но через пару дней вы даёте похожее задание, и агент снова проходит весь путь, повторяет ошибки и тратит токены.
Workflow memory меняет правила. Агент должен помнить процесс и свой опыт: что делал, какие сложности встречал, какие решения сработали, что нужно избегать. Это не ретри, а развитие навыка.
В конце задачи агент записывает ключевую информацию в обычный markdown-файл: описание задачи, проблемы, выводы. А при старте новой задачи получает краткие описания прошлых workflow.md и сам выбирает, что ему пригодится.
Это дешёвый способ дать агенту рабочую память, не полагаясь на гигантский контекст.
Результат
- меньше токенов и расходов
- нет повторяющихся ошибок
- реальное обучение на опыте, а не на нуле каждый раз
Это можно реализовать хоть сегодня в вашем агенте. Нужны только markdown-файлы и продуманный prompt.
Вот выборка готовых появилась готовых workflow.
Агент сам определяет, какая память релевантна новой задаче. Исследование MIT показало рост качества на 24.6% и 51.1% в тестах на веб-навигацию.
👉 Github: https://github.com/camel-ai/camel/pull/3291
👉 Paper: https://arxiv.org/pdf/2409.07429
Есть простая техника, которая радикально улучшает качество агента. Её почти никто не применяет, хотя прирост достигает 51.1%.
Называется workflow memory.
Представьте задачу: вы просите агента обучить ML-модель на вашем CSV. Он пишет код на PyTorch, перебирает гиперпараметры, правит конфиг, оптимизирует пайплайн и выдаёт финальный скрипт. Всё отлично. Но через пару дней вы даёте похожее задание, и агент снова проходит весь путь, повторяет ошибки и тратит токены.
Workflow memory меняет правила. Агент должен помнить процесс и свой опыт: что делал, какие сложности встречал, какие решения сработали, что нужно избегать. Это не ретри, а развитие навыка.
В конце задачи агент записывает ключевую информацию в обычный markdown-файл: описание задачи, проблемы, выводы. А при старте новой задачи получает краткие описания прошлых workflow.md и сам выбирает, что ему пригодится.
Это дешёвый способ дать агенту рабочую память, не полагаясь на гигантский контекст.
Результат
- меньше токенов и расходов
- нет повторяющихся ошибок
- реальное обучение на опыте, а не на нуле каждый раз
Это можно реализовать хоть сегодня в вашем агенте. Нужны только markdown-файлы и продуманный prompt.
Вот выборка готовых появилась готовых workflow.
Агент сам определяет, какая память релевантна новой задаче. Исследование MIT показало рост качества на 24.6% и 51.1% в тестах на веб-навигацию.
👉 Github: https://github.com/camel-ai/camel/pull/3291
👉 Paper: https://arxiv.org/pdf/2409.07429
❤11🔥4👍1🥰1
  