Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang
Код и веса уже на платформе GitVerse.
Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍4❤1
🚀 OpenGauss: Умный оркестратор для Lean-работ
OpenGauss - это инструмент для управления рабочими процессами в Lean, позволяющий эффективно организовывать задачи, такие как доказательства и формализация. Он интегрирует несколько агентов и упрощает взаимодействие с Lean-экосистемой через удобный CLI.
🚀Основные моменты:
- Многоагентная архитектура для Lean-работ
- Поддержка различных рабочих процессов: prove, draft, autoprove
- Удобное управление проектами и сессиями
- Интеграция с Lean tooling и MCP/LSP
📌 GitHub: https://github.com/math-inc/OpenGauss
OpenGauss - это инструмент для управления рабочими процессами в Lean, позволяющий эффективно организовывать задачи, такие как доказательства и формализация. Он интегрирует несколько агентов и упрощает взаимодействие с Lean-экосистемой через удобный CLI.
🚀Основные моменты:
- Многоагентная архитектура для Lean-работ
- Поддержка различных рабочих процессов: prove, draft, autoprove
- Удобное управление проектами и сессиями
- Интеграция с Lean tooling и MCP/LSP
📌 GitHub: https://github.com/math-inc/OpenGauss
❤7👍4🔥3
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!
Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?
Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.
И 90% таких систем ломаются между ноутбуком и продом.
AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.
На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.
👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?
Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.
И 90% таких систем ломаются между ноутбуком и продом.
AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.
На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.
👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
❤6😁4👍2🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Claude Code получил open-source инструмент, который снимает лимиты использования и не даёт ему останавливаться посреди задачи.
47 000+ звёзд, бесплатно, и уже называют чит-кодом для power-пользователей.
https://github.com/thedotmack/claude-mem
🐍 Python полезные ресурсы 🚀Max
@pythonl
47 000+ звёзд, бесплатно, и уже называют чит-кодом для power-пользователей.
https://github.com/thedotmack/claude-mem
🐍 Python полезные ресурсы 🚀Max
@pythonl
👍18❤4🔥3😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🔊 В опенсорс вышел самый лёгкий и доступный генератор речи - MOSS-TTS-Nano работает локально на любом процессоре даже без видеокарты.
Ультралёгкий TTS, который можно гонять хоть на тостере - MOSS-TTS.
Это не «демка на поиграться», а нормальный инструмент: запускается на обычном 4-ядерном CPU, тянется даже на уровне Raspberry Pi и при этом выдаёт живую речь без ощутимой задержки.
Модель крошечная - около 100 млн параметров, но звук на уровне: до 48 кГц и вполне чистая озвучка.
Лучше всего справляется с английским, но русский тоже поддерживает.
Умеет не только короткие фразы. Спокойно читает длинные тексты и может клонировать голос, что открывает кучу сценариев - от ботов до локальных ассистентов.
Фактически это TTS, который не требует ни облака, ни GPU, ни сложной инфраструктуры. Запустил и используешь.
https://github.com/OpenMOSS/MOSS-TTS-Nano
Демо: https://huggingface.co/spaces/OpenMOSS-Team/MOSS-TTS-Nano
Ультралёгкий TTS, который можно гонять хоть на тостере - MOSS-TTS.
Это не «демка на поиграться», а нормальный инструмент: запускается на обычном 4-ядерном CPU, тянется даже на уровне Raspberry Pi и при этом выдаёт живую речь без ощутимой задержки.
Модель крошечная - около 100 млн параметров, но звук на уровне: до 48 кГц и вполне чистая озвучка.
Лучше всего справляется с английским, но русский тоже поддерживает.
Умеет не только короткие фразы. Спокойно читает длинные тексты и может клонировать голос, что открывает кучу сценариев - от ботов до локальных ассистентов.
Фактически это TTS, который не требует ни облака, ни GPU, ни сложной инфраструктуры. Запустил и используешь.
https://github.com/OpenMOSS/MOSS-TTS-Nano
Демо: https://huggingface.co/spaces/OpenMOSS-Team/MOSS-TTS-Nano
👍8❤7🔥4
🎨🚀 Генерация 3D-моделей из изображений с помощью AI
Modly — это приложение для настольных ПК, позволяющее преобразовывать фотографии в 3D-модели с использованием открытых AI-моделей. Работает на Windows и Linux, с поддержкой macOS в будущем.
🚀Основные моменты:
- Генерация 3D-моделей из изображений.
- Поддержка внешних AI-расширений.
- Открытый исходный код и работа на GPU.
- Доступно для Windows и Linux.
📌 GitHub: https://github.com/lightningpixel/modly
#python
Modly — это приложение для настольных ПК, позволяющее преобразовывать фотографии в 3D-модели с использованием открытых AI-моделей. Работает на Windows и Linux, с поддержкой macOS в будущем.
🚀Основные моменты:
- Генерация 3D-моделей из изображений.
- Поддержка внешних AI-расширений.
- Открытый исходный код и работа на GPU.
- Доступно для Windows и Linux.
📌 GitHub: https://github.com/lightningpixel/modly
#python
❤5🔥5👍2
Forwarded from Machinelearning
⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер
35B параметров, ~3B активных за счёт MoE.
Главное:
- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning
Практическое значение:
- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач
Apache 2.0 - без ограничений для продакшена
qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B
@ai_machinelearning_big_data
35B параметров, ~3B активных за счёт MoE.
Главное:
- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning
Практическое значение:
- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач
Apache 2.0 - без ограничений для продакшена
qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B
@ai_machinelearning_big_data
❤15🔥3
Продвинутый совет по Django:
Не тащи бизнес-логику в views и serializers. Выноси её в отдельный service layer.
Пока проект маленький, удобно писать всё прямо во view: получил request, дёрнул ORM, что-то посчитал, сохранил, отправил ответ.
Но как только появляются повторяющиеся сценарии, несколько точек входа, celery-задачи, admin, API и тесты, код начинает расползаться.
Хороший паттерн такой:
• view отвечает только за HTTP,
• serializer за валидацию,
• model за данные,
• а вся бизнес-логика живёт в services.
Пример:
Во view тогда остаётся только это:
Что это даёт: код проще тестировать, логика не дублируется, её можно использовать в API, admin и background jobs, и становится меньше шансов сломать что-то при росте проекта.
Django-проект становится серьезнее в тот момент, когда ты перестаёшь писать всё во views.
🐍 Python полезные ресурсы
@pythonl
Не тащи бизнес-логику в views и serializers. Выноси её в отдельный service layer.
Пока проект маленький, удобно писать всё прямо во view: получил request, дёрнул ORM, что-то посчитал, сохранил, отправил ответ.
Но как только появляются повторяющиеся сценарии, несколько точек входа, celery-задачи, admin, API и тесты, код начинает расползаться.
Хороший паттерн такой:
• view отвечает только за HTTP,
• serializer за валидацию,
• model за данные,
• а вся бизнес-логика живёт в services.
Пример:
# services/order_service.py
from django.db import transaction
from .models import Order, OrderItem
class OrderService:
@staticmethod
@transaction.atomic
def create_order(*, user, items_data):
order = Order.objects.create(user=user, status="new")
order_items = [
OrderItem(
order=order,
product_id=item["product_id"],
quantity=item["quantity"],
price=item["price"],
)
for item in items_data
]
OrderItem.objects.bulk_create(order_items)
return order
Во view тогда остаётся только это:
def create_order_view(request):
serializer = OrderCreateSerializer(data=request.data)
serializer.is_valid(raise_exception=True)
order = OrderService.create_order(
user=request.user,
items_data=serializer.validated_data["items"],
)
return Response({"order_id": order.id})
Что это даёт: код проще тестировать, логика не дублируется, её можно использовать в API, admin и background jobs, и становится меньше шансов сломать что-то при росте проекта.
Django-проект становится серьезнее в тот момент, когда ты перестаёшь писать всё во views.
🐍 Python полезные ресурсы
@pythonl
👍17❤9🔥5
🗂️ Живая база лучших AI-инструментов - обновляется с 2023 и держит только актуальное
В одном месте собрали весь стек, который реально используют сейчас:
- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты
Это не статичный список, а постоянно обновляемая карта рынка.
Сохрани - пригодится.
https://github.com/eudk/awesome-ai-tools
В одном месте собрали весь стек, который реально используют сейчас:
- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты
Это не статичный список, а постоянно обновляемая карта рынка.
Сохрани - пригодится.
https://github.com/eudk/awesome-ai-tools
❤11👍3🔥3😢1
🚀 Автономные исследования на Apple Silicon
Порт Karpathy's autoresearch для Apple Silicon, использующий MLX. Проект реализует автономные исследовательские циклы с фиксированным временем и управлением через program.md. Основные файлы включают train.py для обучения и prepare.py для подготовки данных.
🚀 Основные моменты:
- Нативная поддержка Apple Silicon без PyTorch/CUDA
- Фиксированный 5-минутный бюджет на обучение
- Логирование результатов в results.tsv
- Простая структура для автономного эксперимента
- Оптимизация моделей для повышения эффективности
📌 GitHub: https://github.com/trevin-creator/autoresearch-mlx
#python
Порт Karpathy's autoresearch для Apple Silicon, использующий MLX. Проект реализует автономные исследовательские циклы с фиксированным временем и управлением через program.md. Основные файлы включают train.py для обучения и prepare.py для подготовки данных.
🚀 Основные моменты:
- Нативная поддержка Apple Silicon без PyTorch/CUDA
- Фиксированный 5-минутный бюджет на обучение
- Логирование результатов в results.tsv
- Простая структура для автономного эксперимента
- Оптимизация моделей для повышения эффективности
📌 GitHub: https://github.com/trevin-creator/autoresearch-mlx
#python
🔥6❤3👍3
🚀 50+ команд Claude Code, которые реально ускоряют разработку
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
-
-
-
Работа с кодом:
-
-
-
-
Контроль процесса:
-
-
-
Продвинутые фичи:
-
-
-
-
Модели и режимы:
-
-
-
Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.
Это не просто AI. Это полноценная система разработки внутри терминала.
Вот как его правильно использовать:
База, без которой никуда:
-
/init - создаёт CLAUDE.md и память проекта -
/memory - открывает контекст проекта -
/add-dir - подключает новые директории -
/compact - чистит контекст и экономит токены Работа с кодом:
-
/diff - показывает изменения -
/review - ревью кода -
/simplify - 3 агента анализируют код -
/debug - системный дебаг Контроль процесса:
-
/plan - сначала думает, потом пишет код -
/permissions - контроль действий -
--dangerously-skip-permissions - полный автопилот Продвинутые фичи:
-
/agents - параллельные агенты -
/loop - повтор задач -
/bash - выполнение команд -
/remote-control - управление через браузер Модели и режимы:
-
/model - переключение моделей -
/effort - глубина мышления -
/fast - быстрый режим Что важно знать:
- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
❤11🔥9👍5😁1
🚀 DeepSeek-V4 ломает рынок: 1M контекста стал нормой
DeepSeek выкатили V4 и сделали то, к чему все шли последние два года. Длинный контекст больше не фича для демо. Теперь это базовый уровень.
V4-Pro выглядит как заявка на прямую конкуренцию с закрытыми моделями. 49B активных параметров дают уровень reasoning, который раньше был доступен только в дорогих API. Агентные задачи закрываются на уровне SOTA среди open-source.
V4-Flash почти не отстает по качеству, зато быстрее и заметно дешевле. Это уже не про исследования. Это про продакшен, где важна цена за каждый запрос.
Новый attention с компрессией токенов и sparse-подходом делает 1M контекста не просто возможным, а экономически адекватным. Раньше длинный контекст стоил как эксперимент. Теперь это рабочий инструмент.
DeepSeek явно ставит ставку на агентов. Интеграция с Claude Code, OpenClaw и другими системами показывает, куда они целятся. Не чат. Автоматизация процессов, цепочки действий, реальные workflow.
И еще один важный момент. Теперь есть выбор между thinking и non-thinking режимами. Можно управлять тем, тратить ли ресурсы на глубокое рассуждение или получать быстрый ответ.
В итоге меняется базовая логика рынка. Если раньше ты выбирал между качеством и ценой, то теперь появляется третья точка. Длинный контекст плюс агентность при адекватной стоимости.
Это новый baseline, под который придется перестраиваться всем.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@pythonl
#DeepSeek
DeepSeek выкатили V4 и сделали то, к чему все шли последние два года. Длинный контекст больше не фича для демо. Теперь это базовый уровень.
V4-Pro выглядит как заявка на прямую конкуренцию с закрытыми моделями. 49B активных параметров дают уровень reasoning, который раньше был доступен только в дорогих API. Агентные задачи закрываются на уровне SOTA среди open-source.
V4-Flash почти не отстает по качеству, зато быстрее и заметно дешевле. Это уже не про исследования. Это про продакшен, где важна цена за каждый запрос.
Новый attention с компрессией токенов и sparse-подходом делает 1M контекста не просто возможным, а экономически адекватным. Раньше длинный контекст стоил как эксперимент. Теперь это рабочий инструмент.
DeepSeek явно ставит ставку на агентов. Интеграция с Claude Code, OpenClaw и другими системами показывает, куда они целятся. Не чат. Автоматизация процессов, цепочки действий, реальные workflow.
И еще один важный момент. Теперь есть выбор между thinking и non-thinking режимами. Можно управлять тем, тратить ли ресурсы на глубокое рассуждение или получать быстрый ответ.
В итоге меняется базовая логика рынка. Если раньше ты выбирал между качеством и ценой, то теперь появляется третья точка. Длинный контекст плюс агентность при адекватной стоимости.
Это новый baseline, под который придется перестраиваться всем.
📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4
@pythonl
#DeepSeek
❤14🔥3👍1
Документальный короткометражный фильм о команде разработки товарных операций Ozon Tech уже доступен к просмотру.
Товарные операции - это весь цикл работы с посылкой до отправки покупателю: хранение, перемещение по складу, упаковка, сортировка и подготовка к отгрузке. Речь идёт о более чем 55 000 000 операций ежедневно. Значительная часть процессов уже автоматизирована, остальное продолжает активно развиваться и масштабироваться.
В фильме показано, как устроена работа команды разработки, какие задачи они решают и как их решения связаны с реальными физическими процессами.
Посмотреть можно здесь: VK Видео | YouTube
Если интересно, как выглядит разработка на стыке IT и логистики, стоит взглянуть.
Товарные операции - это весь цикл работы с посылкой до отправки покупателю: хранение, перемещение по складу, упаковка, сортировка и подготовка к отгрузке. Речь идёт о более чем 55 000 000 операций ежедневно. Значительная часть процессов уже автоматизирована, остальное продолжает активно развиваться и масштабироваться.
В фильме показано, как устроена работа команды разработки, какие задачи они решают и как их решения связаны с реальными физическими процессами.
Посмотреть можно здесь: VK Видео | YouTube
Если интересно, как выглядит разработка на стыке IT и логистики, стоит взглянуть.
VK Видео
Команда разработки товарных операций
Документальный короткометражный фильм о команде разработки товарных операций Ozon Tech. Товарные операции — это всё, что происходит с посылкой до отправки к покупателю: хранение и перемещение на складе, упаковка, сортировка, подготовка к отгрузке. Это 55…
❤4👍2
🐍 Маленькая, но красивая фишка Python.
В большинстве языков, чтобы поменять значения переменных местами, используют временную переменную:
В Python всё гораздо проще.
Можно сделать обмен значений в одну строку:
Без временных переменных, без лишнего кода.
Python просто распаковывает значения и меняет их местами.
Мелочь, но именно из таких вещей и складывается читаемый и лаконичный код.
🐍 Python полезные ресурсы 🚀Max
@pythonl
В большинстве языков, чтобы поменять значения переменных местами, используют временную переменную:
temp = a
a = b
b = temp
В Python всё гораздо проще.
Можно сделать обмен значений в одну строку:
a, b = b, a
Без временных переменных, без лишнего кода.
Python просто распаковывает значения и меняет их местами.
Мелочь, но именно из таких вещей и складывается читаемый и лаконичный код.
🐍 Python полезные ресурсы 🚀Max
@pythonl
👍19❤8🔥2🤩1
🚀 Открытый агентский хранилище OpenHarness
OpenHarness предлагает легкую инфраструктуру для агентов, включая инструменты, память и координацию между агентами. Это решение для разработки открытых агентов с поддержкой интеграции CLI и множеством инструментов.
🚀 Основные моменты:
- Легкая архитектура для агентов
- Поддержка 43+ инструментов и плагинов
- Механизмы управления и разрешений
- Контекст и память для улучшенной работы
- Координация между несколькими агентами
📌 GitHub: https://github.com/HKUDS/OpenHarness
#python
OpenHarness предлагает легкую инфраструктуру для агентов, включая инструменты, память и координацию между агентами. Это решение для разработки открытых агентов с поддержкой интеграции CLI и множеством инструментов.
🚀 Основные моменты:
- Легкая архитектура для агентов
- Поддержка 43+ инструментов и плагинов
- Механизмы управления и разрешений
- Контекст и память для улучшенной работы
- Координация между несколькими агентами
📌 GitHub: https://github.com/HKUDS/OpenHarness
#python
🔥4❤2👍1😁1