Python/ django
60.9K subscribers
2.41K photos
184 videos
48 files
3.15K links
по всем вопросам @haarrp

@itchannels_telegram - 🔥 все ит каналы

@ai_machinelearning_big_data -ML

@ArtificialIntelligencedl -AI

@datascienceiot - 📚

@pythonlbooks

РКН: clck.ru/3FmxmM
Download Telegram
🚀 GigaChat 3.1 Ultra и GigaChat 3.1 Lightning в опенсорс под MIT лицензией!

Обе модели
• Обучены с нуля — без инициализации зарубежными весами
• MoE + MTP + MLA
• Совместимы с HuggingFace, llama.cpp / vLLM / SGLang

Код и веса уже на платформе GitVerse.

Это не просто релиз весов, а результат большой инженерной работы над качеством, alignment и стабильностью модели. В блоге команда поделилась результатами и своими наработками.
В релизе: высокие результаты на аренах, улучшенный function calling, решённая проблема циклов, DPO в нативном FP8, найденный и зарепорченный баг в SGLang при dp > 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍41
🚀 OpenGauss: Умный оркестратор для Lean-работ

OpenGauss - это инструмент для управления рабочими процессами в Lean, позволяющий эффективно организовывать задачи, такие как доказательства и формализация. Он интегрирует несколько агентов и упрощает взаимодействие с Lean-экосистемой через удобный CLI.

🚀Основные моменты:
- Многоагентная архитектура для Lean-работ
- Поддержка различных рабочих процессов: prove, draft, autoprove
- Удобное управление проектами и сессиями
- Интеграция с Lean tooling и MCP/LSP

📌 GitHub: https://github.com/math-inc/OpenGauss
7👍4🔥3
⚡️ Вышло большое обновление популярного курса- Ai AI агенты, которые реально работают в проде!

Вы всё ещё пишете обёртки над ChatGPT и называете это «AI-продуктом»?

Пока вы промптите - рынок переходит на агентные системы. Те, что принимают решения, ходят в API, работают с Postgres и Redis, управляют браузером через Playwright.

И 90% таких систем ломаются между ноутбуком и продом.

AI Agents Engineering - курс, который закрывает этот разрыв. LangGraph, AutoGen, Computer Use, LLMOps. 8 модулей, 120+ шагов - от архитектуры до деплоя в Docker.

На выходе: реальный опыт на большой практической базе, а production-агент и навыки, за которые уже платят.

👉 48 часов действует скидка на курс 55 процентов: https://stepik.org/a/276971/
6😁4👍2🔥1🤩1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Claude Code получил open-source инструмент, который снимает лимиты использования и не даёт ему останавливаться посреди задачи.

47 000+ звёзд, бесплатно, и уже называют чит-кодом для power-пользователей.

https://github.com/thedotmack/claude-mem

🐍 Python полезные ресурсы 🚀Max

@pythonl
👍184🔥3😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🔊 В опенсорс вышел самый лёгкий и доступный генератор речи - MOSS-TTS-Nano работает локально на любом процессоре даже без видеокарты.
Ультралёгкий TTS, который можно гонять хоть на тостере - MOSS-TTS.

Это не «демка на поиграться», а нормальный инструмент: запускается на обычном 4-ядерном CPU, тянется даже на уровне Raspberry Pi и при этом выдаёт живую речь без ощутимой задержки.

Модель крошечная - около 100 млн параметров, но звук на уровне: до 48 кГц и вполне чистая озвучка.

Лучше всего справляется с английским, но русский тоже поддерживает.

Умеет не только короткие фразы. Спокойно читает длинные тексты и может клонировать голос, что открывает кучу сценариев - от ботов до локальных ассистентов.

Фактически это TTS, который не требует ни облака, ни GPU, ни сложной инфраструктуры. Запустил и используешь.

https://github.com/OpenMOSS/MOSS-TTS-Nano

Демо: https://huggingface.co/spaces/OpenMOSS-Team/MOSS-TTS-Nano
👍87🔥4
🎨🚀 Генерация 3D-моделей из изображений с помощью AI

Modly — это приложение для настольных ПК, позволяющее преобразовывать фотографии в 3D-модели с использованием открытых AI-моделей. Работает на Windows и Linux, с поддержкой macOS в будущем.

🚀Основные моменты:
- Генерация 3D-моделей из изображений.
- Поддержка внешних AI-расширений.
- Открытый исходный код и работа на GPU.
- Доступно для Windows и Linux.

📌 GitHub: https://github.com/lightningpixel/modly

#python
5🔥5👍2
Forwarded from Machinelearning
⚡️ Qwen3.6-35B-A3B - ставка на эффективную архитектуру, а не на размер

35B параметров, ~3B активных за счёт MoE.

Главное:

- по agentic coding показывает уровень моделей с ~10x большим активным объёмом
- превосходит Qwen3.5-27B (dense) и предыдущую Qwen3.5-35B-A3B
- нативно мультимодальная архитектура (text + vision)
- в VLM-бенчмарках сопоставима с Claude Sonnet 4.5, в ряде задач выше
- сильные метрики в задачах spatial reasoning

Практическое значение:

- MoE даёт кратное снижение compute без потери качества
- подходит для агентных сценариев, где важны последовательные действия и планирование
- можно использовать как единый стек для code + vision задач

Apache 2.0 - без ограничений для продакшена

qwen.ai/blog?id=qwen3.6-35b-a3b
chat.qwen.ai
huggingface.co/Qwen/Qwen3.6-35B-A3B
modelscope.cn/models/Qwen/Qwen3.6-35B-A3B

@ai_machinelearning_big_data
15🔥3
Продвинутый совет по Django:

Не тащи бизнес-логику в views и serializers. Выноси её в отдельный service layer.

Пока проект маленький, удобно писать всё прямо во view: получил request, дёрнул ORM, что-то посчитал, сохранил, отправил ответ.

Но как только появляются повторяющиеся сценарии, несколько точек входа, celery-задачи, admin, API и тесты, код начинает расползаться.

Хороший паттерн такой:
• view отвечает только за HTTP,
• serializer за валидацию,
• model за данные,
• а вся бизнес-логика живёт в services.

Пример:


# services/order_service.py

from django.db import transaction
from .models import Order, OrderItem

class OrderService:
@staticmethod
@transaction.atomic
def create_order(*, user, items_data):
order = Order.objects.create(user=user, status="new")

order_items = [
OrderItem(
order=order,
product_id=item["product_id"],
quantity=item["quantity"],
price=item["price"],
)
for item in items_data
]
OrderItem.objects.bulk_create(order_items)

return order

Во view тогда остаётся только это:


def create_order_view(request):
serializer = OrderCreateSerializer(data=request.data)
serializer.is_valid(raise_exception=True)

order = OrderService.create_order(
user=request.user,
items_data=serializer.validated_data["items"],
)

return Response({"order_id": order.id})


Что это даёт: код проще тестировать, логика не дублируется, её можно использовать в API, admin и background jobs, и становится меньше шансов сломать что-то при росте проекта.

Django-проект становится серьезнее в тот момент, когда ты перестаёшь писать всё во views.

🐍 Python полезные ресурсы

@pythonl
👍179🔥5
🗂️ Живая база лучших AI-инструментов - обновляется с 2023 и держит только актуальное

В одном месте собрали весь стек, который реально используют сейчас:

- свежие LLM и новые релизы
- мультимодалка: изображения, видео, аудио
- AI-агенты и автоматизация
- dev-платформы и API
- инфраструктура, плагины и утилиты

Это не статичный список, а постоянно обновляемая карта рынка.

Сохрани - пригодится.

https://github.com/eudk/awesome-ai-tools
11👍3🔥3😢1
Когда я прошу Клода провести проверку кода
👍31😁185🔥4🤩1
🚀 Автономные исследования на Apple Silicon

Порт Karpathy's autoresearch для Apple Silicon, использующий MLX. Проект реализует автономные исследовательские циклы с фиксированным временем и управлением через program.md. Основные файлы включают train.py для обучения и prepare.py для подготовки данных.

🚀 Основные моменты:
- Нативная поддержка Apple Silicon без PyTorch/CUDA
- Фиксированный 5-минутный бюджет на обучение
- Логирование результатов в results.tsv
- Простая структура для автономного эксперимента
- Оптимизация моделей для повышения эффективности

📌 GitHub: https://github.com/trevin-creator/autoresearch-mlx

#python
🔥63👍3
🚀 50+ команд Claude Code, которые реально ускоряют разработку

Если ты используешь Claude Code как обычный чат - ты теряешь 80% его мощности.

Это не просто AI. Это полноценная система разработки внутри терминала.

Вот как его правильно использовать:


База, без которой никуда:

- /init - создаёт CLAUDE.md и память проекта
- /memory - открывает контекст проекта
- /add-dir - подключает новые директории
- /compact - чистит контекст и экономит токены

Работа с кодом:

- /diff - показывает изменения
- /review - ревью кода
- /simplify - 3 агента анализируют код
- /debug - системный дебаг

Контроль процесса:

- /plan - сначала думает, потом пишет код
- /permissions - контроль действий
- --dangerously-skip-permissions - полный автопилот

Продвинутые фичи:

- /agents - параллельные агенты
- /loop - повтор задач
- /bash - выполнение команд
- /remote-control - управление через браузер

Модели и режимы:

- /model - переключение моделей
- /effort - глубина мышления
- /fast - быстрый режим

Что важно знать:

- Claude Code = не чат, а инженер внутри проекта
- память (CLAUDE.md) решает больше, чем промпты
- агенты дают x2-x5 ускорение на сложных задачах
11🔥9👍5😁1
🚀 DeepSeek-V4 ломает рынок: 1M контекста стал нормой

DeepSeek выкатили V4 и сделали то, к чему все шли последние два года. Длинный контекст больше не фича для демо. Теперь это базовый уровень.

V4-Pro выглядит как заявка на прямую конкуренцию с закрытыми моделями. 49B активных параметров дают уровень reasoning, который раньше был доступен только в дорогих API. Агентные задачи закрываются на уровне SOTA среди open-source.

V4-Flash почти не отстает по качеству, зато быстрее и заметно дешевле. Это уже не про исследования. Это про продакшен, где важна цена за каждый запрос.

Новый attention с компрессией токенов и sparse-подходом делает 1M контекста не просто возможным, а экономически адекватным. Раньше длинный контекст стоил как эксперимент. Теперь это рабочий инструмент.

DeepSeek явно ставит ставку на агентов. Интеграция с Claude Code, OpenClaw и другими системами показывает, куда они целятся. Не чат. Автоматизация процессов, цепочки действий, реальные workflow.

И еще один важный момент. Теперь есть выбор между thinking и non-thinking режимами. Можно управлять тем, тратить ли ресурсы на глубокое рассуждение или получать быстрый ответ.

В итоге меняется базовая логика рынка. Если раньше ты выбирал между качеством и ценой, то теперь появляется третья точка. Длинный контекст плюс агентность при адекватной стоимости.
Это новый baseline, под который придется перестраиваться всем.

📄 Tech Report: https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
🤗 Open Weights: https://huggingface.co/collections/deepseek-ai/deepseek-v4

@pythonl

#DeepSeek
14🔥3👍1
Документальный короткометражный фильм о команде разработки товарных операций Ozon Tech уже доступен к просмотру.

Товарные операции - это весь цикл работы с посылкой до отправки покупателю: хранение, перемещение по складу, упаковка, сортировка и подготовка к отгрузке. Речь идёт о более чем 55 000 000 операций ежедневно. Значительная часть процессов уже автоматизирована, остальное продолжает активно развиваться и масштабироваться.

В фильме показано, как устроена работа команды разработки, какие задачи они решают и как их решения связаны с реальными физическими процессами.

Посмотреть можно здесь: VK Видео | YouTube
Если интересно, как выглядит разработка на стыке IT и логистики, стоит взглянуть.
4👍2
🐍 Маленькая, но красивая фишка Python.

В большинстве языков, чтобы поменять значения переменных местами, используют временную переменную:


temp = a
a = b
b = temp


В Python всё гораздо проще.

Можно сделать обмен значений в одну строку:


a, b = b, a


Без временных переменных, без лишнего кода.

Python просто распаковывает значения и меняет их местами.

Мелочь, но именно из таких вещей и складывается читаемый и лаконичный код.

🐍 Python полезные ресурсы 🚀Max

@pythonl
👍198🔥2🤩1
🚀 Открытый агентский хранилище OpenHarness

OpenHarness предлагает легкую инфраструктуру для агентов, включая инструменты, память и координацию между агентами. Это решение для разработки открытых агентов с поддержкой интеграции CLI и множеством инструментов.

🚀 Основные моменты:
- Легкая архитектура для агентов
- Поддержка 43+ инструментов и плагинов
- Механизмы управления и разрешений
- Контекст и память для улучшенной работы
- Координация между несколькими агентами

📌 GitHub: https://github.com/HKUDS/OpenHarness

#python
🔥42👍1😁1