Анализ данных (Data analysis)
46.8K subscribers
2.59K photos
299 videos
1 file
2.25K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🔥 Qwen3-VL теперь можно запускать локально

Хорошая новость для тех, кто хочет сильный мультимодальный стек без облака:
.
- Qwen3-VL-235B можно поднять на 128 ГБ unified memory (динамическое 4-bit). Это уже уровень SOTA в СМ b OCR.
- Qwen3-VL-2B спокойно выдает ~40 токенов/сек на 4 ГБ ОЗУ.

Плюс:
- есть фиксированный chat-template
- полная поддержка тонкой настройки и RL
- готовые блокноты через Unsloth (бесплатно)
- экспорт в GGUF, так что можно кормить всё это локальным рантаймам

Документация: docs.unsloth.ai/models/qwen3-vl

@data_analysis_ml
🔥236👍4
Самая нужная книга года
😁75🔥113🤣3👍1🥰1🙏1💯1
🧠 DiffMem: Git-Based Memory for AI Agents

DiffMem предлагает легковесную память для ИИ, использующую Git для отслеживания изменений и Markdown для хранения данных. Этот проект демонстрирует, как системы контроля версий могут стать основой для эффективной и масштабируемой памяти в приложениях ИИ, позволяя агентам быстро получать актуальную информацию и исследовать её эволюцию.

🚀 Основные моменты:
- Хранит "текущие" состояния знаний в Markdown.
- Использует Git для управления историей изменений.
- Обеспечивает быстрый и объяснимый поиск с помощью BM25.
- Поддерживает гибкость и портативность данных.
- Легко интегрируется и не требует серверов.

📌 GitHub: https://github.com/Growth-Kinetics/DiffMem

#python
🔥94👍3
ScaleAI и AI Risks выпустили Remote Labor Index (RLI) – и результаты очень любопытные

RLI проверяет, как хорошо современные AI-агенты справляются с реальной удалённой работой. Спойлер – пока слабо.

Лучшая система Manus смогла автоматизировать только 2.5% задач. То есть почти всё всё ещё делают люди.

При этом видно постепенный прогресс: Claude Sonnet 4.5, GPT-5, Gemini 2.5 Pro и другие модели медленно, но стабильно поднимают планку.

Вывод: полной автоматизации ещё далеко, но эволюция идёт шаг за шагом. Не скачками, а аккуратными улучшениями. Настоящая работа всё ещё за людьми - пока что.

📊Leaderboard: https://scale.com/leaderboard/rli
📰Paper: https://scale.com/research/rli
📽️Watch the full video: https://youtu.be/2RW10HWYo5M
🔥153👍3🥰1
🚀 А вы используете сплит-тесты?

Как проверить гипотезу, если классический A/B не подходит? Дизайн эксперимента можно адаптировать. В Авито используют альтернативу стандартному A/B — сплит-тесты.

Решили поделиться опытом и записали видео со Стешей Чупрыгиной, тимлидом в команде Monetization Efficiency.

Стеша рассказывает:
➡️ как устроено монетизационное ранжирование на Авито,
➡️ что такое автобиддинг,
➡️ как сплит-тесты помогают улучшать алгоритмы.

Видео — новый выпуск «Диванной аналитики», серии докладов, в которых эксперты рассказывают о своём опыте и делятся интересными кейсами.

Посмотрите, чтобы узнать, как и зачем в Авито внедряли сплит-тесты.

📌 Ссылка на YouTube
📌 Ссылка на VK Видео
📌 Ссылка на Rutube
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥3
📈 Новое исследование: LLM-оценка новостей усиливает стратегию momentum

Идея простая: классический momentum покупает недавних «победителей» — но не смотрит, что пишут в новостях.
В работе добавили слой смысловой фильтрации: модель читает свежие заголовки и даёт каждой компании скор между 0 и 1.

Дальше портфель перетасовывается: выше скор — больше вес.

Результат:
— Sharpe растёт с 0.79 до 1.06
— ниже волатильность и просадки
— доходность на единицу риска выше

Конфигурация:
— S&P 500
— новости за 1 день
— ежемесяч ребаланс
— простая подсказка модели
— устойчиво даже после даты обучения
— <2 б.п. торговых издержек

Что важно: модель не «угадывает рынок».
Она просто *читает новости* и уточняет классический фактор, добавляя фильтр реального инфо-фона.

Итог: momentum + актуальные заголовки → умнее, стабильнее, безопаснее.

🧾 arxiv.org/abs/2510.26228
13🔥2🥰2
🧠 Google предлагает новый подход к обучению моделей - “Supervised Reinforcement Learning: From Expert Trajectories to Step-wise Reasoning”.

Суть: модель учится не угадывать готовый ответ, а планировать и проверять каждый шаг рассуждений.

- Вместо финальной оценки SRL даёт награду за каждый шаг цепочки
- Модель учится думать поэтапно, а не просто копировать решение
- Маленькие модели получают реальный сигнал обучения и тоже начинают планировать

Результаты впечатляют:
- AIME24: +3.4% (13.3% → 16.7%) на модели 7B
- SRL→RLVR: 57.5% на AMC23 (greedy)
- Код-агенты: 14.8% oracle resolve rate
- В инженерных задачах из 5K траекторий сделали 134K пошаговых примеров, SRL дал 8.6% фиксов кода с greedy - выше, чем SFT-coder

Как это работает
- Экспертное решение режут на маленькие шаги
- Модель делает шаг → получает оценку близости к эксперту
- Используют текст-matcher + небольшой формат-штраф
- Обновления в стиле GRPO с динамическим выбором батчей, чтобы избегать пустых сигналов

Что получает модель
- Раннее планирование
- Коррекция по ходу
- Самопроверка результата
- При этом ответы не становятся длиннее - качество растёт за счёт мышления, а не болтовни

SRL выглядит как естественный мост между supervised обучением и классическим RL: контролируемая стабильность + глубина рассуждений.

📄 arxiv.org/abs/2510.25992

@data_analysis_ml
12🔥7👍1
6 ноября в 15:00 (МСК) — вебинар «Загрузка в 1С любых данных без программирования. Инжектор 1С» от Денвик и партнёра Инфостарт.

💬 Спикер — Степан Пыстин, технический директор и BI-внедренец. Он покажет, как работает инструмент Инжектор 1С — визуальный коннектор для загрузки данных из внешних БД в 1С без кода. Подробнее про функции: bi.denvic.ru/products/inzhektor-1s-instrument-zagruzki-dannykh-v-1s
На вебинаре обсудят методы загрузки данных, сценарии миграции и интеграции без программирования, визуальный конструктор и автодозагрузку данных.

🔧 Полезно архитекторам и разработчикам 1С, архитекторам данных и менеджерам проектов, где используется 1С.
➡️ Регистрация открыта: https://webinar-denvic.ru/?utm_source=tg_post_denvik3
1🙏1
Media is too big
VIEW IN TELEGRAM
🧠 IBM объясняет, как математика симметрий помогает создавать новые квантовые алгоритмы

Математика групп — это про симметрии: как объекты можно менять местами, вращать или переставлять, и что при этом остаётся неизменным.

IBM показывает, что те же самые идеи лежат в основе квантовых вычислений — и помогают искать задачи, где квантовые алгоритмы могут быть быстрее классических.

Ключевые идеи:
- Симметрии в природе описываются теорией групп
- Квантовые системы тоже подчиняются симметриям
- Если правильно описать задачу через симметрии, можно найти квантовый алгоритм с ускорением
- IBM работает с более сложными (не-абелевыми) симметриями — это следующий уровень, сложнее и мощнее

Зачем это всё
Мы ещё не нашли много «убойных» квантовых алгоритмов.
Подход через симметрии — это способ открывать новые, а не только улучшать старые.

Если коротко:
Математика симметрий может стать картой для поиска новых квантовых алгоритмов.

Подробнее: https://www.ibm.com/quantum/blog/group-theory
Видео: https://www.youtube.com/watch?v=eSy-pwkLiIQ

#quantum #math #grouptheory #IBMQuantum #algorithms
🔥103