Машинное обучение RU
17.5K subscribers
1.43K photos
176 videos
11 files
1.89K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь нас можно заменили на роботов 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
7😁7👍4🔥1
Технологическая платформа Авито вошла в тройку лучших работодателей для айтишников, работающих с ИИ и данными.

DevCrowd, занимающаяся исследованиями IT-отрасли, выкатила итоги нового исследования Data-специалистов и составила рейтинг компаний, наиболее привлекательных для тех, кто работает с ИИ и данными. Технологическая платформа Авито заняла второе место и обошла таких гигантов, как Сбер, МТС и OZON.

DevCrowd в рамках исследования опрашивала специалистов, которые занимаются разработкой и обучением умных алгоритмов – data scientists, ML-инженеры, дата-инженеры и аналитики. Почти половина респондентов (46,8%) ответили, что именно Авито видят компанией мечты. Среди преимуществ, по которым специалисты выбирают работодателей, назвали интересные рабочие задачи, высокую зарплату по рынку и перспективы построения карьеры.

Авито продолжает инвестировать в ИИ-технологии. За три года платформа планирует вложить в направление более 12 миллиардов рублей.

🤍 Подпишитесь на полезные каналы Авито
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🔥1😁1
Начинаем неделю продуктивно
👍123😁2🔥1
Forwarded from Machinelearning
🎙️ NVIDIA выпустили Canary-1B v2 — открытую модель для распознавания и перевода речи, которая работает с 25 европейскими языками.

Что она умеет:
- 📝 Точное ASR (распознавание речи) и AST (перевод речи) между английским и 24 другими языками.
- Автоматическая пунктуация, капитализация и точные таймстампы до слова.
- Поддержка русского, французского, немецкого, испанского и многих других языков.

Чем интересна
- До 10× быстрее инференс, чем у моделей в 3 раза больше.
- Уже показывает state-of-the-art точность среди открытых моделей на Hugging Face.
- Лицензия CC-BY-4.0 — можно свободно использовать в проектах.

Под капотом:
- Архитектура: FastConformer-энкодер + Transformer-декодер (~978M параметров).
- Форматы: .wav и .flac, моно 16 кГц.
- Легко интегрируется через NVIDIA NeMo или прямо с Hugging Face.

Где пригодится:
🟢 голосовые ассистенты
🟢 субтитры и перевод видео
🟢 чат-боты с речевым вводом
🟢 real-time анализ речи

Всего ~978M параметров → легче, быстрее и дешевле в использовании, чем большие модели конкурентов.

🟠 Попробовать можно здесь: https://huggingface.co/nvidia/canary-1b-v2
🟠SET: https://huggingface.co/datasets/nvidia/Granary
🟠PARAKEET: https://huggingface.co/nvidia/parakeet-tdt-0.6b-v3

@ai_machinelearning_big_data


#AI #NVIDIA #SpeechRecognition #ASR #AST #Multilingual #MachineLearning #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍1
♟️ UC Berkeley: RL чуть улучшает шахматную тактику LLM, но не учит стратегии

В работе обучали Qwen2.5 3B и 7B, а также Llama3.1 8B с Group Relative Policy Optimization. Каждое действие оценивалось с помощью заранее обученного «шахматного критика» — трансформера на 270M параметров, натренированного на 15 млрд позиций со Stockfish-оценками. Такой критик даёт плотную (dense) и градуированную награду — не просто «верно/неверно», а вероятность победы.

📈 Результаты
- Dense-награда ускоряет обучение и даёт лучшие результаты, чем чистый supervised fine tuning.
- Но точность на шахматных задачах упирается в 25–30% (против 66.5% у 1800 ELO), вне зависимости от модели.
- Добавление reasoning-трейсов от более сильной модели при SFT потолок не пробивает, а иногда даже ухудшает результат.

🔍 Почему потолок
- Модели не могут надёжно «держать в голове» позицию и применять базовую тактику.
- В тестах: на задаче обновления доски — 0.0% у всех, на задаче «мат в 1» (2 варианта ответа) — Instruct-модели ~52%, базовые — 12.7–42.7%.

⚙️ Анализ
- Моделям нужно «ведение за руку» — без списка легальных ходов обучение рушится.
- SAN (Standard Algebraic Notation) лучше UCI, формат FEN vs PGN не влияет.

💡 Вывод
RL в основном усиливает то, что уже есть после предобучения. Без глубоких шахматных знаний на этапе пре-трейна LLM не способны строить стабильные долгосрочные планы.

https://arxiv.org/abs/2507.00726
2👍2
Forwarded from Machinelearning
🐋 Гигантский кит приплыл к нам!

🚀 DeepSeek обновился до V3.1.

Следите за новостями, волна только набирает силу.

Новый LLM: deepseek-ai/DeepSeek-V3.1-Base
685B параметров
📏 Контекстное окно 128k

https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base

@ai_machinelearning_big_data

#DeepSeek #AI #LLM #V3_1 #MachineLearning
6🔥4👍2
🧠 Reasoning — это не «да/нет».

Сегодня почти все LLM обучены на схожих RL-техниках. Разница не в том, есть reasoning или нет, а в том, сколько усилий модель тратит на рассуждения.

🔎 Примеры:
- Claude — многие называют «non-reasoning», но именно они первыми ввели спец-токены и режим *«thinking deeply, stand by…»*.
- DeepSeek v3.1 тоже явно тратит токены на рассуждения, просто это пока не так очевидно.
- GPT-5 в thinking-режиме выдаёт лучшие результаты, используя почти в 2 раза меньше токенов, чем o3.

Ключ — токены на ответ. Их редко показывают, но именно они отражают реальное «усилие reasoning».
R1-0528 и Qwen подняли метрики за счёт увеличения reasoning-токенов, но это не всегда полезно для юзера.

👉 Правильный взгляд: reasoning = спектр.
Цена и ценность модели = активные параметры × число reasoning-токенов.

#AI #LLM #reasoning #benchmarks
3👍2🔥2
🔥 Работаете с данными, но избегаете текстов? Тогда пора восполнить пробел — без NLP в современном ML уже не обойтись. Этот курс — не просто теория про трансформеры и word2vec. Это реальная практика:

Создадите телеграм-бота
Научитесь парсить данные
Освоите Langchain и построите систему NER или Q&A.
Вы будете разбираться в архитектурах моделей вроде BERT и GPT, а не просто применять их вслепую. Всё обучение — на живых лекциях от экспертов, с акцентом на русский язык и современные методы. Диплом Otus ценится в индустрии, а знания пригодятся — от CV до продакшн-задач. Осталось только пройти короткое тестирование и получить скидку. Старт совсем скоро — не упустите возможность: https://otus.pw/SSfu9/?erid=2W5zFJdM6Up

Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🌟 TabPFN — трансформер для быстрого анализа табличных данных. Этот проект предлагает альтернативу традиционным методам машинного обучения для работы с табличными данными. Модель демонстрирует впечатляющую скорость — решает задачи классификации и регрессии за секунды, даже на небольших датасетах.

Сервис обладает минимальной потребностью в настройке гиперпараметров. Достаточно установить пакет через pip, и модель готова к работе. Для максимальной точности разработчики рекомендуют использовать AutoTabPFN с автоматическим ансамблированием.

🤖 GitHub

@machinelearning_ru
5👍3🔥1
⚡️ Библиотека EasyOCR для распознавания текста на картинках

Поддерживает 80+ языков.

Выдаёт результат в виде списка, каждый элемент которого представляет собой координаты ограничивающей рамки, обнаруженный текст и уровень уверенности модели.

Установка: pip install easyocr

🟢Репозиторий

@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
3