This media is not supported in your browser
VIEW IN TELEGRAM
Теперь нас можно заменили на роботов 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7😁7👍4🔥1
Технологическая платформа Авито вошла в тройку лучших работодателей для айтишников, работающих с ИИ и данными.
DevCrowd, занимающаяся исследованиями IT-отрасли, выкатила итоги нового исследования Data-специалистов и составила рейтинг компаний, наиболее привлекательных для тех, кто работает с ИИ и данными. Технологическая платформа Авито заняла второе место и обошла таких гигантов, как Сбер, МТС и OZON.
DevCrowd в рамках исследования опрашивала специалистов, которые занимаются разработкой и обучением умных алгоритмов – data scientists, ML-инженеры, дата-инженеры и аналитики. Почти половина респондентов (46,8%) ответили, что именно Авито видят компанией мечты. Среди преимуществ, по которым специалисты выбирают работодателей, назвали интересные рабочие задачи, высокую зарплату по рынку и перспективы построения карьеры.
Авито продолжает инвестировать в ИИ-технологии. За три года платформа планирует вложить в направление более 12 миллиардов рублей.
🤍 Подпишитесь на полезные каналы Авито
DevCrowd, занимающаяся исследованиями IT-отрасли, выкатила итоги нового исследования Data-специалистов и составила рейтинг компаний, наиболее привлекательных для тех, кто работает с ИИ и данными. Технологическая платформа Авито заняла второе место и обошла таких гигантов, как Сбер, МТС и OZON.
DevCrowd в рамках исследования опрашивала специалистов, которые занимаются разработкой и обучением умных алгоритмов – data scientists, ML-инженеры, дата-инженеры и аналитики. Почти половина респондентов (46,8%) ответили, что именно Авито видят компанией мечты. Среди преимуществ, по которым специалисты выбирают работодателей, назвали интересные рабочие задачи, высокую зарплату по рынку и перспективы построения карьеры.
Авито продолжает инвестировать в ИИ-технологии. За три года платформа планирует вложить в направление более 12 миллиардов рублей.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1🔥1😁1
Forwarded from Machinelearning
Что она умеет:
-
- Автоматическая пунктуация, капитализация и точные таймстампы до слова.
- Поддержка русского, французского, немецкого, испанского и многих других языков.
Чем интересна
- До 10× быстрее инференс, чем у моделей в 3 раза больше.
- Уже показывает state-of-the-art точность среди открытых моделей на Hugging Face.
- Лицензия CC-BY-4.0 — можно свободно использовать в проектах.
Под капотом:
- Архитектура: FastConformer-энкодер + Transformer-декодер (~978M параметров).
- Форматы:
.wav
и .flac
, моно 16 кГц. - Легко интегрируется через NVIDIA NeMo или прямо с Hugging Face.
Где пригодится:
Всего ~978M параметров → легче, быстрее и дешевле в использовании, чем большие модели конкурентов.
@ai_machinelearning_big_data
#AI #NVIDIA #SpeechRecognition #ASR #AST #Multilingual #MachineLearning #DeepLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍1
♟️ UC Berkeley: RL чуть улучшает шахматную тактику LLM, но не учит стратегии
В работе обучали Qwen2.5 3B и 7B, а также Llama3.1 8B с Group Relative Policy Optimization. Каждое действие оценивалось с помощью заранее обученного «шахматного критика» — трансформера на 270M параметров, натренированного на 15 млрд позиций со Stockfish-оценками. Такой критик даёт плотную (dense) и градуированную награду — не просто «верно/неверно», а вероятность победы.
📈 Результаты
- Dense-награда ускоряет обучение и даёт лучшие результаты, чем чистый supervised fine tuning.
- Но точность на шахматных задачах упирается в 25–30% (против 66.5% у 1800 ELO), вне зависимости от модели.
- Добавление reasoning-трейсов от более сильной модели при SFT потолок не пробивает, а иногда даже ухудшает результат.
🔍 Почему потолок
- Модели не могут надёжно «держать в голове» позицию и применять базовую тактику.
- В тестах: на задаче обновления доски — 0.0% у всех, на задаче «мат в 1» (2 варианта ответа) — Instruct-модели ~52%, базовые — 12.7–42.7%.
⚙️ Анализ
- Моделям нужно «ведение за руку» — без списка легальных ходов обучение рушится.
- SAN (Standard Algebraic Notation) лучше UCI, формат FEN vs PGN не влияет.
💡 Вывод
RL в основном усиливает то, что уже есть после предобучения. Без глубоких шахматных знаний на этапе пре-трейна LLM не способны строить стабильные долгосрочные планы.
https://arxiv.org/abs/2507.00726
В работе обучали Qwen2.5 3B и 7B, а также Llama3.1 8B с Group Relative Policy Optimization. Каждое действие оценивалось с помощью заранее обученного «шахматного критика» — трансформера на 270M параметров, натренированного на 15 млрд позиций со Stockfish-оценками. Такой критик даёт плотную (dense) и градуированную награду — не просто «верно/неверно», а вероятность победы.
📈 Результаты
- Dense-награда ускоряет обучение и даёт лучшие результаты, чем чистый supervised fine tuning.
- Но точность на шахматных задачах упирается в 25–30% (против 66.5% у 1800 ELO), вне зависимости от модели.
- Добавление reasoning-трейсов от более сильной модели при SFT потолок не пробивает, а иногда даже ухудшает результат.
🔍 Почему потолок
- Модели не могут надёжно «держать в голове» позицию и применять базовую тактику.
- В тестах: на задаче обновления доски — 0.0% у всех, на задаче «мат в 1» (2 варианта ответа) — Instruct-модели ~52%, базовые — 12.7–42.7%.
⚙️ Анализ
- Моделям нужно «ведение за руку» — без списка легальных ходов обучение рушится.
- SAN (Standard Algebraic Notation) лучше UCI, формат FEN vs PGN не влияет.
💡 Вывод
RL в основном усиливает то, что уже есть после предобучения. Без глубоких шахматных знаний на этапе пре-трейна LLM не способны строить стабильные долгосрочные планы.
https://arxiv.org/abs/2507.00726
❤2👍2
Forwarded from Machinelearning
🐋 Гигантский кит приплыл к нам!
🚀 DeepSeek обновился до V3.1.
Следите за новостями, волна только набирает силу.
✨ Новый LLM: deepseek-ai/DeepSeek-V3.1-Base
⚡ 685B параметров
📏 Контекстное окно 128k
https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base
@ai_machinelearning_big_data
#DeepSeek #AI #LLM #V3_1 #MachineLearning
🚀 DeepSeek обновился до V3.1.
Следите за новостями, волна только набирает силу.
✨ Новый LLM: deepseek-ai/DeepSeek-V3.1-Base
⚡ 685B параметров
📏 Контекстное окно 128k
https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Base
@ai_machinelearning_big_data
#DeepSeek #AI #LLM #V3_1 #MachineLearning
❤6🔥4👍2
🧠 Reasoning — это не «да/нет».
Сегодня почти все LLM обучены на схожих RL-техниках. Разница не в том, есть reasoning или нет, а в том, сколько усилий модель тратит на рассуждения.
🔎 Примеры:
- Claude — многие называют «non-reasoning», но именно они первыми ввели спец-токены и режим *«thinking deeply, stand by…»*.
- DeepSeek v3.1 тоже явно тратит токены на рассуждения, просто это пока не так очевидно.
- GPT-5 в thinking-режиме выдаёт лучшие результаты, используя почти в 2 раза меньше токенов, чем o3.
⚡ Ключ — токены на ответ. Их редко показывают, но именно они отражают реальное «усилие reasoning».
R1-0528 и Qwen подняли метрики за счёт увеличения reasoning-токенов, но это не всегда полезно для юзера.
👉 Правильный взгляд: reasoning = спектр.
Цена и ценность модели = активные параметры × число reasoning-токенов.
#AI #LLM #reasoning #benchmarks
Сегодня почти все LLM обучены на схожих RL-техниках. Разница не в том, есть reasoning или нет, а в том, сколько усилий модель тратит на рассуждения.
🔎 Примеры:
- Claude — многие называют «non-reasoning», но именно они первыми ввели спец-токены и режим *«thinking deeply, stand by…»*.
- DeepSeek v3.1 тоже явно тратит токены на рассуждения, просто это пока не так очевидно.
- GPT-5 в thinking-режиме выдаёт лучшие результаты, используя почти в 2 раза меньше токенов, чем o3.
⚡ Ключ — токены на ответ. Их редко показывают, но именно они отражают реальное «усилие reasoning».
R1-0528 и Qwen подняли метрики за счёт увеличения reasoning-токенов, но это не всегда полезно для юзера.
👉 Правильный взгляд: reasoning = спектр.
Цена и ценность модели = активные параметры × число reasoning-токенов.
#AI #LLM #reasoning #benchmarks
❤3👍2🔥2
🔥 Работаете с данными, но избегаете текстов? Тогда пора восполнить пробел — без NLP в современном ML уже не обойтись. Этот курс — не просто теория про трансформеры и word2vec. Это реальная практика:
✅ Создадите телеграм-бота
✅ Научитесь парсить данные
✅ Освоите Langchain и построите систему NER или Q&A.
Вы будете разбираться в архитектурах моделей вроде BERT и GPT, а не просто применять их вслепую. Всё обучение — на живых лекциях от экспертов, с акцентом на русский язык и современные методы. Диплом Otus ценится в индустрии, а знания пригодятся — от CV до продакшн-задач. Осталось только пройти короткое тестирование и получить скидку. Старт совсем скоро — не упустите возможность: https://otus.pw/SSfu9/?erid=2W5zFJdM6Up
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
✅ Создадите телеграм-бота
✅ Научитесь парсить данные
✅ Освоите Langchain и построите систему NER или Q&A.
Вы будете разбираться в архитектурах моделей вроде BERT и GPT, а не просто применять их вслепую. Всё обучение — на живых лекциях от экспертов, с акцентом на русский язык и современные методы. Диплом Otus ценится в индустрии, а знания пригодятся — от CV до продакшн-задач. Осталось только пройти короткое тестирование и получить скидку. Старт совсем скоро — не упустите возможность: https://otus.pw/SSfu9/?erid=2W5zFJdM6Up
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🌟 TabPFN — трансформер для быстрого анализа табличных данных. Этот проект предлагает альтернативу традиционным методам машинного обучения для работы с табличными данными. Модель демонстрирует впечатляющую скорость — решает задачи классификации и регрессии за секунды, даже на небольших датасетах.
Сервис обладает минимальной потребностью в настройке гиперпараметров. Достаточно установить пакет через pip, и модель готова к работе. Для максимальной точности разработчики рекомендуют использовать AutoTabPFN с автоматическим ансамблированием.
🤖 GitHub
@machinelearning_ru
Сервис обладает минимальной потребностью в настройке гиперпараметров. Достаточно установить пакет через pip, и модель готова к работе. Для максимальной точности разработчики рекомендуют использовать AutoTabPFN с автоматическим ансамблированием.
🤖 GitHub
@machinelearning_ru
❤5👍3🔥1
⚡️ Библиотека EasyOCR для распознавания текста на картинках
Поддерживает 80+ языков.
Выдаёт результат в виде списка, каждый элемент которого представляет собой координаты ограничивающей рамки, обнаруженный текст и уровень уверенности модели.
Установка:
🟢 Репозиторий
@machinelearning_ru
Поддерживает 80+ языков.
Выдаёт результат в виде списка, каждый элемент которого представляет собой координаты ограничивающей рамки, обнаруженный текст и уровень уверенности модели.
Установка:
pip install easyocr
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3