Машинное обучение RU
17.7K subscribers
1.57K photos
207 videos
11 files
2.04K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Speech-to-text прямо из терминала 🎤

Удобный терминальный инструмент, который умеет:
- записывать голос;
- превращать речь в текст;
- показывать реальный waveform в терминале со шкалой dBFS и детектором клиппинга.

🦀 Написан на Rust
🎨 Интерфейс собран на ratatui
🎥 У автора есть демо (ниже в треде)

GitHub: https://github.com/kristoferlund/ostt
👍42🔥2
⚡️ Разработчики Z-Image Turbo выложили в open-source DistillPatch LoRA - простое решение, которое возвращает настоящую Turbo-скорость генерации в 8 шагов для любых LoRA, дообученных на Z-Image Turbo.

В чём была проблема:
Обычное обучение LoRA ломает ускорение Turbo.
При steps=8 и cfg=1 изображения получаются размытыми, поэтому приходится повышать шаги до 30 — и теряется весь смысл Turbo.

Что проверили разработчики:
1️⃣ Стандартный SFT
Качество хорошее, но генерация медленная

2️⃣ Diff-LoRA
Быстро, но плохо подходит для гибких сценариев

3️⃣ SFT + дистилляция
Отличное качество, но сложный и тяжёлый пайплайн

4️⃣ SFT + DistillPatch — рекомендуемый вариант
Подключаешь один LoRA и сразу возвращаешь:
- чёткие изображения
- 8 шагов
- настоящую Turbo-скорость 🚀

Кому это особенно полезно:
- Если у тебя уже есть LoRA под Z-Image Turbo
- Если ты используешь стандартные SFT-пайплайны
- Если важен быстрый инференс без потери качества

DistillPatch не требует переобучения всей модели и не усложняет процесс - он просто возвращает то ускорение, ради которого Z-Image Turbo и существует.

🔗 Grab the model: https://modelscope.cn/models/DiffSynth-Studio/Z-Image-Turbo-DistillPatch
🎨 Try it live: https://modelscope.cn/aigc/imageGeneration?tab=advanced
🤖 Github: https://github.com/modelscope/DiffSynth-Studio/blob/main/docs/en/Model_Details/Z-Image.md
3👍2
⚡️ Новая работа Harvard - LLM чувствуют «силу мысли», но не понимают её источник

Исследователи показали: большие языковые модели могут ощущать, что на их внутреннее состояние что-то сильно влияет, но при этом обычно не способны объяснить, что именно.

Что сделали авторы:
- Они искусственно «подталкивают» скрытые активации модели в заданном направлении
- Модель часто может определить насколько сильным был этот сдвиг
- Но даже заметив изменение внутри себя, она не может корректно назвать внедрённый концепт, например «предательство» или «спутники»

Проще говоря:
Модель может сказать
«на меня сейчас сильно что-то влияет»,
но не может надёжно сказать
«это именно концепт предательства»


Поэтому авторы называют это частичной интроспекцией:
- модель считывает простой сигнал (силу воздействия)
- но не понимает смысл собственного внутреннего состояния

Результаты:
- На Llama 3.1 8B Instruct модель определяет силу инъекции (от слабой до очень сильной) с точностью около 70%
- Случайный уровень - 25%
- Корректно назвать сам концепт удаётся лишь примерно в 20% случаев
- Переформулировка вопроса легко ломает ответы

Некоторые идеи AI-безопасности предполагают, что модель можно спросить, активировано ли внутри неё опасное состояние.

Но эксперимент показывает:
- LLM действительно чувствуют внутренние сигналы
- Однако их объяснения того, что эти сигналы означают, ненадёжны

Как это работает:
- Каждый токен формирует большое числовое состояние
- Авторы создают направление концепта, сравнивая примеры с контрастным набором
- Затем на выбранном слое слегка смещают внутреннее состояние
- И смотрят, что модель может сказать о происходящем

LLM обладают ограниченной самодиагностикой,
но интроспекция не равна пониманию.

Paper:https://arxiv.org/abs/2512.12411
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥53
📘 На Stepik вышел курс — «LLM Security PRO: prompt injection • утечки • tool-abuse»

Если вы используете LLM в проде и в запросы/логи может попасть ПДн — вы рискуете комплаенсом (вплоть до штрафов на миллионы рублей, по отдельным нарушениям — до 6 млн ₽).
А если у вас нет инженерных контуров безопасности, то даже без “юристов” вы можете потерять проект: injection через пользователя/документ, утечки в ответы/логи, опасные tool-действия, cost-DoS и остановка релиза.

Этот курс — практический путь к безопасному LLM-продакшну:

• Prompt injection (direct) + indirect injection через RAG: как это ломает поведение и как закрывать
• Защита RAG: instruction hierarchy, grounded-режим, цитирование, контроль контекста
• Tool security: allowlist, scopes/permissions, approvals (human-in-the-loop), валидация параметров
• Output safety: строгий JSON-контракт (Schema/Pydantic) + safe parsing
• Leakage prevention: redaction, политика логов/ретеншн, memory hygiene
• Cost control: лимиты токенов/времени/tool-calls, anti-loop, quotas/rate limit, circuit breaker
• Red-team suite + security-gates в CI/CD: чтобы регрессы не уезжали в релиз

🎓 Сертификат Stepik — в резюме/LinkedIn

💻 Локальный стенд + реальный LLM (OpenAI API), код на GitHub, сервисы поднимать не нужно

🚀 Скидка 25%, действует 48 часов

👉
Пройти курс со скидкой
2👍1
✔️ ByteDance представила Depth Anything 3.

Depth Anything 3 может предсказывает пространственно-согласованную геометрию по одному или нескольким изображениям, даже без известных параметров камеры. Ключевая особенность релиза - в радикальном упрощении архитектуры.

Под капотом единый трансформер и унифицированное представление depth-ray. Одна и та же модель теперь решает целый спектр задач: от монокулярной оценки глубины и определения поз камеры до прямой генерации 3D гауссианов для синтеза новых ракурсов.

В тестах DA3 превзошла предыдущие версии. Команда выпустила веса моделей, инструментарий CLI и WebUI на Gradio.
depth-anything-3.github.io
Please open Telegram to view this post
VIEW IN TELEGRAM
4👍1
🧠 Anthropic и Claude - одни из главных бенефициаров 2025 года.

Claude продемонстрировал самую долгую автономную работу ИИ-агента на сегодня4 часа 49 минут без участия человека.

Это соответствует 50% time horizon и является текущим рекордом в агентных системах.

Но картина не такая однозначная.

У флагманской модели Claude Opus 4.5:
- 80% time horizon составляет всего 27 минут
- это примерно уровень прошлых моделей
- и меньше, чем у GPT-5.1-Codex-Max (32 минуты)

Что это значит по сути:

- Anthropic действительно впереди по длительной устойчивой автономности
- но при более жёстких критериях надёжности лидерство пока не закреплено
- конкуренты остаются очень близко

Гонка не закончена и победитель не определён.
Развитие ИИ-агентов идёт по экспоненте, а не по прямой.

Каждый новый релиз сдвигает ключевую границу:
насколько долго ИИ может работать самостоятельно,
не ломаясь и не теряя качества.

И именно время автономной устойчивой работы, а не классические бенчмарки,
становится главным показателем прогресса в агентном ИИ.
5👍2
Боль 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
😁35🔥2👍1😢1
✔️ Z.ai выпустила GLM-4.7.

GLM-4.7 - обновление линейки моделей, оптимизированное для разработчиков. При размере в 358 млрд. параметров модель показала существенный прирост производительности в программировании, работе с терминалом и созданию чистого UI-кода (функция Vibe Coding). На SWE-bench Verified модель улучшила результат до 73.8%, а в тестах на сложное математическое рассуждение прирост составил более 12%.

Архитектурное новшество релиза — развитие механизмов мышления. Функция Preserved Thinking позволяет модели сохранять и переиспользовать CoT между репликами, а механизм Interleaved Thinking дает время на анализ перед каждым вызовом внешних инструментов.

GLM-4.7 уже доступна через API и на OpenRouter, а веса модели выложены на HuggingFace и ModelScope.
z.ai
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1
Российские генеративные модели Kandinsky 5.0 Video Lite и Pro в международной text-to-video арене

🔘Pro версия является ТОП-1 опенсорсом в мире

🔘Lite версия (2B параметров) лучше первой версии Sora

🔘На данный момент Сбер уступает только топовым мировым бигтех компаниям: Google (Veo 3.1, Veo 3), OpenAI (Sora 2), Alibaba (Wan 2.5), KlingAI (Kling 2.5, 2.6); в паритете с Luma AI (Ray 3), MiniMax (Hailuo 2.3) — отрыв по ELO максимум 3 балла, при 95% доверительном интервале оценивания +-21 балла

🔘Для российских генеративных моделей выход на международную арену — уникальное событие

🚀 Полезные ссылки:
🔘Посмотреть весь лидерборд: lmarena
🔘Почитать подробнее про Kandinsky 5.0: пост, техрепорт
🔘Open Source Kandinsky 5.0: github и hf
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥61👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
💡 Dario Amodei об AGI и будущем работы.

CEO Anthropic говорит прямо: ИИ может впервые реально убрать необходимость массового человеческого труда.

Ключевое:

• AGI ведёт к технологической безработице
ИИ способен выполнять большую часть экономически полезной работы быстрее и дешевле человека.

• Работа перестаёт быть условием выживания
В будущем труд - это выбор.
Смысл смещается к семье, творчеству и развитию.

• Такой переход нельзя навязать
Общество будет перестраиваться постепенно, а не по указу.

• Изменения идут с разной скоростью
Компании - быстро, отрасли - медленнее, ценность человека вне работы - дольше всего.

Вопрос не в том, придёт ли это.
Вопрос - что сломается раньше: рынок труда или наше представление о ценности человека.
5👎3🤔3😁1
🧠 MiroThinker: Инновационный исследовательский агент

MiroThinker — это открытый исследовательский агент, который улучшает возможности рассуждений и поиска информации. Он поддерживает инструментальную помощь и демонстрирует выдающиеся результаты на различных бенчмарках, включая HLE и BrowserComp.

🚀 Основные моменты:
- 💡 Поддержка интерактивного масштабирования для глубоких взаимодействий.
- 📚 Доступ к уникальному набору данных MiroVerse с 147k образцами.
- 🔧 Инфраструктура для стабильного обучения моделей.
- 🤖 Совместимость с множеством бенчмарков и инструментов.

📌 GitHub: https://github.com/MiroMindAI/MiroThinker

#python
🤔2
А что, если можно проверить свой уровень в Data Science без собеседований, звонков и HR-скрининга?

Авито вместе с getmatch сделали тест по Data Science, основанный на реальных интервью DS-специалистов компании.

Что даёт тест:

🔍 Оценка компетенций
Поймёте, какие навыки уже хорошо прокачаны, а где есть точки роста – выводы основаны на практике, а не на абстрактной теории.

⚡️ Шанс стать заметнее для рекрутеров
Можно открыть доступ к результатам теста и повысить шансы на оффер.

☑️ Подробный разбор
В течение дня на почту придёт письмо с анализом ответов и рекомендациями.

Отличная возможность спокойно проверить себя на праздниках и понять, куда двигаться дальше.

Ссылку на тест оставили здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
✔️ Qwen обновила Qwen-Image-Edit.

Новая версия Qwen-Image-Edit-2511 пришла на смену сборке 2509 и предлагает ряд качественных изменений. Теперь модель лучше сохраняет консистентность персонажей и общую структуру кадра при внесении локальных правок.

Помимо стабильности, усилили способности к геометрическому рассуждению и генерации промышленного дизайна. Попробовать новинку можно через веб-интерфейс Qwen Chat, а веса для локального развертывания уже на HuggingFace и ModelScope.
TongyiLab в сети Х
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Учёные Гарварда заявили о реальном квантовом прорыве для будущего суперкомпьютеров.

Новая экспериментальная платформа решает одну из самых жёстких проблем масштабирования квантовых машин - поддержание управления и когерентности в больших системах связанных кубитов. Это ещё не полное решение, но шаг к аппаратуре, где огромные устойчивые квантовые архитектуры становятся реальнее.

🔹 Почему это важно?
Квантовые компьютеры годами застревали на уровне небольших шумных устройств. Прорыв в масштабировании - это движение к машинам, которые смогут моделировать химию, материалы, климат и криптографию, недоступные обычным суперкомпьютерам.

Квант наконец начинает выглядеть как будущее, а не демонстрационный стенд.

Но путь впереди тяжёлый: одно открытие - легко, а вот построить миллионы одинаково стабильных кубитов — почти невыполнимая задача. Полноценный квантовый суперкомпьютер всё ещё далеко, но теперь он стал немного ближе.
5🤔2🔥1