Машинное обучение RU
18.1K subscribers
1.65K photos
237 videos
11 files
2.1K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🇺🇸 | Роботы-собаки с ГИПЕР-РЕАЛИСТИЧНЫМИ силиконовыми головами Маска, Безоса, Цукерберга и других бродят по Новой Национальной галерее в Берлине...

И время от времени «испражняются» напечатанные изображениями.
😁82👍2🔥2🤯2
🚀 GSD 2: Новый уровень автоматизации разработки

GSD 2 — это эволюция инструмента Get Shit Done, превращенная в полноценный CLI-агент. Он управляет процессами разработки, обеспечивая контроль контекста, автоматизацию задач и восстановление после сбоев. С GSD 2 вы можете просто запустить команду и вернуться к готовому проекту с чистой историей git.

🚀 Основные моменты:
- Автоматическое управление задачами с чистым контекстом.
- Восстановление после сбоев и отслеживание затрат.
- Программное управление ветками git и диагностика зависаний.
- Интеграция с Pi SDK для прямого доступа к агенту.
- Упрощенная миграция из предыдущей версии.

📌 GitHub: https://github.com/gsd-build/gsd-2
👍6🔥2🤔21
Forwarded from Golang
⚡️ Ollamon - терминальный монитор для Ollama-ноды

Если вы гоняете локальные модели через Ollama, быстро появляется типичная проблема: модель вроде работает, но что именно происходит внутри ноды, видно плохо.

Это TUI-монитор на Go для наблюдения за Ollama прямо из терминала: состояние ноды, активность, модели и операционные метрики в одном интерфейсе.

Полезно, чтобы не открывать лишние панели, не городить дашборды и не прыгать между командами. Запустил терминал - сразу видишь, что происходит с локальной LLM-инфраструктурой.

Годно, если вы держите несколько моделей, проверяете нагрузку и хотите понимать состояние ноды без лишнего шума.

GitHub: https://github.com/hbasria/ollamon

#golang
👍73
🧑‍🏫 Clicky: Ваш AI-наставник рядом с курсором

Clicky — это умный помощник, который помогает учиться, взаимодействуя с вашим экраном. Он может видеть, говорить и указывать на важные элементы, создавая эффект настоящего учителя. Открытый исходный код позволяет разработчикам настраивать и расширять функциональность.

🚀Основные моменты:
- AI-помощник в меню для macOS
- Интеграция с Claude, AssemblyAI и ElevenLabs
- Поддержка голосового ввода и экранного захвата
- Легкость в настройке и расширении функционала

📌 GitHub: https://github.com/farzaa/clicky

#swift
2🔥2
🖥 На Stepik обновили курс «C# с нуля до профи»

Представьте: через четыре месяца вы открываете чужой .NET-проект и читаете его как книгу.

IServiceCollection не вызывает ступора. async Task<IActionResult> пишется на автомате. Вы точно знаете, почему EF Core сгенерировал именно такой SQL - и как переписать запрос, чтобы он летал.

Это не фантазия. Это результат после 16 модулей, в которых каждая концепция объясняется через код и закрепляется практикой.

ООП, SOLID, LINQ, async/await, DI, EF Core, ASP.NET Core, Docker, Kubernetes - всё, что казалось магией, станет рабочим инструментом.

А бонусом - портфолио проектов: от CLI-утилит и REST API до собственного SaaS с multi-tenancy, JWT и деплоем в Kubernetes под TLS.

Скидка - 58% доступна 48 часов: https://stepik.org/a/282984/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁31👍1🔥1
Программисты до vs после агентов
😁23🥰3
🎥 Редактируй видео с помощью Claude Code

video-use — это инструмент для редактирования видео, который использует ИИ для автоматизации процесса. Просто поместите сырые кадры в папку, общайтесь с Claude Code и получайте готовое видео без лишних настроек.

🚀 Основные моменты:
- Удаляет лишние слова и паузы
- Автоматическая цветокоррекция сегментов
- Добавляет субтитры и анимации
- Оценивает качество на каждом этапе
- Сохраняет память о сессиях

📌 GitHub: https://github.com/browser-use/video-use

#python
👍4🔥3
Codex обогнал Claude Code по скачиваниям. По данным TickerTrends, перелом произошел 30 апреля: после этого Codex продолжил набирать долю, а рост Claude Code заметно замедлился.

Claude 4.7 вышел 16 апреля, GPT-5.5 - 24 апреля. Дальше выводы делайте сами.
👍104
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Один слой контекста срезал Claude Code расходы в 3 раза

Интересный кейс: Claude Code начал тратить в 3 раза меньше токенов после одного изменения в workflow.

До: 10.4M токенов, 10 ошибок, $9.21.
После: 3.7M токенов, 0 ошибок, $2.81.

Что поменяли? Вместо того чтобы каждый раз скармливать Claude Code лишний контекст вручную, автор подключил Insforge Skills + CLI как backend-слой для context engineering.

Проще говоря, Claude Code стал получать не «всё подряд», а нужный контекст в нужный момент. Меньше мусора в окне, меньше блужданий по проекту, меньше повторных попыток, меньше счёт за токены.

Это open-source и работает локально. То есть речь пронормальную инженерную прокладку между кодом и агентом.

Подход, при котором нужно не писать промпты длиннее, а строить им нормальную систему памяти, навыков и доступа к контексту.

https://github.com/InsForge/InsForge

@ai_machinelearning_big_data

#claude
👍42
🔥6👍3😁3
🔍 Открытая теоретическая реализация Claude Mythos

OpenMythos — это открытый проект, который воссоздает модель Claude Mythos, используя Рекуррентный Глубокий Трансформер (RDT). Он сочетает в себе стандартные трансформерные блоки с рекуррентными циклами для более глубокого и адаптивного мышления, что позволяет эффективно обрабатывать сложные задачи.

🚀 Основные моменты:
- Реализация трехступенчатой архитектуры: Prelude, Recurrent Block и Coda.
- Переключаемое внимание между MLA и GQA.
- Использование разреженных экспертов для оптимизации вычислений.
- Поддержка глубокой экстраполяции и систематической генерализации.

📌 GitHub: https://github.com/kyegomez/OpenMythos

#python
🔥42👍2
Claude Code больше не игрушка. Это твой второй инженер.

Пока одни копируют сниппеты из чата - другие уже отдают агенту рефакторинг монорепо, code review, миграции и расследование инцидентов.

И уходят домой вовремя.

Этот курс - мост между «иногда использую Claude Code» и собственной агентной инфраструктурой в проде.

20 модулей. Только практика. Каждый урок = артефакт в твой проект:
🔹 свои slash-команды и CLAUDE.md под проект
🔹 sub-agents, которые работают в тандеме
🔹 хуки, которые ловят ошибки до того, как ты их заметил
🔹 собственные MCP-серверы под твой стек
🔹 workflow в GitHub Actions, который сам ведёт PR

Что изменится у тебя через месяц:

→ релизы быстрее в разы
→ ревью занимает минуты, а не часы
→ токены тратятся осознанно
→ безопасность встроена, а не «потом допилим»
→ команда работает с агентом, а не вместо него

Для разработчиков, тимлидов, DevOps и архитекторов, которые почувствовали, что Claude Code - почти магия. Пора довести её до магии на продакшене.

🎓 Курс на Stepik
🔥 Прямо сейчас - скидка 50%. Цена - как один рабочий час мила.

Перестань играться. Начни выкатывать. 👉 https://stepik.org/a/285842/
2👍2🔥2🤬2😁1
ИИ-агенты смогут учиться не на датасетах, а на ваших правках

OpenClaw-RL предлагает очень важный сдвиг: модель больше не ждёт, пока люди вручную соберут, разметят и оценят огромный датасет.

Она учится прямо во время обычной работы.

Пользователь поправил ассистента? Это сигнал.
Тест упал? Это сигнал.
Человек задал тот же вопрос ещё раз? Возможно, ответ был плохим.
Лог ошибки показал, где агент сломался? Это тоже обучающий пример.

Главная идея простая: современные RL-системы часто смотрят только на финальный результат - получилось или нет. Но они игнорируют самое ценное: объяснение, почему не получилось и что надо было сделать иначе.

OpenClaw-RL вытаскивает из каждого взаимодействия два типа сигналов:

1. Оценочный сигнал
Система понимает, сработало действие или нет. Например:
- тест прошёл - хорошо;
- пользователь повторил вопрос - вероятно, недоволен;
- задача завершилась ошибкой - агент сделал что-то не так.

2. Направляющий сигнал
Система смотрит, как именно надо было исправить поведение:
- правки пользователя;
- error logs;
- терминальные команды;
- клики в интерфейсе;
- исправления в коде;
- реакции в обычном чате.

Дальше агент учится в фоне и не останавливает работу. Он просто превращает реальные реакции пользователя в постоянный поток обучения.

Это уже не классическое «собрали датасет - обучили модель - выкатили новую версию».

Это ближе к живому агенту, который становится лучше от каждого рабочего контакта с человеком, тестами, терминалом и интерфейсом.

Если подход взлетит, будущие AI Agents будут не просто выполнять задачи, а постепенно подстраиваться под стиль конкретного пользователя, команду и рабочую среду.

Paper: OpenClaw-RL: Train Any Agent Simply by Talking
arxiv.org/abs/2603.10165
👍74🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic запустили свой круглосуточный Lo-Fi стрим.
Только вместо лоуфай-девочки там сидит клаудбот и бесконечно что-то вайбкодит. Название текущего трека аккуратно висит сверху.

youtube.com/live/AUQKjgKQF7w?si=aWm-PezgBem9rOlp
7👍5👎3🔥2