🤖 Запустите Moltbot в Cloudflare Sandbox
Moltworker позволяет запускать персонального AI-ассистента Moltbot в среде Cloudflare, обеспечивая управляемую и всегда доступную среду без необходимости самостоятельного хостинга. Проект демонстрирует возможность работы Moltbot в облачной песочнице, включая поддержку нескольких платформ для общения.
🚀 Основные моменты:
- Персональный AI-ассистент с поддержкой Telegram, Discord и Slack
- Веб-интерфейс для управления чатами
- Безопасная аутентификация и управление устройствами
- Хранение истории чатов для постоянного доступа
- Опциональное использование R2 для хранения данных
📌 GitHub: https://github.com/cloudflare/moltworker
Moltworker позволяет запускать персонального AI-ассистента Moltbot в среде Cloudflare, обеспечивая управляемую и всегда доступную среду без необходимости самостоятельного хостинга. Проект демонстрирует возможность работы Moltbot в облачной песочнице, включая поддержку нескольких платформ для общения.
🚀 Основные моменты:
- Персональный AI-ассистент с поддержкой Telegram, Discord и Slack
- Веб-интерфейс для управления чатами
- Безопасная аутентификация и управление устройствами
- Хранение истории чатов для постоянного доступа
- Опциональное использование R2 для хранения данных
📌 GitHub: https://github.com/cloudflare/moltworker
❤1👍1
После этого он даже купил Mac Mini, чтобы найти более безопасную альтернативу.
Его внимание привлёк NanoClaw.
- всё ядро - около 4 000 строк кода
- каждый агент запускается в реальных контейнерах
Но самое интересное - в проекте нет конфигурационных файлов.
https://github.com/qwibitai/nanoclaw
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍7😁2👎1😱1
🧠 Gollem - LLM-агенты на Go, но “по-взрослому”: безопасно, расширяемо, удобно
Нашёл интересный проект: gollem - фреймворк для агентных LLM-приложений на Golang.
GitHub: https://github.com/m-mizutani/gollem
Что делает gollem
Это не просто “обёртка над API”.
Gollem помогает собирать агентов, которые:
- вызывают инструменты (tools)
- выполняют цепочки действий
- работают по workflow
- и при этом не превращают код в кашу
Почему это важно
Когда начинаешь делать агента, быстро появляется боль:
- как безопасно запускать tools
- как хранить контекст
- как логировать шаги и ошибки
- как делать повторяемое поведение (детерминизм)
- как ограничивать права и доступы
И gollem как раз про это - архитектура агента, а не “ещё один чат”.
Что обычно есть в таких системах (и зачем)
✅ чёткая модель “агент → инструмент → результат”
✅ контроль прав: что агенту можно/нельзя
✅ удобные интерфейсы для подключения новых tools
✅ наблюдаемость: трейс шагов, причины решений, дебаг
✅ удобная интеграция в backend на Go
Если ты пишешь бэкенд на Go и хочешь:
- агента, который реально выполняет задачи
- и чтобы это можно было деплоить в прод
то gollem - прям в копилку.
https://github.com/m-mizutani/gollem
Нашёл интересный проект: gollem - фреймворк для агентных LLM-приложений на Golang.
GitHub: https://github.com/m-mizutani/gollem
Что делает gollem
Это не просто “обёртка над API”.
Gollem помогает собирать агентов, которые:
- вызывают инструменты (tools)
- выполняют цепочки действий
- работают по workflow
- и при этом не превращают код в кашу
Почему это важно
Когда начинаешь делать агента, быстро появляется боль:
- как безопасно запускать tools
- как хранить контекст
- как логировать шаги и ошибки
- как делать повторяемое поведение (детерминизм)
- как ограничивать права и доступы
И gollem как раз про это - архитектура агента, а не “ещё один чат”.
Что обычно есть в таких системах (и зачем)
✅ чёткая модель “агент → инструмент → результат”
✅ контроль прав: что агенту можно/нельзя
✅ удобные интерфейсы для подключения новых tools
✅ наблюдаемость: трейс шагов, причины решений, дебаг
✅ удобная интеграция в backend на Go
Если ты пишешь бэкенд на Go и хочешь:
- агента, который реально выполняет задачи
- и чтобы это можно было деплоить в прод
то gollem - прям в копилку.
https://github.com/m-mizutani/gollem
❤6👍2👎1
👩💻 Открытый урок «Продвинутые техники RAG и введение в GraphRAG»
🗓 26 февраля в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced» от Otus.
Что будет на вебинаре:
✔Архитектура современных RAG-систем: retrieval, embeddings, генерация и узкие места классического подхода.
✔Ограничения стандартного RAG и причины перехода к графовым представлениям знаний.
✔Введение в GraphRAG: базовые идеи, компоненты и сценарии применения.
Кому будет полезен вебинар:
✔Практикующим Data Science и ML-специалистам, работающим с LLM и системами генерации текста.
✔Выпускникам курсов Machine Learning (Professional / Advanced) и NLP, которые хотят углубить знания по современным LLM-подходам.
✔ИТ-специалистам и инженерам, внедряющим LLM-решения для работы с текстовыми данными и корпоративными знаниями.
🔗 Ссылка на регистрацию: https://otus.pw/fMOi/?erid=2W5zFFzG82d
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🗓 26 февраля в 20:00 МСК
🆓 Бесплатно. Урок в рамках старта курса «NLP. Advanced» от Otus.
Что будет на вебинаре:
✔Архитектура современных RAG-систем: retrieval, embeddings, генерация и узкие места классического подхода.
✔Ограничения стандартного RAG и причины перехода к графовым представлениям знаний.
✔Введение в GraphRAG: базовые идеи, компоненты и сценарии применения.
Кому будет полезен вебинар:
✔Практикующим Data Science и ML-специалистам, работающим с LLM и системами генерации текста.
✔Выпускникам курсов Machine Learning (Professional / Advanced) и NLP, которые хотят углубить знания по современным LLM-подходам.
✔ИТ-специалистам и инженерам, внедряющим LLM-решения для работы с текстовыми данными и корпоративными знаниями.
🔗 Ссылка на регистрацию: https://otus.pw/fMOi/?erid=2W5zFFzG82d
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🔥2
🧠 Claude-Mem: Умная система памяти для Claude Code
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javascript
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javascript
GitHub
GitHub - thedotmack/claude-mem: A Claude Code plugin that automatically captures everything Claude does during your coding sessions…
A Claude Code plugin that automatically captures everything Claude does during your coding sessions, compresses it with AI (using Claude's agent-sdk), and injects relevant context back into...
👎3
Ты научишься делать те, которые работают в продакшене.
Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:
• не падают из-за мелких изменений на сайте
• собирают данные в разы быстрее
• обновляют всё автоматически по расписанию
• обходят ограничения и блокировки
• выглядят как полноценный сервис, а не как хаос из файлов
Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключаться.
В итоге ты сможешь:
• забирать данные для своих проектов
• автоматизировать чужую рутину
• создавать инструменты для аналитики
• брать коммерческие заказы на сбор данных
Это навык, который напрямую превращается в деньги.
Не «знаю Python», а «умею профессионально добывать данные из интернета».
🎁 Скидка 50% на Stepik действует 48 часов: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2🔥2
🚀 PolymathicAI выпустила огромный открытый датасет для ML-исследований -*The Well*
📦 Это коллекция численных физических симуляций общего назначения — всего ~15 ТБ данных, разбитых на 16 разнообразных наборов, включающих такие области, как:
• динамика жидкостей и турбулентность
• биологические системы
• акустическое рассеяние
• магнито-гидродинамика и моделирование внегалактических сред
• даже симуляции сверхновых 🌌
И всё это можно использовать для обучения и оценки моделей ML.
📊 Зачем это нужно:
ИИ и ML всё чаще используются для ускорения или замены тяжёлых физических симуляций (surrogate modeling), но до сих пор публичные данные были фрагментированы и маленькие. “The Well” даёт единый формат, большой объём и сложные динамические процессы - отличная база для:
• обучения нейросетей, которые предсказывают физическое поведение
• бенчмарков и сравнительных исследований
• создания более быстрых моделей вместо тяжёлых классических симуляторов
📚 Как использовать:
Проект предоставляет Python/PyTorch API - можно легко загрузить данные в даталоадер и использовать их в тренировке моделей. Данные доступны также через Hugging Face и в формате HDF5 для удобства.
💡 Это открытый ресурс с BSD-3-Clause лицензией, ориентированный на высокоуровневые ML-задачи и научные исследования.
Это может стать новым стандартным набором для обучения моделей, которые симулируют сложные физические системы вместо традиционных вычислительных методов.
🔗 Репозиторий на GitHub: github.com/PolymathicAI/the_well
📦 Это коллекция численных физических симуляций общего назначения — всего ~15 ТБ данных, разбитых на 16 разнообразных наборов, включающих такие области, как:
• динамика жидкостей и турбулентность
• биологические системы
• акустическое рассеяние
• магнито-гидродинамика и моделирование внегалактических сред
• даже симуляции сверхновых 🌌
И всё это можно использовать для обучения и оценки моделей ML.
📊 Зачем это нужно:
ИИ и ML всё чаще используются для ускорения или замены тяжёлых физических симуляций (surrogate modeling), но до сих пор публичные данные были фрагментированы и маленькие. “The Well” даёт единый формат, большой объём и сложные динамические процессы - отличная база для:
• обучения нейросетей, которые предсказывают физическое поведение
• бенчмарков и сравнительных исследований
• создания более быстрых моделей вместо тяжёлых классических симуляторов
📚 Как использовать:
Проект предоставляет Python/PyTorch API - можно легко загрузить данные в даталоадер и использовать их в тренировке моделей. Данные доступны также через Hugging Face и в формате HDF5 для удобства.
💡 Это открытый ресурс с BSD-3-Clause лицензией, ориентированный на высокоуровневые ML-задачи и научные исследования.
Это может стать новым стандартным набором для обучения моделей, которые симулируют сложные физические системы вместо традиционных вычислительных методов.
🔗 Репозиторий на GitHub: github.com/PolymathicAI/the_well
❤7👍2🔥1
Небольшая модель на 4B параметров превзошла своего «учителя» в задачах со структурированным выводом. Знакомьтесь - LocoOperator-4B 🚀
Результаты:
- Учитель (Qwen3-Coder-Next): корректный синтаксис — 87,6%
- Студент (4B): 100%
- У учителя — 11 вызовов инструментов с пустыми аргументами
- У LocoOperator-4B — 0 ошибок
Как обучали:
- Full-parameter SFT
- 170K многошаговых диалогов
- ~25 часов обучения на 4× H200
- Использовался фреймворк MS-SWIFT
Специализация модели — навигация по кодовой базе:
Инструменты:
- Read
- Grep
- Glob
- Bash
- Task
Вывод — строго структурированный JSON в формате
Практическое применение:
Модель может работать как локальный sub-agent для Claude Code:
- Sonnet принимает решения
- Haiku маршрутизирует задачи
- выполнение идёт через локальную llama.cpp
- стоимость API — $0
Модель: https://modelscope.cn/models/LocoreMind/LocoOperator-4B
GitHub: https://github.com/LocoreMind/LocoOperator
Результаты:
- Учитель (Qwen3-Coder-Next): корректный синтаксис — 87,6%
- Студент (4B): 100%
- У учителя — 11 вызовов инструментов с пустыми аргументами
- У LocoOperator-4B — 0 ошибок
Как обучали:
- Full-parameter SFT
- 170K многошаговых диалогов
- ~25 часов обучения на 4× H200
- Использовался фреймворк MS-SWIFT
Специализация модели — навигация по кодовой базе:
Инструменты:
- Read
- Grep
- Glob
- Bash
- Task
Вывод — строго структурированный JSON в формате
<tool_call>.Практическое применение:
Модель может работать как локальный sub-agent для Claude Code:
- Sonnet принимает решения
- Haiku маршрутизирует задачи
- выполнение идёт через локальную llama.cpp
- стоимость API — $0
Модель: https://modelscope.cn/models/LocoreMind/LocoOperator-4B
GitHub: https://github.com/LocoreMind/LocoOperator
🔥6👍2
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 КАК ПОДНЯТЬ СВОЕГО AI-АГЕНТА ЗА ПАРУ МИНУТ
Хочешь своего личного AI-ассистента уровня JARVIS, но без монструозной архитектуры и сотен тысяч строк кода? Тогда вместо тяжёлых фреймворков используй ультралёгкие агентные проекты вроде nanobot.
Это идеальный способ быстро понять, как работают AI-агенты изнутри без «магии» и перегруза. Минимальный код = быстрее запуск, проще дебаг, легче кастомизация под свои задачи - будь то анализ данных, автоматизация рутины или помощь в разработке.
Почему такой подход мощный:
- меньше кода - больше понимания
- проще дорабатывать под себя
- быстрее прототипы
- ниже требования к ресурсам
- удобно для исследований и экспериментов
nanobot - это по сути «ядро ассистента» без лишней инфраструктуры. Отличная база, чтобы собрать своего AI-агента под себя.
Как развернуть:
Добавляешь ключ LLM (например, OpenAI) в переменные окружения и запускаешь:
Пример простого использования внутри проекта:
Если хочется своего AI-агента без сложной инфраструктуры - это один из самых быстрых стартов.
https://www.youtube.com/shorts/Wx2RBCnl5nU
#Clawdbot #AIAssistant #Agents
Хочешь своего личного AI-ассистента уровня JARVIS, но без монструозной архитектуры и сотен тысяч строк кода? Тогда вместо тяжёлых фреймворков используй ультралёгкие агентные проекты вроде nanobot.
Это идеальный способ быстро понять, как работают AI-агенты изнутри без «магии» и перегруза. Минимальный код = быстрее запуск, проще дебаг, легче кастомизация под свои задачи - будь то анализ данных, автоматизация рутины или помощь в разработке.
Почему такой подход мощный:
- меньше кода - больше понимания
- проще дорабатывать под себя
- быстрее прототипы
- ниже требования к ресурсам
- удобно для исследований и экспериментов
nanobot - это по сути «ядро ассистента» без лишней инфраструктуры. Отличная база, чтобы собрать своего AI-агента под себя.
Как развернуть:
git clone https://github.com/HKUDS/nanobot.git
cd nanobot
python -m venv venv
source venv/bin/activate
pip install -r requirements.txt
Добавляешь ключ LLM (например, OpenAI) в переменные окружения и запускаешь:
python main.py
Пример простого использования внутри проекта:
from nanobot.agent import Agent
agent = Agent()
response = agent.ask("Составь план задач на день для разработчика")
print(response)
Если хочется своего AI-агента без сложной инфраструктуры - это один из самых быстрых стартов.
https://www.youtube.com/shorts/Wx2RBCnl5nU
#Clawdbot #AIAssistant #Agents
❤4🔥4
🚀 LLMRouter: Умная маршрутизация для LLM
LLMRouter — это библиотека для оптимизации работы с LLM, которая динамически выбирает наиболее подходящую модель для каждого запроса. Она поддерживает более 16 моделей маршрутизации, включая KNN, SVM и графовые методы, и предлагает унифицированный интерфейс командной строки для обучения и взаимодействия.
🚀 Основные моменты:
- Умная маршрутизация запросов на основе сложности и производительности.
- Поддержка множества моделей маршрутизации для различных стратегий.
- Полный интерфейс командной строки для удобного использования.
- Генерация обучающих данных из 11 наборов данных.
📌 GitHub: https://github.com/ulab-uiuc/LLMRouter
#python
LLMRouter — это библиотека для оптимизации работы с LLM, которая динамически выбирает наиболее подходящую модель для каждого запроса. Она поддерживает более 16 моделей маршрутизации, включая KNN, SVM и графовые методы, и предлагает унифицированный интерфейс командной строки для обучения и взаимодействия.
🚀 Основные моменты:
- Умная маршрутизация запросов на основе сложности и производительности.
- Поддержка множества моделей маршрутизации для различных стратегий.
- Полный интерфейс командной строки для удобного использования.
- Генерация обучающих данных из 11 наборов данных.
📌 GitHub: https://github.com/ulab-uiuc/LLMRouter
#python
GitHub
GitHub - ulab-uiuc/LLMRouter: LLMRouter: An Open-Source Library for LLM Routing
LLMRouter: An Open-Source Library for LLM Routing. Contribute to ulab-uiuc/LLMRouter development by creating an account on GitHub.
👍3❤2
Media is too big
VIEW IN TELEGRAM
Openpilot - это открытый проект продвинутой помощи водителю (ADAS), разработанный компанией *comma.ai* и сообществом на
Это операционная система для робототехники в авто, которая может:
- автоматически центровать автомобиль в своей полосе
- управлять адаптивным круиз-контролем
- поддерживать безопасную дистанцию и тормозить
- менять полосу при сигнале поворотника
Система работает через подключение к CAN-шине автомобиля и поддерживается более чем 300 моделями автомобилей от Toyota, Hyundai, Honda и других.
Openpilot может быть установлен на официальные устройства *comma.ai* (например Comma 3X), но также поддерживается установка на другие платформы при наличии подходящего hardware.
Проект активно развивается, имеет большое сообщество, документацию и инструменты для разработки и тестирования.
https://github.com/commaai/openpilot
Это операционная система для робототехники в авто, которая может:
- автоматически центровать автомобиль в своей полосе
- управлять адаптивным круиз-контролем
- поддерживать безопасную дистанцию и тормозить
- менять полосу при сигнале поворотника
Система работает через подключение к CAN-шине автомобиля и поддерживается более чем 300 моделями автомобилей от Toyota, Hyundai, Honda и других.
Openpilot может быть установлен на официальные устройства *comma.ai* (например Comma 3X), но также поддерживается установка на другие платформы при наличии подходящего hardware.
Проект активно развивается, имеет большое сообщество, документацию и инструменты для разработки и тестирования.
https://github.com/commaai/openpilot
❤3🤯2
🔥 Qwen 3.5 Series GPTQ-Int4
Вышли квантизированные веса GPTQ-Int4 для серии Qwen 3.5 - теперь запускать мощные модели можно даже на ограниченном железе.
- GPTQ-Int4
4-битная квантизация = значительно меньше потребление VRAM.
- Нативная поддержка vLLM и SGLang
Можно запускать без костылей и сложной настройки.
- Меньше памяти - быстрее инференс
Подходит для локальных серверов, single-GPU машин и бюджетных сетапов.
- Production-ready
Идеально для тех, кто строит свои LLM-сервисы и хочет максимум эффективности.
Запустить мощную модель теперь можно даже на ограниченном GPU-сетапе.
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
Вышли квантизированные веса GPTQ-Int4 для серии Qwen 3.5 - теперь запускать мощные модели можно даже на ограниченном железе.
- GPTQ-Int4
4-битная квантизация = значительно меньше потребление VRAM.
- Нативная поддержка vLLM и SGLang
Можно запускать без костылей и сложной настройки.
- Меньше памяти - быстрее инференс
Подходит для локальных серверов, single-GPU машин и бюджетных сетапов.
- Production-ready
Идеально для тех, кто строит свои LLM-сервисы и хочет максимум эффективности.
Запустить мощную модель теперь можно даже на ограниченном GPU-сетапе.
Hugging Face: https://huggingface.co/collections/Qwen/qwen35
ModelScope: https://modelscope.cn/collections/Qwen/Qwen35
❤4🔥2
Градиентный спуск — это фундамент, на котором держится почти всё машинное обучение (machine learning) и глубокое обучение (deep learning). Как только модель не сходится, уходит в осцилляции или застревает — без понимания механики вы остаетесь без инструментов.
12 марта в 20:00 МСК на открытом уроке мы разберём, как модель на самом деле движется по многомерному ландшафту ошибок, почему путь к минимуму редко бывает прямым и какую роль играет шаг обучения.
🚀 Вы поймёте, как выбирать коэффициент скорости обучения (learning rate), чем отличаются классический, стохастический и продвинутые варианты градиентного спуска, как диагностировать сходимость и отличать реальное обучение от блуждания. Все ключевые идеи будут показаны на наглядных примерах на языке программирования Питон (Python) — без абстракций и чёрных ящиков.
➡️ Встречаемся в рамках курса «Machine Learning». Регистрация: https://otus.pw/AMlA/?erid=2W5zFK44bQV
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
12 марта в 20:00 МСК на открытом уроке мы разберём, как модель на самом деле движется по многомерному ландшафту ошибок, почему путь к минимуму редко бывает прямым и какую роль играет шаг обучения.
🚀 Вы поймёте, как выбирать коэффициент скорости обучения (learning rate), чем отличаются классический, стохастический и продвинутые варианты градиентного спуска, как диагностировать сходимость и отличать реальное обучение от блуждания. Все ключевые идеи будут показаны на наглядных примерах на языке программирования Питон (Python) — без абстракций и чёрных ящиков.
➡️ Встречаемся в рамках курса «Machine Learning». Регистрация: https://otus.pw/AMlA/?erid=2W5zFK44bQV
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤1
Forwarded from Machinelearning
Anthropic перенесла часть инженерной культуры: тестирование, бенчмаркинг и итеративность в процесс создания навыков и для этого теперь не нужно уметь писать код.
В skill-creator добавили автоматические тесты, бенчмарки и A/B-сравнения и теперь создатели навыков могут измерить, работает ли skill, до его запуска в продакшен.
Автор задает тестовые промпты и описывает, как выглядит нужный результат. Skill-creator запускает их параллельно: с навыком и без него.
Независимый агент-сравниватель оценивает результаты вслепую, не зная, какая версия перед ним, и сразу показывает, дает ли навык реальный прирост.
Внутренние тесты Anthropic: точность PDF-навыка выросла с 6/8 до 7/8, Excel-навыка - с 6/8 до полных 8/8.
Отдельный бенчмарк-режим дает детальную картину по каждому прогону: процент успешных тестов, время выполнения, расход токенов.
На примере PDF-навыка при работе с незаполняемыми формами и таблицами из многостраничных документов успешность выросла с 40 до 100% (при том же времени выполнения).
Если базовая модель начинает проходить тесты без загруженного навыка - это сигнал о том, что навык уже есть в ее поведении и skill можно отключить. Результаты тестов хранятся локально и интегрируются в CI-системы.
Claude решает, когда подключить навык, исключительно по короткому текстовому описанию в системном промпте.
Skill-creator теперь анализирует эти описания против тестовых промптов и предлагает правки, снижающие и ложные срабатывания и пропуски.
По результатам внутреннего прогона триггеринг стал лучше на 5 из 6 публичных навыков.
Все обновления уже доступны в вебе и Cowork. Для Claude Code обновили плагин или вот он же - в репозитории, если ставить руками.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3