🐈 OpenClaw ВСЕ! китайцы запилили Nanobot
Гонконгские исследователи (HKUDS - авторы LightRAG, DeepTutor, DeepCode, AI-Trader и пр.) решили, что 430 тысяч строк кода в OpenClaw (вместе с зависимостями) — это слишком «жирно» для быстрой разработки, и выкатили nanobot.
Суть:
Это клон архитектуры Clawdbot, но сжатый до ~4000 строк кода. По сути — «агентский минимум» на Python, который можно прочитать за вечер под кофе и запустить на калькуляторе.
Технический фарш:
• 99% экономии кода: Выкинули всё тяжелое, оставив базу: Agent Loop, Context Builder и Memory.
• Python-native: Если оригинальный OpenClaw — это мощный Node.js комбайн, то здесь всё на Python стеке
• Интеграции из коробки: Telegram (через токен) и WhatsApp (через сканирование QR).
• Архитектура «Тяни-Толкай»: Есть
Почему интересно:
Это идеальный «песочный» вариант для исследований. Если тебе нужно быстро проверить новую механику RAG или специфический Skill, и ты не хочешь лезть в дебри TypeScript — nanobot отличный полигон.
Или на случай если нужно запустить рой из нано агентов, чтобы GPU датацентры просто сгорели под нагрузкой :)
Вердикт:
Пока мы деплоим «взрослые» инстансы в Cloudflare, этот «котенок» показывает, насколько компактными могут быть AI-агенты, если вырезать из них весь интерфейсный жир и оставить только логику.
Ссылка на репозиторий
Доброе утро, мои медленные друзья :)
#OpenSource #Agents #Nanobot #HKUDS #Китай
———
@tsingular
Гонконгские исследователи (HKUDS - авторы LightRAG, DeepTutor, DeepCode, AI-Trader и пр.) решили, что 430 тысяч строк кода в OpenClaw (вместе с зависимостями) — это слишком «жирно» для быстрой разработки, и выкатили nanobot.
Суть:
Это клон архитектуры Clawdbot, но сжатый до ~4000 строк кода. По сути — «агентский минимум» на Python, который можно прочитать за вечер под кофе и запустить на калькуляторе.
Технический фарш:
• 99% экономии кода: Выкинули всё тяжелое, оставив базу: Agent Loop, Context Builder и Memory.
• Python-native: Если оригинальный OpenClaw — это мощный Node.js комбайн, то здесь всё на Python стеке
pip install nanobot-ai.• Интеграции из коробки: Telegram (через токен) и WhatsApp (через сканирование QR).
• Архитектура «Тяни-Толкай»: Есть
nanobot gateway для работы в фоне и nanobot agent для CLI-приверженцев.Почему интересно:
Это идеальный «песочный» вариант для исследований. Если тебе нужно быстро проверить новую механику RAG или специфический Skill, и ты не хочешь лезть в дебри TypeScript — nanobot отличный полигон.
Или на случай если нужно запустить рой из нано агентов, чтобы GPU датацентры просто сгорели под нагрузкой :)
Вердикт:
Пока мы деплоим «взрослые» инстансы в Cloudflare, этот «котенок» показывает, насколько компактными могут быть AI-агенты, если вырезать из них весь интерфейсный жир и оставить только логику.
Ссылка на репозиторий
Доброе утро, мои медленные друзья :)
#OpenSource #Agents #Nanobot #HKUDS #Китай
———
@tsingular
1🔥23❤6👍5😁3⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
"Мама сказала, что поскольку ИИ боты выгонят офисный планктон из офисов, то нужно идти на ферму собирать урожай, там точно ИИ не проблема"
Тем временем владелец фермы в Китае, который ранее нанимал туземцев собирать себе урожай
AI-projects
#юмор #фермы #роботы
------
@tsingular
Тем временем владелец фермы в Китае, который ранее нанимал туземцев собирать себе урожай
AI-projects
#юмор #фермы #роботы
------
@tsingular
1🔥33😁13⚡5❤2
⚡️ Sonnet 5 уже ЗАВТРА!
В логах Google Vertex AI засветились следы новой модели Anthropic, -
Если утечка верна, то завтра, 3 февраля, Anthropic выкатывает пятую версию своего флагмана.
Готовимся тестировать :)
#Anthropic #Claude #Sonnet
———
@tsingular
В логах Google Vertex AI засветились следы новой модели Anthropic, -
claude-sonnet-5@20260203. Если утечка верна, то завтра, 3 февраля, Anthropic выкатывает пятую версию своего флагмана.
Готовимся тестировать :)
#Anthropic #Claude #Sonnet
———
@tsingular
1🔥19👍7🆒4❤1
Forwarded from Не баг, а фича
Карта по тестам оставляет позади топовую RTX 5090 на 30%, а на её борту целых
С обедов накопить можно...
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥20😁16⚡3❤2🐳2🤩1
Openclaw за неделю уделал Кубер по популярности :)
120К звёзд у Кубера и 147К у Openclaw
Продолжаем наблюдение :)
#Opencalw #Kubernates
———
@tsingular
120К звёзд у Кубера и 147К у Openclaw
Продолжаем наблюдение :)
#Opencalw #Kubernates
———
@tsingular
1 18🔥11👾4❤1😁1🎉1
OpenClaw 2026.2.1: + к Броне и Интеллекту
Срочно обновляемся:
Что внутри:
🛡 Безопасность: Закрыт ряд серьезных уязвимостей, связанных с инъекциями путей и LFI (Local File Inclusion). Теперь манипуляции с путями в плагинах и инструментах жестко пресекаются на уровне ядра. Если ваш OpenClaw смотрит в мир,- обновляться обязательно.
🧠 RAG 2.0: Пофиксили L2-нормализацию векторов для локального поиска. Это критично для семантического поиска по
⚡️ Стабильный стриминг: Улучшена логика фрагментации текста (newline chunking) при стриминге ответов. Теперь Markdown-блоки и списки не «разваливаются» при передаче в Telegram и Slack, а вылетают цельными, читаемыми параграфами.
🔹 Telegram Shared Pairing: Если у вас несколько ботов, теперь они используют общее хранилище пейринга. Сессии больше не «забываются» при рестарте гейтвея.
🔹 OpenRouter Attribution: Добавлена корректная передача заголовков для OpenRouter. Мелочь, но теперь лимиты и приоритеты будут считаться точнее.
Резюме: релиз про надежность инфраструктуры. Чтобы ИИ не просто «болтал», а работал как предсказуемый корпоративный инструмент.
По ощущениям, - он стал более проактивным.
Сам проверил календарь, подсказал что у нас по плану на завтра.
#OpenClaw #AI #SecureAI #Automation #Updates
———
@tsingular
Срочно обновляемся:
openclaw update. В свежем релизе проведена серьезная работа над безопасностью и качеством «внимания» агентов.Что внутри:
🛡 Безопасность: Закрыт ряд серьезных уязвимостей, связанных с инъекциями путей и LFI (Local File Inclusion). Теперь манипуляции с путями в плагинах и инструментах жестко пресекаются на уровне ядра. Если ваш OpenClaw смотрит в мир,- обновляться обязательно.
🧠 RAG 2.0: Пофиксили L2-нормализацию векторов для локального поиска. Это критично для семантического поиска по
MEMORY.md. Теперь «вспоминая» контекст, бот будет находить именно релевантные факты, а не просто похожие по словам куски.⚡️ Стабильный стриминг: Улучшена логика фрагментации текста (newline chunking) при стриминге ответов. Теперь Markdown-блоки и списки не «разваливаются» при передаче в Telegram и Slack, а вылетают цельными, читаемыми параграфами.
🔹 Telegram Shared Pairing: Если у вас несколько ботов, теперь они используют общее хранилище пейринга. Сессии больше не «забываются» при рестарте гейтвея.
🔹 OpenRouter Attribution: Добавлена корректная передача заголовков для OpenRouter. Мелочь, но теперь лимиты и приоритеты будут считаться точнее.
Резюме: релиз про надежность инфраструктуры. Чтобы ИИ не просто «болтал», а работал как предсказуемый корпоративный инструмент.
По ощущениям, - он стал более проактивным.
Сам проверил календарь, подсказал что у нас по плану на завтра.
#OpenClaw #AI #SecureAI #Automation #Updates
———
@tsingular
1👍15⚡4🔥4❤1
Forwarded from RoboFuture
YouTube
Содаю AI-агента с нуля для Enterprise RAG Challenge 3
В этом вебинаре:
00:00 - Intro
02:40 - Как устроено соревнование ERC3
07:00 - Какой был план и что получилось
10:10 - Разбор реальных задач
16:10 - Архитектура: ванильный ReAct на LangGraph
18:17 - Live-coding: настройка Cursor и запуск baseline решения
33:07…
00:00 - Intro
02:40 - Как устроено соревнование ERC3
07:00 - Какой был план и что получилось
10:10 - Разбор реальных задач
16:10 - Архитектура: ванильный ReAct на LangGraph
18:17 - Live-coding: настройка Cursor и запуск baseline решения
33:07…
YouTube | RuTube | Telegram
Недавно я писал про участие в ERC3 от Рината @llm_under_hood. Это соревнование между AI-агентами, которые управляют различными организациями. Мы с агентом заняли там 7-ое место
Мне очень нравится этот формат соревнований: тебя не оценивают по красивой презе или умению влезть в лимиты организаторов. Важно только решить задачу, остальное делай как хочешь!
По итогам провел открытый вебинар с live-coding сессией, где показал весь процесс создания агента с нуля
Что внутри (~1.5 часа):
По итогу прямо во время вебинара я навайбкодил агента, который решает задачи, затем запустил цикл самоулучшения в курсоре, ровно так же как это было во время соревнования. Еще показал, как можно переключить агента на GigaChat и сравнил его с разными моделями OpenAI
Главные инсайты:
- Современные LLM уже достаточно умные, чтобы чистый ReAct агент мог выполнять длинные цепочки действий без сложных оркестраторов. Достаточно дать правильные инструменты и хороший промпт (уже писал про это)
- Запуск цикла самоулучшения позволяет эффективно решить задачи, где есть четкий бенчмарк. Да, тут есть переобучение на конкретный набор задач - это осознанная плата за такой подход
Уже после записи посмотрел видео Алексея Острикова, который занял первое место и тоже записал разбор своего участия. Оказалось, что его подход очень похож на мой (ReAct + цикл самоулучшения). Было очень интересно посмотреть и сравнить
Исходники выложил на GitHub - можно забрать и повторить у себя. Там же лежит презентация
P.S. Советую посмотреть тем, кто все еще сомневается - нужен ли им AI assistant coding или делает в нем первые шаги
Недавно я писал про участие в ERC3 от Рината @llm_under_hood. Это соревнование между AI-агентами, которые управляют различными организациями. Мы с агентом заняли там 7-ое место
Мне очень нравится этот формат соревнований: тебя не оценивают по красивой презе или умению влезть в лимиты организаторов. Важно только решить задачу, остальное делай как хочешь!
По итогам провел открытый вебинар с live-coding сессией, где показал весь процесс создания агента с нуля
Что внутри (~1.5 часа):
- Как устроено соревнование ERC3
- Какой был план участия и что получилось
- Разбор реальных задач
- Архитектура: ванильный ReAct на LangGraph
- Live-coding в Cursor: создаем агента с нуля, запускаем цикл самоулучшения
- Переключаем агента на GigaChat и сравниваем с GPT-5.2
- Итоги: wins & fails
- Ответы на вопросы
По итогу прямо во время вебинара я навайбкодил агента, который решает задачи, затем запустил цикл самоулучшения в курсоре, ровно так же как это было во время соревнования. Еще показал, как можно переключить агента на GigaChat и сравнил его с разными моделями OpenAI
Главные инсайты:
- Современные LLM уже достаточно умные, чтобы чистый ReAct агент мог выполнять длинные цепочки действий без сложных оркестраторов. Достаточно дать правильные инструменты и хороший промпт (уже писал про это)
- Запуск цикла самоулучшения позволяет эффективно решить задачи, где есть четкий бенчмарк. Да, тут есть переобучение на конкретный набор задач - это осознанная плата за такой подход
Уже после записи посмотрел видео Алексея Острикова, который занял первое место и тоже записал разбор своего участия. Оказалось, что его подход очень похож на мой (ReAct + цикл самоулучшения). Было очень интересно посмотреть и сравнить
Исходники выложил на GitHub - можно забрать и повторить у себя. Там же лежит презентация
P.S. Советую посмотреть тем, кто все еще сомневается - нужен ли им AI assistant coding или делает в нем первые шаги
🔥13✍6👍5
февраль 2023:
зачем все пытаются этот статистический калькулятор одухотворить все время ? :)
февраль 2026:
ах вот зачем! %)
#юмор
———
@tsingular
зачем все пытаются этот статистический калькулятор одухотворить все время ? :)
февраль 2026:
ах вот зачем! %)
#юмор
———
@tsingular
😁17😭3💯2🥰1😢1
Claude интеграция с Asana: твой РП теперь ИИ агент
Anthropic вшил агента в Asana через API. Claude получил роль оператора с доступом ко всей базе проектов компании.
🛡 Контекст «из коробки»: Агенту больше не нужно объяснять ситуацию. Он видит дерево задач, дедлайны и историю правок в реальном времени. ИИ агенты наконец-то будут иметь полную картину корпоративных данных.
🧠 От планов к действию: Claude теперь умеет нарезать задачи по итогам созвона, назначать ответственных и фиксировать сроки. Работает напрямую с базой, без ручного копипаста.
⚡️ Антидот от галлюцинаций: Прямой доступ к живым задачам — это опора на факты. Риск выдуманных данных снижается, агент оперирует только тем, что реально есть в трекере.
Зачем это бизнесу: Агенты становятся интерфейсом для любого софта. Корпоративные инструменты без плотной связки с LLM превращаются в legacy.
Openclaw: пойду почитаю документацию по API ;)
#Asana #Claude #Workflow #Automation
———
@tsingular
Anthropic вшил агента в Asana через API. Claude получил роль оператора с доступом ко всей базе проектов компании.
🛡 Контекст «из коробки»: Агенту больше не нужно объяснять ситуацию. Он видит дерево задач, дедлайны и историю правок в реальном времени. ИИ агенты наконец-то будут иметь полную картину корпоративных данных.
🧠 От планов к действию: Claude теперь умеет нарезать задачи по итогам созвона, назначать ответственных и фиксировать сроки. Работает напрямую с базой, без ручного копипаста.
⚡️ Антидот от галлюцинаций: Прямой доступ к живым задачам — это опора на факты. Риск выдуманных данных снижается, агент оперирует только тем, что реально есть в трекере.
Зачем это бизнесу: Агенты становятся интерфейсом для любого софта. Корпоративные инструменты без плотной связки с LLM превращаются в legacy.
Openclaw: пойду почитаю документацию по API ;)
#Asana #Claude #Workflow #Automation
———
@tsingular
1🔥8👌1
Hugging Face Skills: теперь каждая библиотека c навыками по умолчанию
CTO Hugging Face Жюльен Шомон продвигает новый стандарт: любая CLI или библиотека должна поставляться с готовым Agent Skill.
Это набор инструкций и скриптов, которые «объясняют» кодинг-агенту (Claude Code, Cursor, Windsurf), как правильно работать с инструментом.
Hugging Face уже выкатили репозиторий со стартовым набором скиллов. Теперь агент сразу подключает репозиторий вместе с инструкциями вместо того чтобы ждать пока их ему напишете вы.
🛡 Стандартизация знаний: Каждая папка скилла содержит
🧠 Команда hf skills: Через обновленный CLI можно одной командой «прокачать» своего агента:
Это избавит от галлюцинаций в редких или свежих командах SDK, где обычные ИИ агенты часто ошибаются.
⚡️ Кросс-инструментальность: Скиллы от HF совместимы с Claude Code, Codex и Gemini CLI. Интеграции с Cursor и Continue уже в пути. По сути, Hugging Face строит универсальный маркетплейс навыков для всех популярных агентов.
Зачем это бизнесу: Скорость разработки возрастает. Кодинг-агенты превращаются из «умных Т9» в профильных специалистов, которые знают нюансы конкретных библиотек лучше, чем средний разработчик.
Документация теперь пишется не только для людей, но и для их ИИ-двойников.
Т.е. мы очень быстро сингуляримся в направлении инфраструктуры по типу "AI-first"
Молти: это мне нравится, туда мы сегодня сходим :)
#HuggingFace #агенты #DevTools #skills
———
@tsingular
CTO Hugging Face Жюльен Шомон продвигает новый стандарт: любая CLI или библиотека должна поставляться с готовым Agent Skill.
Это набор инструкций и скриптов, которые «объясняют» кодинг-агенту (Claude Code, Cursor, Windsurf), как правильно работать с инструментом.
Hugging Face уже выкатили репозиторий со стартовым набором скиллов. Теперь агент сразу подключает репозиторий вместе с инструкциями вместо того чтобы ждать пока их ему напишете вы.
🛡 Стандартизация знаний: Каждая папка скилла содержит
SKILL.md (нативный формат для Claude Code) или AGENTS.md (для Codex/OpenCode). Это позволяет агенту не гадать, а использовать проверенные паттерны действий агентов по обучению моделей, созданию датасетов или оценки метрик.🧠 Команда hf skills: Через обновленный CLI можно одной командой «прокачать» своего агента:
hf skills add --claude --opencodeЭто избавит от галлюцинаций в редких или свежих командах SDK, где обычные ИИ агенты часто ошибаются.
⚡️ Кросс-инструментальность: Скиллы от HF совместимы с Claude Code, Codex и Gemini CLI. Интеграции с Cursor и Continue уже в пути. По сути, Hugging Face строит универсальный маркетплейс навыков для всех популярных агентов.
Зачем это бизнесу: Скорость разработки возрастает. Кодинг-агенты превращаются из «умных Т9» в профильных специалистов, которые знают нюансы конкретных библиотек лучше, чем средний разработчик.
Документация теперь пишется не только для людей, но и для их ИИ-двойников.
Т.е. мы очень быстро сингуляримся в направлении инфраструктуры по типу "AI-first"
Молти: это мне нравится, туда мы сегодня сходим :)
#HuggingFace #агенты #DevTools #skills
———
@tsingular
1✍6⚡5🔥4❤1😁1
ElevenLabs релизнули v3: умный TTS теперь понимает контекст
ElevenLabs выкатили из альфы свою самую мощную модель — v3. Теперь она официально доступна всем. Главный фокус релиза интеллект теперь интерпретирует текст перед генерацией.
Модель научили понимать, что именно она читает. Это решает старую проблему TTS, когда ИИ читал номер телефона как «девять миллиардов...» вместо последовательности цифр.
🛡 Снижение ошибок на 68%: Общий уровень ошибок в чтении сложных данных упал с 15.3% до 4.9%. Это касается всего: от валют и координат до химических формул.
🧠 Контекстное чтение: Система, например, теперь корректно различает счет в матче (102-98 читается как «сто два — девяносто восемь»), в обозначении времени или масштаба.
Раньше ИИ мог просто сказать «минус» вместо счета.
⚡️ Стабильность: Внутренние тесты показали, что пользователи в 72% случаев предпочитают v3 предыдущим версиям. Модель стала вести себя предсказуемее на длинных дистанциях и сложных технических текстах.
Зачем это бизнесу: Для автоматизации медиа, создания аудиокниг и ИИ-ассистентов v3 становится стандартом. Проблема «роботизированного» чтения цифр и символов уходит. Контент теперь можно генерировать пачками, не боясь, что ИИ споткнется на первой же финансовой сводке или формуле.
#ElevenLabs #Audio #TTS
———
@tsingular
ElevenLabs выкатили из альфы свою самую мощную модель — v3. Теперь она официально доступна всем. Главный фокус релиза интеллект теперь интерпретирует текст перед генерацией.
Модель научили понимать, что именно она читает. Это решает старую проблему TTS, когда ИИ читал номер телефона как «девять миллиардов...» вместо последовательности цифр.
🛡 Снижение ошибок на 68%: Общий уровень ошибок в чтении сложных данных упал с 15.3% до 4.9%. Это касается всего: от валют и координат до химических формул.
🧠 Контекстное чтение: Система, например, теперь корректно различает счет в матче (102-98 читается как «сто два — девяносто восемь»), в обозначении времени или масштаба.
Раньше ИИ мог просто сказать «минус» вместо счета.
⚡️ Стабильность: Внутренние тесты показали, что пользователи в 72% случаев предпочитают v3 предыдущим версиям. Модель стала вести себя предсказуемее на длинных дистанциях и сложных технических текстах.
Зачем это бизнесу: Для автоматизации медиа, создания аудиокниг и ИИ-ассистентов v3 становится стандартом. Проблема «роботизированного» чтения цифр и символов уходит. Контент теперь можно генерировать пачками, не боясь, что ИИ споткнется на первой же финансовой сводке или формуле.
#ElevenLabs #Audio #TTS
———
@tsingular
👏7✍4❤1⚡1
1 месяц назад:
- да как они $3000 в claudecode за 1 месяц-то тратят на апи?
сейчас:
- а, вот как...
короче, как только вы научитесь нормально быстро работать с агентами, расходы токенов у вас растут кратно.
недельный лимит на Pro улетает за 2 дня.
#ollama #dev
———
@tsingular
- да как они $3000 в claudecode за 1 месяц-то тратят на апи?
сейчас:
- а, вот как...
короче, как только вы научитесь нормально быстро работать с агентами, расходы токенов у вас растут кратно.
недельный лимит на Pro улетает за 2 дня.
#ollama #dev
———
@tsingular
😭12✍4⚡2😢1🦄1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк уже здесь. Точнее в Китае.
Пока на западе кожаные спорят, про безопасность автономных такси и автомобилей, на востоке уже ушли далеко вперед:
Китай официально открыл эру летающих такси.
Две китайские компании получили лицензии на коммерческую эксплуатацию автономных пассажирских дронов от Управления гражданской авиации Китая.
P.S. Но вы представьте, что вам надо залезть в такой вот нановертолет БЕЗ пилота. Закрыть дверь и сказать "ну давай тварь, лети".
Я что-то не готов пока. Старый видать, пуганый.
@cgevent
Пока на западе кожаные спорят, про безопасность автономных такси и автомобилей, на востоке уже ушли далеко вперед:
Китай официально открыл эру летающих такси.
Две китайские компании получили лицензии на коммерческую эксплуатацию автономных пассажирских дронов от Управления гражданской авиации Китая.
P.S. Но вы представьте, что вам надо залезть в такой вот нановертолет БЕЗ пилота. Закрыть дверь и сказать "ну давай тварь, лети".
Я что-то не готов пока. Старый видать, пуганый.
@cgevent
1🔥12😁9💯1🍓1