Почему все внезапно фанатеют от Clawdbot (и почему Claude Code/Cowork не вызывает такого же “вау”) 🔥
Clawdbot — это не “чат-бот, который советует”, а локальный AI-ассистент, который реально делает работу ✅
Он запускает действия, автоматизирует рутину, встраивается в привычные каналы (мессенджеры/CLI) и со временем становится полезнее за счёт долгой памяти 🧠
Что людям особенно заходит:
• 🦾 “Claude with hands” — не объясняет, а выполняет (файлы, почта, веб-задачи, скрипты и т.д.)
• 🧠 Постоянная память + семантический поиск — “помнит” контекст между сессиями и достаёт нужное из своей базы
• ⏰ Проактивность — задачи по расписанию/триггерам + “heartbeat” (может сам напомнить/предложить действие)
• 🔌 Интеграции и расширяемость — быстро подключать сервисы и добавлять навыки (в т.ч. генерировать кодом)
• 🔓 Open-source + локальность — контроль данных у пользователя + скорость развития за счёт комьюнити
Почему Claude Code/Cowork воспринимается слабее именно в этих кейсах:
• 🧩 меньше “постоянной памяти” и инфраструктуры вокруг пользователя (каждый раз новая сессия, нет rag хранилища)
• 🚫 нет автозапуска и минимум инициатив
• 🏢 более закрытая и ограниченная экосистема интеграций (зато 🛡️ часто лучше по safety)
📌 Полная статья с кейсами из Twitter/Reddit/GitHub и сравнением с LangChain —
🔣 по ссылке 🔣
#AI@mtolm
Было полезно? — ставь 🔥
@mtolm
Clawdbot — это не “чат-бот, который советует”, а локальный AI-ассистент, который реально делает работу ✅
Он запускает действия, автоматизирует рутину, встраивается в привычные каналы (мессенджеры/CLI) и со временем становится полезнее за счёт долгой памяти 🧠
Что людям особенно заходит:
• 🦾 “Claude with hands” — не объясняет, а выполняет (файлы, почта, веб-задачи, скрипты и т.д.)
• 🧠 Постоянная память + семантический поиск — “помнит” контекст между сессиями и достаёт нужное из своей базы
• ⏰ Проактивность — задачи по расписанию/триггерам + “heartbeat” (может сам напомнить/предложить действие)
• 🔌 Интеграции и расширяемость — быстро подключать сервисы и добавлять навыки (в т.ч. генерировать кодом)
• 🔓 Open-source + локальность — контроль данных у пользователя + скорость развития за счёт комьюнити
Почему Claude Code/Cowork воспринимается слабее именно в этих кейсах:
• 🧩 меньше “постоянной памяти” и инфраструктуры вокруг пользователя (каждый раз новая сессия, нет rag хранилища)
• 🚫 нет автозапуска и минимум инициатив
• 🏢 более закрытая и ограниченная экосистема интеграций (зато 🛡️ часто лучше по safety)
📌 Полная статья с кейсами из Twitter/Reddit/GitHub и сравнением с LangChain —
#AI@mtolm
Было полезно? — ставь 🔥
@mtolm
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥6
Один промпт → 3 API → готовый skill 🔥
Попросил Claude Code создать skill для генерации контента в моём стиле.
Что он сделал за меня:
• Вытащил PR-стратегию из Notion
• Выгрузил 37 постов из моего Telegram-канала
• Достал контекст обо мне из RAG (моя персональная база знаний)
• Создал skill по best practices
Результат: skill из 5 файлов (positioning, style guide, примеры) — готов к использованию.
Как это работает:
Skills в Claude Code — это .md файлы с инструкциями, какие API дёргать и как. LLM читает их, выполняет, передаёт результат дальше. Получается цепочка действий в одном промпте.
Раньше я бы потратил на это час ручной работы. Сейчас — один промпт и минута ожидания.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
Попросил Claude Code создать skill для генерации контента в моём стиле.
Что он сделал за меня:
• Вытащил PR-стратегию из Notion
• Выгрузил 37 постов из моего Telegram-канала
• Достал контекст обо мне из RAG (моя персональная база знаний)
• Создал skill по best practices
Результат: skill из 5 файлов (positioning, style guide, примеры) — готов к использованию.
Как это работает:
Skills в Claude Code — это .md файлы с инструкциями, какие API дёргать и как. LLM читает их, выполняет, передаёт результат дальше. Получается цепочка действий в одном промпте.
Раньше я бы потратил на это час ручной работы. Сейчас — один промпт и минута ожидания.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
1🔥3
Записали первый выпуск подкаста "Большой потенциал" с Мишей Горбуновым 💬
ℹ️ Два продакта сели разобрать, что произошло в AI за неделю. Opus 4.6 и GPT 5.3 вышли в один день, AI-агенты спорят между собой до бесконечности, вендинговый автомат на нейросети отказался возвращать деньги — решил, что невыгодно.
Ещё разобрали Kimi-K2.5, RenHuman AI и зачем кому-то миллион токенов контекста.
➡️ Opus 4.6 крадёт токены, а робот отказал мне в возврате денег | Большой потенциал #1
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
Ещё разобрали Kimi-K2.5, RenHuman AI и зачем кому-то миллион токенов контекста.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Opus 4.6 крадёт токены, а робот отказал мне в возврате денег | Большой потенциал #1
Cursor и “новые модели” меняют разработку быстрее, чем мы успеваем привыкнуть.
В этом выпуске - как не утонуть в гонке AI-инструментов: агентность, мультиагенты, длинный контекст, RAG, трейсинг и реальные инженерные практики.
Что внутри:
• почему “скрытые…
В этом выпуске - как не утонуть в гонке AI-инструментов: агентность, мультиагенты, длинный контекст, RAG, трейсинг и реальные инженерные практики.
Что внутри:
• почему “скрытые…
🔥3👏3
Как вырастить скорость работы с ИИ в 3.75 раза (ну почти)
Люди говорят в среднем на английском со скоростью 150 слов в минуту, а печатают 40 слов в минуту. То есть говорить в 3.8 раз быстрее.
Набирать текст на клавиатуре долго и неудобно (если ты не в библиотеке или в тихой части офиса), поэтому когда ты печатаешь в чате с ЛЛМ, ты даешь минимум необходимого контекста и тратишь на это существенное время.
Отсюда решение - диктовать голосом. Быстро, просто, даешь больше контекста, а следовательно, получаешь качественнее ответы/решения.
Ну теперь, когда я, *надеюсь*, продал вам необходимость перейти на voice input, расскажу про свой опыт и лучшее решение.
Начал я со встроенного голосового ввода в macOS. Он работает и в терминале, так что пользоваться можно с claude code. Однако, на английском работает более-менее, на русском совсем плохо, часто приходится много исправлять.
По рекомендации, а также учитывая референс самого Андрея Карпатого, я затестил superwhisper. Выглядит классно, но на русском работала дефолтная модель еще хуже, чем встроенный macOS инпут.
От легкого отчаяния, я затестил open-source решение Handy, а в нём модель GigaAM v3 от сбера и прямо кайфанул, поскольку русский язык определяется быстро и качественно. С англицизмами, правда, не очень, приходится вспомнить русские альтернативы. Все равно это пока лучшее, что я пробовал.
У них еще по отзывам клевая модель Parakeet V3, хороша как в английском, так и русском - думаю, ее тоже затестить. Русский будет хуже, зато можно будет английские слова также использовать.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
Люди говорят в среднем на английском со скоростью 150 слов в минуту, а печатают 40 слов в минуту. То есть говорить в 3.8 раз быстрее.
Набирать текст на клавиатуре долго и неудобно (если ты не в библиотеке или в тихой части офиса), поэтому когда ты печатаешь в чате с ЛЛМ, ты даешь минимум необходимого контекста и тратишь на это существенное время.
Отсюда решение - диктовать голосом. Быстро, просто, даешь больше контекста, а следовательно, получаешь качественнее ответы/решения.
Ну теперь, когда я, *надеюсь*, продал вам необходимость перейти на voice input, расскажу про свой опыт и лучшее решение.
Начал я со встроенного голосового ввода в macOS. Он работает и в терминале, так что пользоваться можно с claude code. Однако, на английском работает более-менее, на русском совсем плохо, часто приходится много исправлять.
По рекомендации, а также учитывая референс самого Андрея Карпатого, я затестил superwhisper. Выглядит классно, но на русском работала дефолтная модель еще хуже, чем встроенный macOS инпут.
От легкого отчаяния, я затестил open-source решение Handy, а в нём модель GigaAM v3 от сбера и прямо кайфанул, поскольку русский язык определяется быстро и качественно. С англицизмами, правда, не очень, приходится вспомнить русские альтернативы. Все равно это пока лучшее, что я пробовал.
У них еще по отзывам клевая модель Parakeet V3, хороша как в английском, так и русском - думаю, ее тоже затестить. Русский будет хуже, зато можно будет английские слова также использовать.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
1🔥4
Не нашёл источник с AI-новостями, который бы устроил - сделал свой 📡
Как я писал прежде, я сильно помешан на AI и трачу 180-250 в месяц на AI-подписки. Для меня важно находить методы, что качественно меняют твою работу. Задача в числе первых узнавать про новые фичи, тестить их, и если это разумно, раскатывать на свои процессы.
Чтобы быть "в теме" всех новых штук, я отслеживаю пару десятков ютуберов, кто занимаются автоматизаций с помощью ИИ.
Что не устраивает в текущем подходе: крутые решения могут дойти до моего потока новостей через несколько дней, а то и через пару недель, что для меня ощущается крайне долгим периодом.
Более того, мне интересно не только новые релизы, библиотеки и продукты, но и как AI влияет на международный рынок: сделки, раунды, переговоры, изменение стомости компаний.
Подобного источника я не находил и поэтому создал свой: бота, который парсит 27 источников — GitHub releases, TechCrunch, Bloomberg, Hacker News, Reddit, Habr и ещё пачку — и собирает из них дайджест. Сначала бот отправлял мне лично, затем я подумал, что это может быть интересно и другим энтузиастам.
Так появился @aijuicedaily.
***
Контента стало так много, что 39% людей уже избегают новостей из-за перегрузки (данные Reuters Institute). И люди всё чаще подписываются на конкретного человека — на его вкус и фильтр. Это называют curator economy: ценность в том, чтобы найти достойный внимания контент в огромном потоке.
@aijuicedaily — это мой фильтр, и он живой. Источники, темы, формат — всё будет меняться под мои запросы и интересы.
Если тебе близок похожий вектор — подписывайся!
Напиши в комментариях, что думаешь: про формат и контент: интересно, не интересно, чего не хватает.
Мне важен фидбек.
#AI@mtolm
Интересно? — ставь 🔥
@mtolm
Как я писал прежде, я сильно помешан на AI и трачу 180-250 в месяц на AI-подписки. Для меня важно находить методы, что качественно меняют твою работу. Задача в числе первых узнавать про новые фичи, тестить их, и если это разумно, раскатывать на свои процессы.
Чтобы быть "в теме" всех новых штук, я отслеживаю пару десятков ютуберов, кто занимаются автоматизаций с помощью ИИ.
Что не устраивает в текущем подходе: крутые решения могут дойти до моего потока новостей через несколько дней, а то и через пару недель, что для меня ощущается крайне долгим периодом.
Более того, мне интересно не только новые релизы, библиотеки и продукты, но и как AI влияет на международный рынок: сделки, раунды, переговоры, изменение стомости компаний.
Подобного источника я не находил и поэтому создал свой: бота, который парсит 27 источников — GitHub releases, TechCrunch, Bloomberg, Hacker News, Reddit, Habr и ещё пачку — и собирает из них дайджест. Сначала бот отправлял мне лично, затем я подумал, что это может быть интересно и другим энтузиастам.
Так появился @aijuicedaily.
***
Контента стало так много, что 39% людей уже избегают новостей из-за перегрузки (данные Reuters Institute). И люди всё чаще подписываются на конкретного человека — на его вкус и фильтр. Это называют curator economy: ценность в том, чтобы найти достойный внимания контент в огромном потоке.
@aijuicedaily — это мой фильтр, и он живой. Источники, темы, формат — всё будет меняться под мои запросы и интересы.
Если тебе близок похожий вектор — подписывайся!
Напиши в комментариях, что думаешь: про формат и контент: интересно, не интересно, чего не хватает.
Мне важен фидбек.
#AI@mtolm
Интересно? — ставь 🔥
@mtolm
🔥5❤4
Артем написал, что хочет такой же дайджест, но про свою сферу. Рассказываю как сделать свой.
Недавно я запустил @aijuicedaily — AI-дайджест новостей, который сам парсит 30 RSS-источников, отбирает 5-7 важных и пишет пост в моём стиле.
Артем (подписчик) написал: "хочу такое же, но про свою сферу". Я подумал, это может быть интересно не только ему, и упаковал всё в open source репо с пошаговой настройкой.
Как это работает:
Открываешь Claude Code и пишешь:
• спросит про темы,
• поможет создать Telegram-бота,
• попросит скинуть примеры твоих постов, чтобы понять твой стиль.
В конце делает тестовый прогон — смотришь результат, и если нравится, создаешь расписание.
Под капотом два прохода:
1. быстрая модель (Haiku) отбирает новости,
2. модель посерьёзнее (Opus) пишет итоговый пост.
Плюс встроен humanizer — 12 правил, которые вычищают из текста типичные AI-штампы вроде "groundbreaking", "additionally" и прочего мусора.
Можно использовать с API-ключом Anthropic (~$1-2/мес при ежедневном запуске) или через подписку Claude Code Max, тогда за API отдельно платить не нужно.
Что пока не сделано: адаптации под Windows нет, на Linux скорее всего заработает. Поддержка только Anthropic — OpenAI и OpenRouter пока нет. Если нужно — создавайте issues на GitHub, добавлю.
В планах — формат карточек (свайпать новости как сторис) и, возможно, публикация не только в Telegram, но и в Instagram, X.
Еще раз ссылка на репо: github.com/tolmachevmaxim/ai-news-digest
Ссылка на канал с AI новостями: @AIJuiceDaily
Когда попробуете — скидывайте ссылки на свои каналы, интересно что вы создадите в других сферах.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
Недавно я запустил @aijuicedaily — AI-дайджест новостей, который сам парсит 30 RSS-источников, отбирает 5-7 важных и пишет пост в моём стиле.
Артем (подписчик) написал: "хочу такое же, но про свою сферу". Я подумал, это может быть интересно не только ему, и упаковал всё в open source репо с пошаговой настройкой.
Как это работает:
Открываешь Claude Code и пишешь:
настрой мне дайджест используя репозиторий github.com/tolmachevmaxim/ai-news-digest
Запустится онбоардинг, где Claude • спросит про темы,
• поможет создать Telegram-бота,
• попросит скинуть примеры твоих постов, чтобы понять твой стиль.
В конце делает тестовый прогон — смотришь результат, и если нравится, создаешь расписание.
Под капотом два прохода:
1. быстрая модель (Haiku) отбирает новости,
2. модель посерьёзнее (Opus) пишет итоговый пост.
Плюс встроен humanizer — 12 правил, которые вычищают из текста типичные AI-штампы вроде "groundbreaking", "additionally" и прочего мусора.
Можно использовать с API-ключом Anthropic (~$1-2/мес при ежедневном запуске) или через подписку Claude Code Max, тогда за API отдельно платить не нужно.
Что пока не сделано: адаптации под Windows нет, на Linux скорее всего заработает. Поддержка только Anthropic — OpenAI и OpenRouter пока нет. Если нужно — создавайте issues на GitHub, добавлю.
В планах — формат карточек (свайпать новости как сторис) и, возможно, публикация не только в Telegram, но и в Instagram, X.
Еще раз ссылка на репо: github.com/tolmachevmaxim/ai-news-digest
Ссылка на канал с AI новостями: @AIJuiceDaily
Когда попробуете — скидывайте ссылки на свои каналы, интересно что вы создадите в других сферах.
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥
@mtolm
🔥6👍3
Переехали во Вьетнам 🇻🇳
Последние полгода были интенсивные — куча решений, перемен, моментов, когда вообще непонятно, как всё сложится, что будет дальше.
Мы с женой собрали больше 200 кг вещей в чемоданы, продали и раздали еще десятки кг и перелетели из Куала Лумпура в Да Нанг.
Прошло 10 дней. Сегодня выбрались на рисовые поля, смотрю в горизонт и ловлю себя на мысли — внутри спокойно и размеренно.
Не скажу, что всё идеально. Но после периода, когда каждую неделю нужно что-то решать, куда-то лететь, что-то разруливать — просто сидеть, смотреть на зелёное поле, находясь в себе, это кайф.
Прихожу к мысли, что не так важно в какой стране,(если базовые вопросы комфорта и безопасности закрываются) , то дальше уже зависит от тебя: — насколько ли ты используешь локальные возможности, что ты делаешь, зачем, и кто рядом.
Если у тебя сейчас период, когда многое навалилось — он пройдёт. Станет легче и спокойнее. Просто продолжай делать свои дела.
#selfdev@mtolm
@mtolm
Последние полгода были интенсивные — куча решений, перемен, моментов, когда вообще непонятно, как всё сложится, что будет дальше.
Мы с женой собрали больше 200 кг вещей в чемоданы, продали и раздали еще десятки кг и перелетели из Куала Лумпура в Да Нанг.
Прошло 10 дней. Сегодня выбрались на рисовые поля, смотрю в горизонт и ловлю себя на мысли — внутри спокойно и размеренно.
Не скажу, что всё идеально. Но после периода, когда каждую неделю нужно что-то решать, куда-то лететь, что-то разруливать — просто сидеть, смотреть на зелёное поле, находясь в себе, это кайф.
Прихожу к мысли, что не так важно в какой стране,
Если у тебя сейчас период, когда многое навалилось — он пройдёт. Станет легче и спокойнее. Просто продолжай делать свои дела.
#selfdev@mtolm
@mtolm
1❤15
Скилл в Claude Code — удобно. Правый клик без Claude — ещё удобнее
→ Выгодно решать задачи в рамках одного интерфейса.
Поэтому большинство повторяющихся задач я оборачиваю в скиллы и решаю из терминала в IDE.
→ А это для меня относительно новый подход (ну или давно забытый старый) — добавлять команды в контекстное меню под правой кнопкой мыши. Как же это удобно!
Две команды, которые жили у меня в скиллах, недавно появились и в контекстном меню.
Markdown → PDF
LLM постоянно генерирует файлы в Markdown. На Mac у меня стоит QLMarkdown — open-source программа, рендерит .md файлы красиво и без ошибок прямо в QuickLook. Когда же я шарю файлы другим, то у них нет такой программы и .md читается с трудом. Поэтому перед отправкой я конвертирую в PDF.Да, и кстати, долго бился, пока смог научить качественно рендерить .md в pdf, мой ресерч не нашел ни одного рабочего решения, поэтому я запилил своё, но далеко не с первой попытки.
Раньше я мог рендерить только через скилл в LLM (т.е. надо давать ссылку на файл, указывать скилл и просить сделать pdf). Теперь же просто в папке
Транскрибация аудио
У меня настроены автоматические пайплайны для транскрибации регулярных звонков (и собственный, оптимизированный под M-чипы, код для транскрибации локально на макбуке). Для разовых звонков из разного ПО пайплайна нет — приходилось открывать интерфейс с программой Whisper, выбирать файл, выбирать модель. Теперь
Транскрибация грузит ~5 ГБ оперативки, у меня MacBook 16 ГБ — запускаю прямо перед тем, как встать от компьютера на 10 минут. А то комп чуть-чуть начинает подтупливать. Обычно за 6 минут транскрибируется час звонка.
Копируйте ссылки на репо, вставляйте в свои LLM и просите создать скилл и добавить в контекстное меню.Сам юзаю на маке, но также попросил Codex адаптировать под Windows, правда я не тестил, могут быть ошибки. И испытывайте каждый день магию как и я! 🪄
P.S. Apple в macOS Tahoe 26 делает то же самое — встраивает AI прямо в Shortcuts и контекстное меню. Видимо, не один я считаю, что это полезно 🙂
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥 и пересылай друзьям!
@mtolm
По данным совместного исследования Qatalog и Cornell University (2021, Workgeist Report), средний офисный работник переключается между приложениями около 1200 раз в день. Gloria Mark из UC Irvine измерила: на возврат к задаче после каждого такого переключения уходит в среднем 23 минуты.
→ Выгодно решать задачи в рамках одного интерфейса.
Поэтому большинство повторяющихся задач я оборачиваю в скиллы и решаю из терминала в IDE.
Закон Фиттса (Paul Fitts, 1954): чем ближе цель к курсору, тем быстрее до неё добраться. Контекстное меню появляется прямо на курсоре. Расстояние = 0. Физически быстрее не бывает.
→ А это для меня относительно новый подход (ну или давно забытый старый) — добавлять команды в контекстное меню под правой кнопкой мыши. Как же это удобно!
Две команды, которые жили у меня в скиллах, недавно появились и в контекстном меню.
Markdown → PDF
LLM постоянно генерирует файлы в Markdown. На Mac у меня стоит QLMarkdown — open-source программа, рендерит .md файлы красиво и без ошибок прямо в QuickLook. Когда же я шарю файлы другим, то у них нет такой программы и .md читается с трудом. Поэтому перед отправкой я конвертирую в PDF.
Раньше я мог рендерить только через скилл в LLM (т.е. надо давать ссылку на файл, указывать скилл и просить сделать pdf). Теперь же просто в папке
правый клик → Quick Actions → MD to PDF, 2-3 секунды и файл готов. Это ощущается магией в повседневной жизни.Транскрибация аудио
У меня настроены автоматические пайплайны для транскрибации регулярных звонков (и собственный, оптимизированный под M-чипы, код для транскрибации локально на макбуке). Для разовых звонков из разного ПО пайплайна нет — приходилось открывать интерфейс с программой Whisper, выбирать файл, выбирать модель. Теперь
правый клик → Transcribe Audio, в терминале виден прогресс в процентах. Невероятно удобно.Копируйте ссылки на репо, вставляйте в свои LLM и просите создать скилл и добавить в контекстное меню.
P.S. Apple в macOS Tahoe 26 делает то же самое — встраивает AI прямо в Shortcuts и контекстное меню. Видимо, не один я считаю, что это полезно 🙂
#AI@mtolm #vibecoding@mtolm
Было полезно? — ставь 🔥 и пересылай друзьям!
@mtolm
1🔥5