NeuralDeep 😂
В нашем AI чатике друзей ребята накинули а чего нет такого аналога в РФ как skills.sh?
Где будут собранны скиллы вокруг наших РФ сервисов для любых агентов в знакомом формате установки для кодинг агентов
Представляю вашему вниманию https://neuraldeep.ru/
Навыки для работы с Яндекс, Битрикс, 1С и другими российскими сервисами. Устанавливайте одной командой, делитесь с RU-комьюнити
Есть простые проверки безопасноти (буду развивать сканнеры)
Есть скиллл find-skills который упаковывает всю бд в мощный поисковик
Модерация новых навыков ручная (будем так же автоматизировать)
На сегодня залил топ 3 скилла
1C
Bittix24
Яндекс сервисов
Любой может зарегистрироваться через гитхаб и тут же залить свой скилл через гитхаб и формат claude-skill
Чем отличается и будет отличаться
С этого канала стартует комьюинити вокруг данной БД + я сам лично буду продолжать поддерживать ряд навыков + уже залил навыки от части блогеров кто специализируется на работе с ними эври дей!
Навайбкожено от части из за задержки рейса Сочи>СПБ на 6 часов
Stay Tuned!
В нашем AI чатике друзей ребята накинули а чего нет такого аналога в РФ как skills.sh?
Где будут собранны скиллы вокруг наших РФ сервисов для любых агентов в знакомом формате установки для кодинг агентов
Представляю вашему вниманию https://neuraldeep.ru/
Навыки для работы с Яндекс, Битрикс, 1С и другими российскими сервисами. Устанавливайте одной командой, делитесь с RU-комьюнити
Есть простые проверки безопасноти (буду развивать сканнеры)
Есть скиллл find-skills который упаковывает всю бд в мощный поисковик
Модерация новых навыков ручная (будем так же автоматизировать)
На сегодня залил топ 3 скилла
1C
Bittix24
Яндекс сервисов
Любой может зарегистрироваться через гитхаб и тут же залить свой скилл через гитхаб и формат claude-skill
Чем отличается и будет отличаться
С этого канала стартует комьюинити вокруг данной БД + я сам лично буду продолжать поддерживать ряд навыков + уже залил навыки от части блогеров кто специализируется на работе с ними эври дей!
Навайбкожено от части из за задержки рейса Сочи>СПБ на 6 часов
Stay Tuned!
6🔥146👍31💊10🤯7🤣7🤮6❤3😁3
Валера Ковальский
NeuralDeep 😂 В нашем AI чатике друзей ребята накинули а чего нет такого аналога в РФ как skills.sh? Где будут собранны скиллы вокруг наших РФ сервисов для любых агентов в знакомом формате установки для кодинг агентов Представляю вашему вниманию https…
NeuralDeep каждому в дом
Я тут подумал, и решил выложить в open-source проект что бы каждый в свой дом мог занести такое решение локально и использовать во благо стандартизации =)
Так же приглашаю всех желающих развить проект через форк + pr (добавить mcp реестр или другой полезный функционал который обсуждался в чатике)
Единственная просьба хотелось бы видеть skills/mcp/cli вокруг экосистем RU сегмента
Сам проект будет продолжать поддерживаться и систематизироваться тут https://neuraldeep.ru/
https://github.com/vakovalskii/skillsbd (прожмите звезду)
Я тут подумал, и решил выложить в open-source проект что бы каждый в свой дом мог занести такое решение локально и использовать во благо стандартизации =)
Так же приглашаю всех желающих развить проект через форк + pr (добавить mcp реестр или другой полезный функционал который обсуждался в чатике)
Единственная просьба хотелось бы видеть skills/mcp/cli вокруг экосистем RU сегмента
Сам проект будет продолжать поддерживаться и систематизироваться тут https://neuraldeep.ru/
https://github.com/vakovalskii/skillsbd (прожмите звезду)
skillsbd
skillsbd — российский каталог навыков для AI-агентов
Навыки для работы с Яндекс, Битрикс, 1С и другими российскими сервисами. Открытый каталог для Claude Code, Cursor, Copilot и других AI-агентов. RU-комьюнити.
2🔥79👍12❤6 3
Валера Ковальский pinned «NeuralDeep каждому в дом Я тут подумал, и решил выложить в open-source проект что бы каждый в свой дом мог занести такое решение локально и использовать во благо стандартизации =) Так же приглашаю всех желающих развить проект через форк + pr (добавить mcp…»
NeuralDeep добавлен раздел tools
Теперь есть список cli тулов для ваших задач, база будет пополнятся
Так же добавлю раздел mcp серверов куда попадут публичные и рабочие сервера для ру сегмента
https://skillsbd.ru/tools
https://skillsbd.ru/mcp
Теперь есть список cli тулов для ваших задач, база будет пополнятся
Так же добавлю раздел mcp серверов куда попадут публичные и рабочие сервера для ру сегмента
https://skillsbd.ru/tools
https://skillsbd.ru/mcp
skillsbd
skillsbd — российский каталог навыков для AI-агентов
Навыки для работы с Яндекс, Битрикс, 1С и другими российскими сервисами. Открытый каталог для Claude Code, Cursor, Copilot и других AI-агентов. RU-комьюнити.
1🔥29👍7❤6
NeuralDeep
База знаний для AI разработчиков
+ Случился ребрендинг
Буду стаскивать сюда все проверенные и рабочие вещи
Скиллы
МСП
CLI
Наши проекты с Пашей (open source) весь
Фокус на РУ сегменте
https://neuraldeep.ru/
И кстати проект open source все тоже самое можно повторить у себя в компании!
База знаний для AI разработчиков
+ Случился ребрендинг
Буду стаскивать сюда все проверенные и рабочие вещи
Скиллы
МСП
CLI
Наши проекты с Пашей (open source) весь
Фокус на РУ сегменте
https://neuraldeep.ru/
И кстати проект open source все тоже самое можно повторить у себя в компании!
NeuralDeep
NeuralDeep — агрегатор навыков, MCP серверов и AI-инструментов
Российский агрегатор для AI-агентов: навыки, MCP серверы, CLI инструменты. Яндекс, Битрикс, 1С, GigaChat и другие сервисы. Open source каталог для Claude Code, Cursor, Codex.
1🔥49👍16❤7😁4👏3🤔1
Не курс. Не тул. Флоу.
Валера где твой курс по AI кодингу?
Или: Валера почему мы до сих пор не увидели крутой AI coding инструмент от тебя? (с 1 млн звезд на гите =)
Отвечаю
Я в первую очередь DevOps/Hardware инженер
Во вторую руководитель R&D команд
Так начиналась моя карьера и дальше я оброс разными инструментами которые вы так же используете сейчас
Но у меня есть плотная основа, я выдели только небольшую часть моих хард скиллов которые я качал до эры AI
Базы данных
Linux
Docker
Kubernetes
Транспорт: TCP/IP.
Сети, шлюзы, протоколы, маршрутизаторы.
Кодинг с 0 с учителем, ООП и всё что с ним связано.
Считаю что умею задавать вопросы, критически мыслить и быстро анализировать и запоминать поступающую информацию
Так вот
Я не хочу и не буду продавать вам тут курсы где вы поменяете деньги на возможность в момент уменьшить FOMO
Не хочу и не вижу смысла пилить свои универсальные тулы для кодинга или обозревать очередной тул который как-то там "круто" собрал вам спеку, потому что вы не понимаете как работает какая-то часть вашего пирога и надеетесь покрыть это тестами или доками
Я показываю как делегирую рутину и творю, именно по этому вы видите очень много open source от меня https://github.com/vakovalskii это моя цель!
Вот что я собрал за последние пару месяцев:
vamplabai.com — 1 терминал, создание архитектуры 1ч, создание документации 2дня (руками)
Topsha — 2 терминала, создание архитектуры 0.3ч, создание документации 40 минут (руками)
ValeDesk — 2 терминала, создание архитектуры 0.1ч, создание документации 10 минут (руками)
Copyosity — 1 терминал, создание архитектуры 0.2ч, создание документации 20 минут (руками)
LocalTaskClaw — 1 терминал,создание архитектуры 0.15ч, создание документации 1час (руками)
Все эти проекты объединяет один и тот же подход:
1. Генерируем план руками
1.1 Рисуем архитектуру хоть на бумажке
2. Создаем директорию проекта
3. Выбираем таргет сервер или если десктоп апп, билд через GitHub Actions
4. HITL генерация и поэтапные тесты, документация в /docs
5. Документирование после завершения цикла разработки (фича/пр/вы решили что сервис готов)
Один или два терминала
Единый пайплайн на всё
Минимальный набор плагинов только то что ускоряет или автоматизирует работу в CC или Codex
Не работает фича?
Я точно знаю где
Помните мой бэкграунд?
Не знаю? LLM помогает найти проблему потому что я знаю куда направить =)
Если разложить слоёный пирог решений который почти все мы делаем, это фреймворки над базой данных
Слой данных
Слой транспорта и модификации, API
Слой UI
Вайбкодинг это инструмент ускорения меня и моих команд в поиске оптимальных решений, как технических так и бизнесовых
Никуда не пропала и не пропадет валидация через людей на проде
Всё ещё нужно на проде отсматривать каждый PR
Всё ещё в критичной инфраструктуре нужно проверять код руками.
И это 2026 год
И да все еще нужно думать и качать мозг!
Но то что мы имеем сегодня, это инструмент ускорения до определённых стадий
А дальше ты, твой бэкграунд, и понимание всех слоёв пирога
Хорошо об этом написал Рефат буквально пока я писал этот пост по пути в такси: "узкое горлышко не в скорости, а во внимании и осознанности
Автоматизируй рутину, не мышление."
Цена делегирования мышления это когнитивный долг: ты потом переделываешь потому что не можешь развивать то чего не понимаешь
Я делегирую рутину. Всю когнитивную часть, архитектуру, решения, декомпозицию я делаю сам
Я не говорю агенту "сделай круто документацию и придумай за меня реализацию"
Я создаю через ИИ то что придумал, и агент ускоряет исполнение
Самое важное что за этим флоу мы можете проследить в моих репозиторих или скормить их LLM ке, пускай вам подскажет
Кстати для прокачки базы все еще советую очень полезный сайт https://roadmap.sh/devops
И самый короткий курс от меня все же будет он тут
Валера где твой курс по AI кодингу?
Или: Валера почему мы до сих пор не увидели крутой AI coding инструмент от тебя? (с 1 млн звезд на гите =)
Отвечаю
Я в первую очередь DevOps/Hardware инженер
Во вторую руководитель R&D команд
Так начиналась моя карьера и дальше я оброс разными инструментами которые вы так же используете сейчас
Но у меня есть плотная основа, я выдели только небольшую часть моих хард скиллов которые я качал до эры AI
Базы данных
Linux
Docker
Kubernetes
Транспорт: TCP/IP.
Сети, шлюзы, протоколы, маршрутизаторы.
Кодинг с 0 с учителем, ООП и всё что с ним связано.
Считаю что умею задавать вопросы, критически мыслить и быстро анализировать и запоминать поступающую информацию
Так вот
Я не хочу и не буду продавать вам тут курсы где вы поменяете деньги на возможность в момент уменьшить FOMO
Не хочу и не вижу смысла пилить свои универсальные тулы для кодинга или обозревать очередной тул который как-то там "круто" собрал вам спеку, потому что вы не понимаете как работает какая-то часть вашего пирога и надеетесь покрыть это тестами или доками
Я показываю как делегирую рутину и творю, именно по этому вы видите очень много open source от меня https://github.com/vakovalskii это моя цель!
Вот что я собрал за последние пару месяцев:
vamplabai.com — 1 терминал, создание архитектуры 1ч, создание документации 2дня (руками)
Topsha — 2 терминала, создание архитектуры 0.3ч, создание документации 40 минут (руками)
ValeDesk — 2 терминала, создание архитектуры 0.1ч, создание документации 10 минут (руками)
Copyosity — 1 терминал, создание архитектуры 0.2ч, создание документации 20 минут (руками)
LocalTaskClaw — 1 терминал,создание архитектуры 0.15ч, создание документации 1час (руками)
Все эти проекты объединяет один и тот же подход:
1. Генерируем план руками
1.1 Рисуем архитектуру хоть на бумажке
2. Создаем директорию проекта
3. Выбираем таргет сервер или если десктоп апп, билд через GitHub Actions
4. HITL генерация и поэтапные тесты, документация в /docs
5. Документирование после завершения цикла разработки (фича/пр/вы решили что сервис готов)
Один или два терминала
Единый пайплайн на всё
Минимальный набор плагинов только то что ускоряет или автоматизирует работу в CC или Codex
Не работает фича?
Я точно знаю где
Помните мой бэкграунд?
Не знаю? LLM помогает найти проблему потому что я знаю куда направить =)
Если разложить слоёный пирог решений который почти все мы делаем, это фреймворки над базой данных
Слой данных
Слой транспорта и модификации, API
Слой UI
Вайбкодинг это инструмент ускорения меня и моих команд в поиске оптимальных решений, как технических так и бизнесовых
Никуда не пропала и не пропадет валидация через людей на проде
Всё ещё нужно на проде отсматривать каждый PR
Всё ещё в критичной инфраструктуре нужно проверять код руками.
И это 2026 год
И да все еще нужно думать и качать мозг!
Но то что мы имеем сегодня, это инструмент ускорения до определённых стадий
А дальше ты, твой бэкграунд, и понимание всех слоёв пирога
Хорошо об этом написал Рефат буквально пока я писал этот пост по пути в такси: "узкое горлышко не в скорости, а во внимании и осознанности
Автоматизируй рутину, не мышление."
Цена делегирования мышления это когнитивный долг: ты потом переделываешь потому что не можешь развивать то чего не понимаешь
Я делегирую рутину. Всю когнитивную часть, архитектуру, решения, декомпозицию я делаю сам
Я не говорю агенту "сделай круто документацию и придумай за меня реализацию"
Я создаю через ИИ то что придумал, и агент ускоряет исполнение
Самое важное что за этим флоу мы можете проследить в моих репозиторих или скормить их LLM ке, пускай вам подскажет
Кстати для прокачки базы все еще советую очень полезный сайт https://roadmap.sh/devops
И самый короткий курс от меня все же будет он тут
GitHub
vakovalskii - Overview
Head of AI
From IT Admin to Head of AI in 5 years
Applied AI Engineer - vakovalskii
From IT Admin to Head of AI in 5 years
Applied AI Engineer - vakovalskii
11❤126🔥69👍34⚡2👌2💯1
Валера Ковальский pinned «Не курс. Не тул. Флоу. Валера где твой курс по AI кодингу? Или: Валера почему мы до сих пор не увидели крутой AI coding инструмент от тебя? (с 1 млн звезд на гите =) Отвечаю Я в первую очередь DevOps/Hardware инженер Во вторую руководитель R&D команд Так…»
Я же не отъехавший?)
UPDATE: Фотку починили спасибо @andrewkiryushkin
Оригинал: https://t.me/neuraldeepchat/48897
UPDATE: Фотку починили спасибо @andrewkiryushkin
Оригинал: https://t.me/neuraldeepchat/48897
2😁108💊51💯12 11🔥4❤3🤣3👀2
Кто угадает что за карта приехала(надо полные спеки угадать), тому в подарок отправлю 2080ti (11gb, по РФ)
А так теперь у нас в контуре с Пашей пополнение =)
Победитель найден это была 4090 (48гб)
UPDATE: В след раз будем решать задачки, и разыграем пару новых 5070, следите за апдейтами, лучше включить уведомления (там уже будет задача по интереснее)
А так теперь у нас в контуре с Пашей пополнение =)
Победитель найден это была 4090 (48гб)
UPDATE: В след раз будем решать задачки, и разыграем пару новых 5070, следите за апдейтами, лучше включить уведомления (там уже будет задача по интереснее)
1👍35🔥24❤1
Валера Ковальский
UPDATE: В след раз будем решать задачки, и разыграем пару новых 5070, следите за апдейтами, лучше включить уведомления (там уже будет задача по интереснее)
Раз такой интерес к бесплатным картам, у меня еще есть несколько остатков старых и не пригодившиеся новые(такое бывает) я решил сделать соревнование благо есть интересная задача на скорость и точность, решать будем задачи вокруг вайбкода, агентов, и скорости разработки решений, навайбкожу простенькую платформу, сделаю лидерборд
Результатом соревнования будет победитель, который получит GPU новую (5070)
За второе и третье место будут утешительные презы
Б/у
2080ti
2060super
Думаю что с текущей загрузкой организую все приметно за 3-5 недели, врубайте уведомления
следите за апдейтами =)
UPDATE:
Еще за сегодня думал, точно будет в виде платформы, точно проведем соревнование одним днем, задачи будут про DevOps, оптимальную инфру, локальные модели до 90b и воспроизводимость архитектур по типу openclaw
Результатом соревнования будет победитель, который получит GPU новую (5070)
За второе и третье место будут утешительные презы
Б/у
2080ti
2060super
Думаю что с текущей загрузкой организую все приметно за 3-5 недели, врубайте уведомления
следите за апдейтами =)
UPDATE:
Еще за сегодня думал, точно будет в виде платформы, точно проведем соревнование одним днем, задачи будут про DevOps, оптимальную инфру, локальные модели до 90b и воспроизводимость архитектур по типу openclaw
2🔥97 17😁7❤3
Forwarded from Data Secrets
NeuralDeep Skills: локальная база агентных навыков под ру-сервисы
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
Всем, кто пользуется агентами, 100% известна такая вещь, как skills.sh. Это огромная база скиллов агентов под любые сервисы. Ставишь – и агент уже умеет с ними работать из коробки.
Так вот, в российском сообществе давно напрашивался аналог под локальный стек. И его сделал наш друг и коллега по тг – Валерий @neuraldeep. Он в целом регулярно делает разные практичные штуки для разработчиков, и это как раз одна из них.
Итак, встречайте: neuraldeep.ru/
Это база, в которой будут собраны скиллы для работы с самими разными ру-сервисами. Туда уже залили интеграции под инструменты Яндекс, Битрикс24, 1С и другое, чем многие пользуются каждый день.
– Установка все так же происходит одной командой, все привычно и понятно
– Проект опенсорсный: туда можно просто прийти и залить свой скилл через GitHub (формат claude-skill)
– Есть модерация и базовые проверки безопасности
Из этого вполне может получиться что-то вроде стандартного слоя для агентных интеграций под рф-рынок. Если работаете с агентами – заходите попробовать или даже поучаствовать.
Проект -> neuraldeep.ru/
Гитхаб -> https://github.com/vakovalskii/neuraldeep
Следите за обновлениями в канале Валеры -> @neuraldeep
1👍51🔥22🤡6❤5👏5🤮3💊2 1
Валера Ковальский
Кто угадает что за карта приехала(надо полные спеки угадать), тому в подарок отправлю 2080ti (11gb, по РФ) А так теперь у нас в контуре с Пашей пополнение =) Победитель найден это была 4090 (48гб) UPDATE: В след раз будем решать задачки, и разыграем пару…
Media is too big
VIEW IN TELEGRAM
Короткий обзор распаковка 4090(48GB)
Про шум
Про особенности работы
И какие бывают подводные
Вопросы:
Ответ:
Про шум
Про особенности работы
И какие бывают подводные
Вопросы:
А в чем прикол перестановки чипа? Если карта новая то кто переставлял? Немного запутанно
Ответ:
Завод пилит 4090 (24гб)
Хотим 48гб
готовим под 48 гб всю плату с 0 но без ЦП (центральный процессор)
Снимаем ЦП с 4090(24гб) на подготовленную плату
Зашиваем биос успех (миниум дейсвтий и вы красачег с 4090 (48гб)
2👍30🔥12🤯7❤4
Forwarded from Поляков считает: AI, код и кейсы
Телеграм-дайджест для агента или читаем любимые каналы в метро: два скилла для Claude
Не знаю, что нас ждёт после 1 апреля, но Claude без телеграма точно не оставит.
Делал себе скилл для мониторинга AI-каналов — чтобы агент собирал новости за день, пока я работаю и выдавал интересное для экспериментов. И в процессе понял: если я и так собираю посты, то почему бы не упаковать их в нормальный веб-интерфейс? Хотел сделать скилл для агентов, а получился ридер для метро. Спасибо @oestick за то что показал пагинацию.
🔧 Что под капотом
Первый скилл — парсер публичных телеграм-каналов. Работает через веб-превью
Что умеет:
🔸 Парсить посты с просмотрами, реакциями, датами и медиа
🔸 Полнотекстовый поиск по постам из канала
🔸 Топ постов по просмотрам или реакциям
🔸 Дайджест по нескольким каналам за период — сегодня, вчера, неделя
🔸 Сравнение каналов: подписчики, средние просмотры, engagement
Каналы можно группировать по тематикам в .env-файле. У меня заполнена подборка AI-каналов (все те что сам читаю).
📱 Дайджест как веб-страница
Результат собирается в React-артефакт прямо в чате Claude: лента карточек с фильтрами по каналу и периоду. Выглядит как мини-Telegram, только без рекламы и «вступите в чат».
А дальше — второй скилл, паблишер на GitHub Pages. Берёт артефакт и деплоит в гитхаб пейджи. Вот что у меня получилось: https://artwist-polyakov.github.io/graphics_reports/2026/2026-03/ai-digest-week/
⚙️ Как запустить
Скиллы ставятся через маркетплейс Claude Code, но для облачной песочницы Клод нет никаких ограничений на доступ, поэтому я рекоменую ставить через customization >> skills >> upload.
Для паблишера нужен fine-grained GitHub-токен с доступом к репозиторию Pages. Парсер работает вообще без настройки. Опиание конфигурации разместил в соответствующих папках
🔗 Ссылки
Парсер телеграм-каналов — код и документация
Паблишер GitHub Pages — деплой артефактов
Все скиллы в репозитории: polyakov-claude-skills
Будут идеи как улучшить — приходите в комментарии или пул-реквесты.
UPD. В комментарии пришел Валера и сказал, что для белых списков надо выкладывать не на гит, а в SourceCraft. Держите короче скилл для публикации в Cорскрафт.
Ну и дайджест для тестов под белыми списками https://artwist.sourcecraft.site/web-pages-share/2026/2026-03/ai-digest-week/
----
Поляков считает — AI, код и кейсы
Не знаю, что нас ждёт после 1 апреля, но Claude без телеграма точно не оставит.
Делал себе скилл для мониторинга AI-каналов — чтобы агент собирал новости за день, пока я работаю и выдавал интересное для экспериментов. И в процессе понял: если я и так собираю посты, то почему бы не упаковать их в нормальный веб-интерфейс? Хотел сделать скилл для агентов, а получился ридер для метро. Спасибо @oestick за то что показал пагинацию.
🔧 Что под капотом
Первый скилл — парсер публичных телеграм-каналов. Работает через веб-превью
t.me/s/, никаких API-ключей и MTProto. Ноль зависимостей, работает из коробки.Что умеет:
🔸 Парсить посты с просмотрами, реакциями, датами и медиа
🔸 Полнотекстовый поиск по постам из канала
🔸 Топ постов по просмотрам или реакциям
🔸 Дайджест по нескольким каналам за период — сегодня, вчера, неделя
🔸 Сравнение каналов: подписчики, средние просмотры, engagement
Каналы можно группировать по тематикам в .env-файле. У меня заполнена подборка AI-каналов (все те что сам читаю).
📱 Дайджест как веб-страница
Результат собирается в React-артефакт прямо в чате Claude: лента карточек с фильтрами по каналу и периоду. Выглядит как мини-Telegram, только без рекламы и «вступите в чат».
А дальше — второй скилл, паблишер на GitHub Pages. Берёт артефакт и деплоит в гитхаб пейджи. Вот что у меня получилось: https://artwist-polyakov.github.io/graphics_reports/2026/2026-03/ai-digest-week/
💡 По сути получился персональный Telegram Reader: агент собирает → Claude рендерит → GitHub Pages хостит → ты читаешь в метро.
⚙️ Как запустить
Скиллы ставятся через маркетплейс Claude Code, но для облачной песочницы Клод нет никаких ограничений на доступ, поэтому я рекоменую ставить через customization >> skills >> upload.
Для паблишера нужен fine-grained GitHub-токен с доступом к репозиторию Pages. Парсер работает вообще без настройки. Опиание конфигурации разместил в соответствующих папках
config/README.md🔗 Ссылки
Парсер телеграм-каналов — код и документация
Паблишер GitHub Pages — деплой артефактов
Все скиллы в репозитории: polyakov-claude-skills
Будут идеи как улучшить — приходите в комментарии или пул-реквесты.
UPD. В комментарии пришел Валера и сказал, что для белых списков надо выкладывать не на гит, а в SourceCraft. Держите короче скилл для публикации в Cорскрафт.
Ну и дайджест для тестов под белыми списками https://artwist.sourcecraft.site/web-pages-share/2026/2026-03/ai-digest-week/
----
Поляков считает — AI, код и кейсы
3❤37🔥15👏8 8👍5😁4
Пока готовлю свой бенч Harness Hardware Long Benchmark (HHLB) мысль пришла в голову
Агент = VM, а не процесс и даже не docker
Почему? 90% задач из повседневной жизни по автоматизации становятся почти ничем на измеримом уровне, теперь агенты требуют больше железа, и доступов а значит им нужна инфраструктура и докером тут не обойтись уже
Я вижу будущее general code agents в облаках и инфре крупных компаниях именно так
KVM-виртуалка с одним бинарником general code agent (Claude Code, Codex CLI, OpenCode) вызывается headless из любого места по API (тут что хотите хоть вебсокеты)
Минимальное железо: 1 CPU, 1 GB RAM, 20 GB SSD.
Машине выданы все доступы — сеть, модели, инфраструктура, базы знаний,
При инициализации загружается AGENTS.md/CLAUDE.md с целеполаганием и задачами
Дальше агент должен работать автономно
Ключевое отличие от текущих подходов: агент может сам улучшать свой runtime ставить зависимости, менять конфиги,
добавлять тулы все как ouroboros только масштабнее
Всё на уровне изоляции KVM, не процесс где-то на чьём-то ПК а прям qcow2
И самое важное snapshots не просто промпт версионируем, или гит внутрь закидываем
А прям снапоштим всю ВМ
В любой момент можно откатить состояние всей VM, а не пытаться откатить промпт и логикой удалить все зависимости
Сломал себя? snapshot-revert и ты в рабочей точке
Но возможно я начитался новостей и просто кто-то уже напилит запуск таких 1000 VM на 16 ядрах
Выиграет тот кто сможет создать устойчивую инфрастуруктуру и подготовить процессы и железо под этот формат
Агент = VM, а не процесс и даже не docker
Почему? 90% задач из повседневной жизни по автоматизации становятся почти ничем на измеримом уровне, теперь агенты требуют больше железа, и доступов а значит им нужна инфраструктура и докером тут не обойтись уже
Я вижу будущее general code agents в облаках и инфре крупных компаниях именно так
KVM-виртуалка с одним бинарником general code agent (Claude Code, Codex CLI, OpenCode) вызывается headless из любого места по API (тут что хотите хоть вебсокеты)
Минимальное железо: 1 CPU, 1 GB RAM, 20 GB SSD.
Машине выданы все доступы — сеть, модели, инфраструктура, базы знаний,
При инициализации загружается AGENTS.md/CLAUDE.md с целеполаганием и задачами
Дальше агент должен работать автономно
Ключевое отличие от текущих подходов: агент может сам улучшать свой runtime ставить зависимости, менять конфиги,
добавлять тулы все как ouroboros только масштабнее
Всё на уровне изоляции KVM, не процесс где-то на чьём-то ПК а прям qcow2
И самое важное snapshots не просто промпт версионируем, или гит внутрь закидываем
А прям снапоштим всю ВМ
В любой момент можно откатить состояние всей VM, а не пытаться откатить промпт и логикой удалить все зависимости
Сломал себя? snapshot-revert и ты в рабочей точке
Но возможно я начитался новостей и просто кто-то уже напилит запуск таких 1000 VM на 16 ядрах
Выиграет тот кто сможет создать устойчивую инфрастуруктуру и подготовить процессы и железо под этот формат
1👍49 7🤔4❤3
Forwarded from Остриков пилит агентов
Делаем второй комьюнити стрим
Итак, в эту субботу в 14.00 по МСК будет наш второй zoom-созвон, отвечаем на любые ваши вопросы.
На этот раз в жюри шоу Голос:
- Валера @neuraldeep
- Рефат @nobilix
- секретный гость - Мистер X
Правила все те же - это просто zoom звонок, вы на него залетаете, поднимаете руку, включаете камеру (если одеты) и спрашиваете что душе угодно:
- сколько первых мест возьмут openclaw агенты в bitgn 11 апреля? (все, но не твой крабик на кими)
- какой лучший курс купить по ИИ в 2026 году? (но ответ уже есть)
- будут ли n8n инженеры получать 600к к концу 2026 года? (да, можно и про n8n в этот раз)
- ...и что-то посерьезнее, плиииз!
Ссылка на Google Calendar:
https://calendar.app.google/C6CTc7uRF2GVL1fp8
SEE YOU THERE 👊🏻
Кидайте заранее вопросы в комменты, останется время - поотвечаем на них
Итак, в эту субботу в 14.00 по МСК будет наш второй zoom-созвон, отвечаем на любые ваши вопросы.
На этот раз в жюри шоу Голос:
- Валера @neuraldeep
- Рефат @nobilix
- секретный гость - Мистер X
Правила все те же - это просто zoom звонок, вы на него залетаете, поднимаете руку, включаете камеру (если одеты) и спрашиваете что душе угодно:
- сколько первых мест возьмут openclaw агенты в bitgn 11 апреля? (все, но не твой крабик на кими)
- какой лучший курс купить по ИИ в 2026 году? (но ответ уже есть)
- будут ли n8n инженеры получать 600к к концу 2026 года? (да, можно и про n8n в этот раз)
- ...и что-то посерьезнее, плиииз!
Ссылка на Google Calendar:
https://calendar.app.google/C6CTc7uRF2GVL1fp8
SEE YOU THERE 👊🏻
Кидайте заранее вопросы в комменты, останется время - поотвечаем на них
3👍27😁11🔥10❤6
Forwarded from Глеб Кудрявцев про AI кодинг
Скандальчик очередной с атакой на цепочку поставок. На сей раз под ударом все кто имеют в цепочке зависимостей библиотку axios в npm (очень популярная библиотека для сетевых запросов).
Более пяти часов она ставила зашифрованный малварь на машины жертв. Объемы инсталляций библиотеки— 100 млн в месяц, так что заражены могут быть миллионы машин.
Проверяйте себя
https://x.com/feross/status/2038807290422370479?s=46&t=X0WelBfVXZJ6DwiINUU8mA
Если вы запускали npm install в последние сутки: Проверка, попали ли вы под атаку:
Более пяти часов она ставила зашифрованный малварь на машины жертв. Объемы инсталляций библиотеки— 100 млн в месяц, так что заражены могут быть миллионы машин.
Проверяйте себя
https://x.com/feross/status/2038807290422370479?s=46&t=X0WelBfVXZJ6DwiINUU8mA
Если вы запускали npm install в последние сутки: Проверка, попали ли вы под атаку:
# blackhole C2 Domain
echo '127.0.0.1 sfrclak.com' | sudo tee -a /etc/hosts
# flush DNS cache for good measure
sudo dscacheutil -flushcache
# check for IoC - if this file exists you are pwned
# shut down your machine immediately
ls /Library/Caches/com.apple.act.mondX (formerly Twitter)
Feross (@feross) on X
🚨 CRITICAL: Active supply chain attack on axios -- one of npm's most depended-on packages.
The latest axios@1.14.1 now pulls in plain-crypto-js@4.2.1, a package that did not exist before today. This is a live compromise.
This is textbook supply chain installer…
The latest axios@1.14.1 now pulls in plain-crypto-js@4.2.1, a package that did not exist before today. This is a live compromise.
This is textbook supply chain installer…
👀28🔥3🤬3🤮2❤1🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Сижу перевекторизирую 235 млн сообщений с miniLM на bge-m3
Данные уже в opensearch, модель поднята на A100, казалось бы — запусти скрипт и иди спать
Но нет. ML кластер с A100 в одном сегменте сети, opensearch в другом, я со своим ноутом на корпоративном VPN в третьем. Скрипт надо запихать поближе к данным а доступов нет. Сказка да и только, буду пробиваться через техподдержку
Это ещё до того как я посчитал что встроенный ingest pipeline opensearch гоняет документы по одному — каждый = отдельный HTTP запрос к модели. 235 млн × 25ms = 68 дней. Но может я ошибаюсь и кто-то подскажет как правильно? Может как скролл настроить правильно?
Написал внешний скрипт с батчингом 3000 docs/s (воу), 21 час вместо 68 дней. Осталось его доставить туда где он сможет достучаться до обоих сервисов одновременно с минимальной задержкой
По пути vLLM v0.18.0 тихо убрал --task embed (узнал через краш в 2 ночи), потом CUDA graphs баг в RoBERTa который попал в релиз раньше фикса. A100 80GB при этом занята на 8.7 из 80 что смешно — тестами с клодом пришёл к тому что 5 контейнеров vLLM это максимум для утилизации GPU, поставил traefik перед ними для балансировки
Реалии корпоративного AI/LLM/ML зоопарка (расскажу как-нибудь в следующих постах про это)
Вот из таких историй и складывается реальный ML на проде не из красивых архитектурных схем а из сетевых сегментов, крашей в 2 ночи и 68 дней которые надо превратить в 21 час
В прошлом году на Data Fusion подсмотрел как ребята тренят классификаторы на катбусте под гарды — вернулся и собрал свой guardrails v2 на этом подходе. Сэкономил недели которые бы потратил на эксперименты с архитектурой
В этом году иду за кейсами по массивным ML пайплайнам потому что вот это всё с переиндексацией 235 млн документов явно не последний раз
И в этом году Data Fusion 2026 сделали аж более 70 сессий, ИИ-агенты, RL, CV, NLP, робототехника, рекомендательные системы, AI в кибербезопасности и науке. ML-лиды, DS, инженеры, исследователи и бизнес на одной площадке, спикеры из ВТБ, AIRI, МФТИ, Сколтеха, Яндекса, X5, Ростелекома
Я планирую приехать, если кто тоже будет пишите, пересечёмся поговорим про этот вот все =)
Данные уже в opensearch, модель поднята на A100, казалось бы — запусти скрипт и иди спать
Но нет. ML кластер с A100 в одном сегменте сети, opensearch в другом, я со своим ноутом на корпоративном VPN в третьем. Скрипт надо запихать поближе к данным а доступов нет. Сказка да и только, буду пробиваться через техподдержку
Это ещё до того как я посчитал что встроенный ingest pipeline opensearch гоняет документы по одному — каждый = отдельный HTTP запрос к модели. 235 млн × 25ms = 68 дней. Но может я ошибаюсь и кто-то подскажет как правильно? Может как скролл настроить правильно?
Написал внешний скрипт с батчингом 3000 docs/s (воу), 21 час вместо 68 дней. Осталось его доставить туда где он сможет достучаться до обоих сервисов одновременно с минимальной задержкой
По пути vLLM v0.18.0 тихо убрал --task embed (узнал через краш в 2 ночи), потом CUDA graphs баг в RoBERTa который попал в релиз раньше фикса. A100 80GB при этом занята на 8.7 из 80 что смешно — тестами с клодом пришёл к тому что 5 контейнеров vLLM это максимум для утилизации GPU, поставил traefik перед ними для балансировки
Реалии корпоративного AI/LLM/ML зоопарка (расскажу как-нибудь в следующих постах про это)
Вот из таких историй и складывается реальный ML на проде не из красивых архитектурных схем а из сетевых сегментов, крашей в 2 ночи и 68 дней которые надо превратить в 21 час
В прошлом году на Data Fusion подсмотрел как ребята тренят классификаторы на катбусте под гарды — вернулся и собрал свой guardrails v2 на этом подходе. Сэкономил недели которые бы потратил на эксперименты с архитектурой
В этом году иду за кейсами по массивным ML пайплайнам потому что вот это всё с переиндексацией 235 млн документов явно не последний раз
И в этом году Data Fusion 2026 сделали аж более 70 сессий, ИИ-агенты, RL, CV, NLP, робототехника, рекомендательные системы, AI в кибербезопасности и науке. ML-лиды, DS, инженеры, исследователи и бизнес на одной площадке, спикеры из ВТБ, AIRI, МФТИ, Сколтеха, Яндекса, X5, Ростелекома
Я планирую приехать, если кто тоже будет пишите, пересечёмся поговорим про этот вот все =)
2👍35🔥25💯6❤5🤯3