Нейро Ковальский
13.6K subscribers
471 photos
80 videos
5 files
391 links
Head of AI Engineer
From IT Admin to Head of AI in 5 years

Applied AI Engineer
B2C RAG (2M+ books)
B2B RAG platform (10+ implementations)
B2C gptdaisy.com (100k MAU)

github.com/vakovalskii | chat @neuraldeepchat

To infinity... and beyond!
Download Telegram
Хватит писать коммиты руками

Последние года полтора я точно не пишу коммит сообщения сам, а пользовался одним инструментом для генерации коммитов. Да, знаю что в том же Cursor есть кнопка авто-генерации, но она пишет какую-то дичь чаще.

Claude Code тоже пишет коммиты но добавляет себя туда как со-автора и в целом какими блоками коммитить - я предпочитаю управлять сам. Несмотря на то что пользуюсь CC -> мой файловый редактор остается Cursor и я там просто нажимаю кнопку "Commit", далее срабатывает git hook и на выходе сгенерированное сообщение.

Что важно для меня:
• соблюдение conventional commits
• one line commit в духе feat(auth): added registration system
• четкое определение типа коммита - feat/refactor/fix/docs/chore/...
• понятный scope -> feat(auth) / refactor(rag) и т.д.
• если коммит короткий -> одна строка, если большой - одна строка + буллеты в духе:
refactor(rag): changed rag pipeline

• introduced BM25
• refactored qdrant to postgres
• ...


Предыдущий инструмент не устраивал меня много чем, поэтому вчера за вечер я собрал свой первый опенсорс на Go!

Встречайте - CWAI (Commits With AI)

Как он работает?
Вы добавляете файлы в stage (git add), нажимаете Commit в вашем IDE/делаете git commit/пишите cwai в терминале, он генерирует вам сообщение - вы аппрувите/регенерируете/правите если надо (а задача чтобы правок было минимум) -> коммитите.

Как установить?
Быстрая установка для macOS/Linux:

curl -fsSL https://raw.githubusercontent.com/nikmd1306/cwai/main/install.sh | bash


Для Windows:
Скачайте Windows Zip из последнего релиза и запустите cwai.exe

Для тех кто хочет просто сам установить и у кого есть Go:

go install github.com/nikmd1306/cwai@latest

export PATH="$PATH:$(go env GOPATH)/bin"


Что нужно для работы?
Инструмент поддерживает любой OpenAI Compatible API (OpenAI/OpenRouter/DeepSeek/любой другой). Все что нужно - Base URL + API KEY + модель.

По дефолту стоит OpenAI и лично я пользуюсь им + gpt-5-mini (стоит как дефолтная модель).

Чтобы настроить все параметры - для интерактивной установки введите:

Интерактивная установка - настройка ключей, api url и модели

cwai setup


Непосредственно в репозитории - установка git hook - это нужно делать в каждом новом

cwai hook set


Если у вас будут какие-то вопросы/идеи/предложения/проблемы - можно писать в Discussions на гитхабе или там же открывать Issues.

А лучшая поддержка для меня - это звезда на гитхабе

@atlfreedom
* а тут рассказываю про AI-coding/вайбкодинг
7🔥2915👍9🤡2
Нейро Ковальский
Довайбкодился, садись, пять! Хочу вам представить свой сервис по агрегации поисковых движков! https://vamplabai.com/ Это продолжения бота @neuraldeepbot Все очень просто! Авторизация через тгбота Есть z.ai Есть tavily Есть поисковик по телеграм с разметкой…
Digest agent system

Тем временем сервис становится все стабильнее и стабильнее

А аудитория у дайджеста растет!

На забывайте переходить в источники и читать фулл посты там точно будет самая мякотка

Юзер дашборд (https://vamplabai.com/)
Бот @neuraldeepbot
18🔥7👍6👏4
Forwarded from Data Secrets
Google тихо порезали доступ к подписке через OpenClaw

Прошло меньше недели со дня, когда OpenAI купили OpenClaw, и конкуренты уже реагируют вот такими жесткими мерами.

Суть в том, что если вы подключали Google Antigravity / Gemini / Ultra к OpenClaw по OAuth, то ваш аккаунт, скорее всего, или уже забанили, или скоро забанят. Причем без предупреждения.

Причина: нарушение ToS посредством использования токенов в стороннем продукте. Хотя, по факту, OpenClaw – просто прокси, то есть прослойка, инициирующая запросы в сам сервис.

Создатель OpenClaw назвал поведение Google «драконовским» и предупредил, что, скорее всего, удалит из сервиса поддержку Antigravity.

Никто не хочет держаться за ручки с Альтманом даже виртуально…
1🤡42😁14👍93
Откопал тут в старых вещах

Raspberry pi4 8gb

Подниму там себе легкую(будет форк) версию Topsha только облегчить точно придется и упаковать как сервис, подсмотрю в picoclaw подход
2🔥36😁962
Мемный денек получился)

Рефат кстати описывает тут упрощение AGENT.md + CLAUDE.md и context free отношения с кодинговыми агентами
😁57👍103
Channel name was changed to «Нейро Ковальский»
Вчера выбил 100% на weekly limits на двух подписках claude code

На секунду почувствовал что задачки сейчас встанут, но быстро переключился на codex cli(боже какие же модели gpt слабые, или слишком самостоятельные для меня)


Благо лимит на одной откатился сегодня с утра и тряска прекратилась
😁59🔥17🤔82
Forwarded from ElKornacio
кароч, ща вкину противоречивый тейк, с которым я и сам не на 100% согласен, но все же, довольно сильно в него верю

тейки уровня "ИИ-агенты пишут код не так, как я хочу", это дроч в духе "мой код на JavaScript компилируется не в тот ассемблер, который мне привычен".
разница только в том, что вы тот машинный код, в который компилится JS даже не видите, а если бы и видели - многие ли сегодня умеют читать-писать на fasm/masm?
а когда вы просите ИИ писать на _вашем_ языке, а он вдруг взял, и написал не так, как вы любите - начинаются истерики.

гайз, момент "мы пытаемся научить ИИ писать, как человек" был пропущен ещё в начале-середине 2025. в ту секунду, когда ИИ научился писать работающие приложения, и нормально чинить архитектуру и техдолг, задача "научить ИИ писать как человек" испарилась, она больше никому не нужна, её никто не решает.
сейчас актуальна задача "научиться встраивать и поддерживать тот код, который пишет ИИ" - как правильно его тестить (при помощи ИИ), как проектировать и следить за архитектурой (при помощи ИИ), как вычищать техдолг (при помощи ИИ) и так далее.

останьте от кода. он больше не ваш. вы вообще не должны его видеть.
ИИ написал большущий файл на 3000 строк? дурашка, это он для тебя мельчит, ему и 100000 было бы норм, для него вся кодовая база - одно большое полотно текста.
ИИ использует не твой любимый архитектурный паттерн? вместо ООП пишет функционально? вместо instance refs передаёт колбеки? господи, тебе не насрать?

"наша бизнес-логика такая сложная, ИИ её не поймёт" = в течение 3 лет вас выебут компании, кто смог адаптироваться под ИИ и развивал продукт в 10-20-50 раз быстрее.
"ИИ делает баги" = ну и что? разрабы тоже их делают, хоть и значительно меньше (да, даже в очень хорошем ИИ-пайплайне с ИИ-тестами, ИИ все равно делает багов заметно больше чем человек). перестройте QA, научитесь в graceful rollouts, чтобы быстро детектить баги, выстройте авто-ревью, раздробите продукт и так далее: это ваша задача придумать, как использовать ИИ эффективно.
вайбы уровня "зачем нужны самолёты, поезд приезжает на вокзал прям в центре города, а из аэропорта ещё надо потом в город ехать, ну и что, что 5 дней в пути, зато надежнее" в 2025 вызывали реакцию "кек, дед с Хабра", а в 2026 по большей части раздражают.

ещё раз: забудьте про "внедрять нам ИИ или нет". сейчас уже момент "что мне поменять в себе, компании, процессах, людях, продукте, чтобы внедрить ИИ".
3097🔥58😁18🤡12💯8👍5💊2
Ну прям я

😄😄😄
16🤣136😁31💯7
4 День тестирую RustDesk

Флоу
Ноут запущен всегда и стоит дома
На телефон и ноут установлен RustDesk, так же настроен remote id(который стабилизирует скорость и качество отклика) это мой сервер развернутый в РУ облаке имеет сатик IP


В целом очень доволен такой связкой, (подписка не 200 макс) по этому ремоут потестить не могу


Из бонусов, голосовой ввод от клавиатуры IPhone

Завязал на этот ноут разработку одного сервиса (24/7 могу вкинуть идею и четко управлять сессией Claude Code, честно поражен насколько проработан интерфейс для мобилы)

Скажу я вам очень удобно и только так я выгребаю фулл лимиты!
🔥3113👍9💯1
Forwarded from Dealer.AI
Coming soon😜
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍41🔥2913💯1
Рубрика LLM Ops

Как и обещал в
чатике выгружаю тесты qwen3.5-35b-a3b на своих 4090(48gb x2)


К станку


Как обычно взял FP16 и image: vllm/vllm-openai:nightly


      "--tensor-parallel-size", "2",
"--enable-expert-parallel",
"--data-parallel-size", "1",
"--distributed-executor-backend", "mp",
"--gpu-memory-utilization", "0.97",


Загрузка
qwen3.5-35b-a3b | (Worker pid=132) (Worker_TP0_EP0 pid=132) INFO 03-02 11:16:40 [gpu_worker.py:423] Available KV cache memory: 11.59 GiB
qwen3.5-35b-a3b | (EngineCore_DP0 pid=93) INFO 03-02 11:16:40 [kv_cache_utils.py:1314] GPU KV cache size: 303,072 tokens
qwen3.5-35b-a3b | (EngineCore_DP0 pid=93) INFO 03-02 11:16:40 [kv_cache_utils.py:1319] Maximum concurrency for 200,000 tokens per request: 5.96x



Работа по анализу ValeDesk в курсоре
qwen3.5-35b-a3b  | (APIServer pid=1) INFO 03-02 11:46:53 [loggers.py:259] Engine 000: Avg prompt throughput: 4376.5 tokens/s, Avg generation throughput: 68.0 tokens/s, Running: 1 reqs, Waiting: 0 reqs, GPU KV cache usage: 0.6%, Prefix cache hit rate: 0.0%, MM cache hit rate: 66.7%



Ризонинг в итоге вырубил настройкой пока что на инфренесне, так как это конечно тьма, на привет 1-2 минуты думает в формате ПТСР


Single request: 90-100 tok/s (короткий контекст), 37-43 tok/s (длинный 5-9K)
- Tool calling TTFT: 329-396 ms (45-65 т/c)
- Concurrent throughput: 57 tok/s (3 параллельных)
- Degradation на длинном контексте: скорость падает с ростом промпта (~100→24 tok/s на 9K)



Точность и качество работы скоро будет (разослал друзьям по цеху доступы на сервер)



Напомню бенчи, модель якобы обгоняет sonnet 4.5 в некоторых задачах и что бы поднять ее фулл на весь контекст хватает сервера на 900-1.2 млн
🔥24🤔123👍3👌1
🤣🤣🤣

кому нужны все ваши superpowers и beads, когда есть такое

https://github.com/i1kazantsev/claude-code-spinner
37😁8214🔥6👍5🤣1
Forwarded from Pavel Zloi
Соцсети доживают свой век

Всё чаще замечаю, что листать динамическую ленту на ютубе, в твиттере, инсте и тиктоке в последнее время становится невыносимо, cоцсети завалены низкокачественным нейроконтентом.

Заметная часть коротких видео это говорилка в стиле озвучивателя местности, треш на тему популярных киновселенных, песенки среднего качества, ожившие картинки и прочий ai slop разного пошиба.

Площадки, на которых доминируют текстовые сообщения, заполнены пресным и безэмоциональным текстовым нейрослопом, в котором авторы даже не стараются почистить текст, убрав из него клише, присущие нейросетям. Каждый второй пост это лонгриды, каждый первый пост раздутая вода на киселе. Да даже мемчиков новых почти не появляется, а то, что попадается на глаза, лишь переосмысление древних скрижалей.

Соцсети, в которых доминируют картинки, заполнены людьми с "идеальными" фигурами, "идеальными" снимками идеальных "отпусков", сгенерированных зверей, детей и так далее.

Это я к тому веду, что настоящего как будто ничего не осталось. Отсюда возникает вопрос, а нужны ли социальные сети в эпоху ai slop в принципе? Какой от них прок, если пока значительная часть, а скоро и вовсе почти вся, контента будет сгенерирована модельками? Для кого публикуется весь этот контент, для других нейросетей, а как же реклама? Заметен ли уже негативный экономический эффект от засилья нейрослопа?

Подводя итог, хочу сказать, что мне кажется, что соцсети в привычном нам виде уже почти изжили себя, если так дальше пойдёт дело, то скоро их ждёт закат, и мне очень любопытно, что будет дальше.
👍47😁18💯11🤣64🤡3🤔2
Kanban для управления кодовыми агентами

Самое интересное что только вчера обсуждали что openclaw не хватает канбан доски для командной работой над кодовыми агентами, и вот подход акторов на элексире

Гоу разбирать на части ребят!

OpenAI открыла "ДЕМКУ" оркестратор Symphony — платформу для построения сложных AI‑воркфлоу

Почему демка? Да потому что интеграция в Linear да и только, зато отличный пример как надо привлекать пользователей тратить токены подписки Codex CLI? =)

https://github.com/openai/symphony
1🔥21🤣87👍1
Нейро Ковальский
Kanban для управления кодовыми агентами
This media is not supported in your browser
VIEW IN TELEGRAM
Kovalskii варианты?

4 часа в режиме Ralph loop (шутка, я делал это руками)

Получилось на основе ValeDesk/OpenClaw/PiClaw/Topsha

Сделать LocalTaskClaw (да да основная идея взять кодовых агентов на локал моделях и засунуть из в среду Kanban моя идея не новая но может реализация вам понравится)

Что сделанно
Засунул их в апи канбана
Создал туда Оркестратора
И смотреть как все горит что они натворят если поставить им задачку наспавниться и решить что-то


Почти VibeKanban

https://github.com/vakovalskii/LocalTaskClaw

За что больше всего попотел так это за онбординг и простую установку из cli

curl -fsSL https://raw.githubusercontent.com/vakovalskii/LocalTaskClaw/main/install.sh | bash


При первых 2 вариантах за сохранность файлов не ручаюсь вообще никаких тестов не делал! =)
3🔥421111
This media is not supported in your browser
VIEW IN TELEGRAM
4 Mac Studio 512 gb RAM каждый

2TB памяти и возможность поднять Kimi K2.5?


В захлеб поглядел этот видос от NetworkChuck видос не новый но все же https://youtu.be/bFgTxr5yst0?si=MGyFe0Qak6-c0Yz3


Кстати соединили их через exo вот это я понимаю local openclaw

Ваши ставки сколько стоит?)

22 t/s кстати выдает
2😁26👍159🤔1🤮1