Cododel.dev | Александр
Spec-Driven Development #SDD Звучит интересно, особенно сейчас, когда спецификацию не нужно вылизывать самостоятельно, достаточно чётко технически описать требования, а опишет их AI https://github.com/Fission-AI/OpenSpec Надобно опробовать, тк главное преимущество…
Spec-Driven Development | Первые впечатления от OpenSpec
#SDD
Описал проект, составил спецификацию и концепт проекта.
Так же дополнил основную идею бизнес логики дельтапланирования с ассиметричным распределением, заставил grok-4-fast-thinking подумать, мне очень понравилось его решение
Через команду
- Proposal - why, what changes, impact. Четко всё описано, относительно простым языком.
- Design - context, goals, descisions, risks, migration plan, open positions. — Более техническое описание, грок сам выделил риски плавающей точки к примеру, о которых я вспоминаю лишь в процессе реализации, а последний пункт с open positions поднял пару вопросов, один из которых:
Buffer_multiplier user-configurable? Default 1.05.
Об этом я даже не задумался, что это опциональное решение может быть.
- Tasks: Implementation, validation and testing, Deployment prep. Три четких шага, имеющие свои задачи, которые по OpenSpec дают возможность отслеживать прогресс выполнения работы, и придерживаться плана. (Последнее лично мне очень нравится, так как я вечно скатываюсь в рефакторинг либо активно параллелю работу над разными фичами)
-🤩
---
Это очень взрослый подход к разработке, который я целенаправленно игнорировал в силу количества писанины.
Чисто с бюрократией можно сравнить, не смотря на полную документируемость и историю разработки проекта, на столько подробную и проработанную, что это уже полноценный Wiki.
Сейчас с нейросетями, особенно с уровнем GPT-OSS, Grok-4-fast, Gemini-2.5-(pro/flash) по их price/intelligence/speed — выглядит очень аппетитным пирогом.
Сам вайбкодинг в чистом виде мне слегка отвратителен, но я вообще не чураюсь писать тексты при помощи LLM.
Этот текст важно вычитать, и критически вдумываться в тезисы, уточнять, корректировать. Но грамотность и экспертность таких текстов довольно высока, можно даже собтвенные рукписные тексты собрать в кучку, вычленить паттерны и в системный промпт поместить, чтобы модель писала как автор. (В закрепе моя биография по такому принципу сделана.)
В мою жизнь очень плотно вошли ИИ модели, почти оплностью заменив гугл, но не документацию.
Думать над разными темами в формате диалога, направляя модель в нужную сторону оказалось — сильнейшим бустом в самообучении, и то же самое можно применить к Spec Driven разработке.
А учитывая что подобную фичу нативно у себя выкатил гигант в виде Amazon со своим Kiro IDE, хотя судя по отзывам на Reddit — немного перегруженную, то думаю при серьезном отношении и текущий, описываемый мной формат может стать хорошим решением.
Стек я выбрал AppWrite + Angular 20 + ShadCN
Что получится из этого — я расскажу в ближайшие пару неделю/месяцев, так как разработка будет вестись по выходным и исключительно по настроению
Всем бобра🏠
#SDD
Описал проект, составил спецификацию и концепт проекта.
Так же дополнил основную идею бизнес логики дельтапланирования с ассиметричным распределением, заставил grok-4-fast-thinking подумать, мне очень понравилось его решение
Через команду
/openspec-proposal попросил создать фичу из описанной логики, и был приятно удивлен:- Proposal - why, what changes, impact. Четко всё описано, относительно простым языком.
- Design - context, goals, descisions, risks, migration plan, open positions. — Более техническое описание, грок сам выделил риски плавающей точки к примеру, о которых я вспоминаю лишь в процессе реализации, а последний пункт с open positions поднял пару вопросов, один из которых:
Buffer_multiplier user-configurable? Default 1.05.
Об этом я даже не задумался, что это опциональное решение может быть.
- Tasks: Implementation, validation and testing, Deployment prep. Три четких шага, имеющие свои задачи, которые по OpenSpec дают возможность отслеживать прогресс выполнения работы, и придерживаться плана. (Последнее лично мне очень нравится, так как я вечно скатываюсь в рефакторинг либо активно параллелю работу над разными фичами)
-
specs/planning/spec.md: файл с бОльшим кол-вом секций, которые я тут не стану расписывать, но там уже четкое описание кейсов с WHEN/THEN, которое меня радует как ребенка ---
Это очень взрослый подход к разработке, который я целенаправленно игнорировал в силу количества писанины.
Чисто с бюрократией можно сравнить, не смотря на полную документируемость и историю разработки проекта, на столько подробную и проработанную, что это уже полноценный Wiki.
Сейчас с нейросетями, особенно с уровнем GPT-OSS, Grok-4-fast, Gemini-2.5-(pro/flash) по их price/intelligence/speed — выглядит очень аппетитным пирогом.
Сам вайбкодинг в чистом виде мне слегка отвратителен, но я вообще не чураюсь писать тексты при помощи LLM.
Этот текст важно вычитать, и критически вдумываться в тезисы, уточнять, корректировать. Но грамотность и экспертность таких текстов довольно высока, можно даже собтвенные рукписные тексты собрать в кучку, вычленить паттерны и в системный промпт поместить, чтобы модель писала как автор. (В закрепе моя биография по такому принципу сделана.)
В мою жизнь очень плотно вошли ИИ модели, почти оплностью заменив гугл, но не документацию.
Думать над разными темами в формате диалога, направляя модель в нужную сторону оказалось — сильнейшим бустом в самообучении, и то же самое можно применить к Spec Driven разработке.
А учитывая что подобную фичу нативно у себя выкатил гигант в виде Amazon со своим Kiro IDE, хотя судя по отзывам на Reddit — немного перегруженную, то думаю при серьезном отношении и текущий, описываемый мной формат может стать хорошим решением.
Стек я выбрал AppWrite + Angular 20 + ShadCN
Что получится из этого — я расскажу в ближайшие пару неделю/месяцев, так как разработка будет вестись по выходным и исключительно по настроению
Всем бобра
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1
Cododel.dev | Александр
Полезное официально выкатили в Cursor 1.7
И еще, кое-что, интересное
Про это анонс не видел, но судя по всему Headless Browser
Про это анонс не видел, но судя по всему Headless Browser
Cododel.dev | Александр
И еще, кое-что, интересное Про это анонс не видел, но судя по всему Headless Browser
Много софт фич добавляют
Там в бета уже Git Worktrees, Cursor Browser,
И я в бета версии пробовал Agent WIndow - выглядит как хорошая база для формата разработки "через чат"
Но меня интересует сейчас бета верси Plan Mode
Конечно не Spec Driven, но может быть интересно
Выглядит неплохо, особенно для дешевой модели, такой как grok-code-fast-1 можно без вызова инструментов ОО-очень быстро составить план, сделать ревью запланированных действий, внести правки
И отправить в работу
Крутая практика должна быть
Там в бета уже Git Worktrees, Cursor Browser,
И я в бета версии пробовал Agent WIndow - выглядит как хорошая база для формата разработки "через чат"
Но меня интересует сейчас бета верси Plan Mode
Конечно не Spec Driven, но может быть интересно
Выглядит неплохо, особенно для дешевой модели, такой как grok-code-fast-1 можно без вызова инструментов ОО-очень быстро составить план, сделать ревью запланированных действий, внести правки
И отправить в работу
Крутая практика должна быть
О, я фактически Инди-Разработчик
(По стеку, но не по продуктам)
А то я и думаю, что-то я слабо похож с другими разработчиками, с которыми общался.
Правда немного в фриланс, а не прям в собственную продуктовую разработку
Вот сейчас в продуктовую перехожу
Но основная философия инди-разработки мне близка
https://www.youtube.com/watch?v=adWn22ND2uY
(По стеку, но не по продуктам)
А то я и думаю, что-то я слабо похож с другими разработчиками, с которыми общался.
Правда немного в фриланс, а не прям в собственную продуктовую разработку
Вот сейчас в продуктовую перехожу
Но основная философия инди-разработки мне близка
https://www.youtube.com/watch?v=adWn22ND2uY
YouTube
Инди-хакинг — как разбогатеть на программировании...но это не точно
Поговорим о том, как люди делают в одиночку бизнес из своих пет-проектов, как много для этого приходится программировать и стоит ли кому-то этим вообще заниматься.
ТГ-канал: https://t.me/kodilo_blog
Поблагодарить автора: https://pay.cloudtips.ru/p/cfdb65e4…
ТГ-канал: https://t.me/kodilo_blog
Поблагодарить автора: https://pay.cloudtips.ru/p/cfdb65e4…
⚡1
Добавили ручное управление суммаризацией контекста. Удобно.
#Cursor
Был контекст заполнен на 60%, суммаризирован до 11%
Может быть полезно для длинных цепочек разработки без потери основной сути событий.
https://cursor.com/docs/agent/chat/summarization
#Cursor
Был контекст заполнен на 60%, суммаризирован до 11%
Может быть полезно для длинных цепочек разработки без потери основной сути событий.
https://cursor.com/docs/agent/chat/summarization
👍3
Cododel.dev | Александр
Добавили ручное управление суммаризацией контекста. Удобно. #Cursor Был контекст заполнен на 60%, суммаризирован до 11% Может быть полезно для длинных цепочек разработки без потери основной сути событий. https://cursor.com/docs/agent/chat/summarization
Интересно, чей гепард потерялся?
Судя по ценам это обновленный Opus со скидкой 🤫
Судя по ценам это обновленный Opus со скидкой 🤫
😢1
Cododel.dev | Александр
И еще, кое-что, интересное Про это анонс не видел, но судя по всему Headless Browser
Как AI Агенты меняют разработку уже сейчас?
Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция.
Работает прекрасно!
Но медленно.
Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции в браузере.
И тратит прилично контекста.
Предполагаю, если взять модельку подороже, с контекстом побольше — может получиться ручной QA Агент.
Поставил на тестирование - ушел пить чай. (или параллельно разбирать другие задачи)
На самом деле большинство задач в вебе, в ближайшее время будут полностью решаемы через агентов, остается только платить за токены.
Такие кейсы становятся довольно популярны.
В моем случае - ручная суммаризация контекста и режим планирования очень подталкивают к такому виду работы. Это действительно очень упрощает и ускоряет работу, моя задача становится более архитектурно-проектировочной, по большей мере печатать код - становится не выгодно.
В интеграции Playwright + Docs + MCP к бекенду с полным доступом (как у directus) + монорепозиторий (возможно с workspaces тоже работать может)
Получается так, что действительно остается только давать задачи, ревьюить и платить за токены.
Уверен, что главное, и самое выгодное вложение времени - это профессионально освоить работу с ИИ Агентами, а не классическое изучение языков программирования и фреймворков. (Оно само приложится со временем, во время работы, либо ИИ очень ускорит изучение)
---
Посмотрим, на сколько применим подход к реальным продуктовым задачам.
Сейчас я протестировал подход с grok-code-fast-1 на рефакторинге говнокода - в продуманный архитектурно проект.
Оно работает, и больше не имеет проблем с размером контекста, точностью и непредсказуемых действий ИИ - даже с относительно дефолтными настройками, без сис промптов.
Достаточно прописать строгие правила cursorrules в проекте, настроить линтер и тайпчекинг, использовать plan mode и чейнить задачи близкие по смыслу, последовательно, через summary.
Еще три года назад - я был уверен, что AI - пузырь, и ничего полезнее автокомплита или протейших команд, по типу convert to camel case оно не даст
Сейчас я плавно поворачиваюсь к противоположному мнению.
Всё еще спецефичные задачи, качественные решения, ревью — будут решать разработчики, но эти же разработчики скорее всего будут иметь в разы больший план эффективности.
Самые прошаренные, кто освоит параллельных агентов, и сможет это всё организовать - думаю сможет вполне до x10 раз больше задач выполнять 🤔
Странно, но все ведет к такому итогу.
Только умей пользоваться всем инструментарием, думай и плати за токены
Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция.
Работает прекрасно!
Но медленно.
Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции в браузере.
И тратит прилично контекста.
Предполагаю, если взять модельку подороже, с контекстом побольше — может получиться ручной QA Агент.
Поставил на тестирование - ушел пить чай. (или параллельно разбирать другие задачи)
На самом деле большинство задач в вебе, в ближайшее время будут полностью решаемы через агентов, остается только платить за токены.
Такие кейсы становятся довольно популярны.
В моем случае - ручная суммаризация контекста и режим планирования очень подталкивают к такому виду работы. Это действительно очень упрощает и ускоряет работу, моя задача становится более архитектурно-проектировочной, по большей мере печатать код - становится не выгодно.
В интеграции Playwright + Docs + MCP к бекенду с полным доступом (как у directus) + монорепозиторий (возможно с workspaces тоже работать может)
Получается так, что действительно остается только давать задачи, ревьюить и платить за токены.
Уверен, что главное, и самое выгодное вложение времени - это профессионально освоить работу с ИИ Агентами, а не классическое изучение языков программирования и фреймворков. (Оно само приложится со временем, во время работы, либо ИИ очень ускорит изучение)
---
Посмотрим, на сколько применим подход к реальным продуктовым задачам.
Сейчас я протестировал подход с grok-code-fast-1 на рефакторинге говнокода - в продуманный архитектурно проект.
Оно работает, и больше не имеет проблем с размером контекста, точностью и непредсказуемых действий ИИ - даже с относительно дефолтными настройками, без сис промптов.
Достаточно прописать строгие правила cursorrules в проекте, настроить линтер и тайпчекинг, использовать plan mode и чейнить задачи близкие по смыслу, последовательно, через summary.
Еще три года назад - я был уверен, что AI - пузырь, и ничего полезнее автокомплита или протейших команд, по типу convert to camel case оно не даст
Сейчас я плавно поворачиваюсь к противоположному мнению.
Всё еще спецефичные задачи, качественные решения, ревью — будут решать разработчики, но эти же разработчики скорее всего будут иметь в разы больший план эффективности.
Самые прошаренные, кто освоит параллельных агентов, и сможет это всё организовать - думаю сможет вполне до x10 раз больше задач выполнять 🤔
Странно, но все ведет к такому итогу.
Только умей пользоваться всем инструментарием, думай и плати за токены
Cododel.dev | Александр
Как AI Агенты меняют разработку уже сейчас? Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция. Работает прекрасно! Но медленно. Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции…
Вайбкодинг может быть почти бесплатным, но ресурсоемким.
И я не про локальные LLM
Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута
Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру 🫨
Приличный вклад делает запущенный dev server nextjs, ребилдящий часть модулей каждый мелкий edit от агента.
Особенно, если прогнать через один чат около 540млн токенов (IO + IO Cache + Output) по курсору.
На Grok-code-1-fast это сейчас бесплатно, а за деньги стоило бы 1.53$
Я же говорил, что он почти бесплатный?))
И я не про локальные LLM
Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута
Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру 🫨
Приличный вклад делает запущенный dev server nextjs, ребилдящий часть модулей каждый мелкий edit от агента.
Особенно, если прогнать через один чат около 540млн токенов (IO + IO Cache + Output) по курсору.
На Grok-code-1-fast это сейчас бесплатно, а за деньги стоило бы 1.53$
Я же говорил, что он почти бесплатный?))
К слову Summarize - не дает бесконечный контекст.
Есть какие-то критерии, которые ограничивают бесконечное рекурсировное сжатие контекста, так что в какой-то момент/summarizeне будет снижать загрузку контекста ниже 40% на 200к окне при повторных вызовах, что приводит все равно к переполнению контекста, а следование правилам ухудшается, так например у меня строгий запрет типизации any снова начинает нарушаться моделью.
Но не смотря на это - очень сильно расширяет возможности.
🗿2
Cododel.dev | Александр
Вайбкодинг может быть почти бесплатным, но ресурсоемким. И я не про локальные LLM Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру…
Не, ну чо
Я сейчас смог исправить ошибку кривого бэка, валидации и фронта + их несогласованности
Обьяснив модели grok-code-fast-1 — что он в монорепо, что есть shared schema с трансформацией snakeCase -> camelCase и обратно, что логи бэка можно смотреть по docker compose logs directus | head, что можно временно покрыть логами эндпоинт
И самое важное - что не надо прогонять через playwright mcp в браузере каждый раз проверку формы, а можно извлечь запрос, просто через curl его кидать в бэк, а на бэке через directus-mcp можно проверить соответствие данных, и эффект
Он просто взял и за минут 20 вместе со мной, с планированием - просто решил проблему, которую я бы решал приличным когнитивным усилием, и как минимум те-же полчаса.
Вместо этого время было проведено за параллельным просмотром ютубчика😀
Я главный противник чистого вайбкодинга, но основной тейк в небезопасных, кривых решениях.
Но как выше уже упомянул, в целом это реально решается прописыванием правил, ревью, направлением модели в нужном направлении и настройкой линтера, проработанным проектированием архитектуры.
---
Честно, хз сколько это стоило бы на claude, gemini, gpt — думаю за день потратил бы спокойно 30-50$
Но мне реально очень нравится как grok-code-fast-1 справляется, эт прям чудо, если ему давать четкие задачи с достаточным контекстом, самому думать. И иногда можно ревьюить или планировать через claude 4.5 thinking, что обходится тоже очень дешево, тк чтение дешевое, за write tokens - только на thinking и сам фактический план. В целом и Opus тут может быть уместен.
Как выведут planning из beta - опробую на Opus попланировать🤔
Я сейчас смог исправить ошибку кривого бэка, валидации и фронта + их несогласованности
Обьяснив модели grok-code-fast-1 — что он в монорепо, что есть shared schema с трансформацией snakeCase -> camelCase и обратно, что логи бэка можно смотреть по docker compose logs directus | head, что можно временно покрыть логами эндпоинт
И самое важное - что не надо прогонять через playwright mcp в браузере каждый раз проверку формы, а можно извлечь запрос, просто через curl его кидать в бэк, а на бэке через directus-mcp можно проверить соответствие данных, и эффект
Он просто взял и за минут 20 вместе со мной, с планированием - просто решил проблему, которую я бы решал приличным когнитивным усилием, и как минимум те-же полчаса.
Вместо этого время было проведено за параллельным просмотром ютубчика
Ну вот прям на сто-оо-олько оно облегчает работу, если разобраться??🫢
Я главный противник чистого вайбкодинга, но основной тейк в небезопасных, кривых решениях.
Но как выше уже упомянул, в целом это реально решается прописыванием правил, ревью, направлением модели в нужном направлении и настройкой линтера, проработанным проектированием архитектуры.
---
Честно, хз сколько это стоило бы на claude, gemini, gpt — думаю за день потратил бы спокойно 30-50$
Но мне реально очень нравится как grok-code-fast-1 справляется, эт прям чудо, если ему давать четкие задачи с достаточным контекстом, самому думать. И иногда можно ревьюить или планировать через claude 4.5 thinking, что обходится тоже очень дешево, тк чтение дешевое, за write tokens - только на thinking и сам фактический план. В целом и Opus тут может быть уместен.
Как выведут planning из beta - опробую на Opus попланировать
Please open Telegram to view this post
VIEW IN TELEGRAM
Cododel.dev | Александр
R — Refactoring Оно бесплатно кстати, included в лимиты подписки 1070 запросов разных, больше всего на grok-code-fast-1, много на gemini-2.5-pro, claude-sonnet-4, чуть меньше ноунейм code-supernova и немного claude-opus-4.1 (вопрос с типизацией импортов…
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1
Cododel.dev | Александр
С каких пор у GPT лимиты такие огромные? Я нагуглил что голосовой чат у него 10 минут в день на бесплатном тарифе, но я сегодня как минимум час в нём провел, может полтора 🫣 Там ещё в конце два deep research параллельных, тк думал что один получилось остановить…
Тут я кстати понял откуда лимиты
В голосовом режиме обычно используют легкие модели, скорее всего GPT-5-mini
А она безлимитная
Другой вопрос, что Advanced Voice mode стал анлимит
В голосовом режиме обычно используют легкие модели, скорее всего GPT-5-mini
А она безлимитная
Другой вопрос, что Advanced Voice mode стал анлимит
Cododel.dev | Александр
Как AI Агенты меняют разработку уже сейчас? Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция. Работает прекрасно! Но медленно. Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции…
Cursor официально релизнули Plan Mode😀
Недавно писал о нем пару постов, опробовав в beta
(Он все так же в бэте, но критичные баги должны были пофиксить)
Please open Telegram to view this post
VIEW IN TELEGRAM
Cododel.dev | Александр
Кажется придумал typesafe для directus... Убираем полностью генерацию типов специфичную для Directus тк пользы от неё мало. Делаем schema пакет в монорепо В нем ставим drizzle-orm + drizzle-kit + drizzle-zod + dotenv + nunjucks + tsx Делаем команду для npm…
Решение себя показало очень хорошо.
Его фиксирую.
Для Directus действительно удобно использовать Drizzle ORM с расширением для генерации Zod схем.
Но с парой моих доработок в виде отдельной cli утилиты с организацией в сгенерированных схем, и упаковкой в пакет, трансформацией данных - вообще прекрасно!
И генерация типов для SDK в целом даже и не нужна больше, даже для автокомплитов, тк если все ответы валидировать - типизация будет строгой.
Не хватает пока только сделать какой то хелпер wrapper для перехвата и классификации ошибок, над этим еще подумаю, прежде чем внедрять в alto, но рабочее решение у меня уже лежит.
Его фиксирую.
Для Directus действительно удобно использовать Drizzle ORM с расширением для генерации Zod схем.
Но с парой моих доработок в виде отдельной cli утилиты с организацией в сгенерированных схем, и упаковкой в пакет, трансформацией данных - вообще прекрасно!
И генерация типов для SDK в целом даже и не нужна больше, даже для автокомплитов, тк если все ответы валидировать - типизация будет строгой.
Не хватает пока только сделать какой то хелпер wrapper для перехвата и классификации ошибок, над этим еще подумаю, прежде чем внедрять в alto, но рабочее решение у меня уже лежит.
Cododel.dev | Александр
AppWrite, SupaBase, Directus, Strapi - не понравились ЧЕТЫРЕ РАЗА! — ПЕРЕПИСЫВАЛ... проект! AppWrite Есть всё, кроме массового импорта. Мощнейшая вещь. Но настройка его сложна для новичка, и жрет о 2-4гб оперативки на сервере. SupaBase Крутая штука, не допёр…
Пнули старый пост)
Дополню, что у Livewire есть SSR, а весь фронт пишется на PHP + AlpineJS, а так же добавили Laravel Volt, дающий SFC (Single FIle Components) экспириенс
Да и в целом при наличии полноценного бекенда оно скорее на Astro похоже, но на PHP по DX
Дополню, что у Livewire есть SSR, а весь фронт пишется на PHP + AlpineJS, а так же добавили Laravel Volt, дающий SFC (Single FIle Components) экспириенс
Да и в целом при наличии полноценного бекенда оно скорее на Astro похоже, но на PHP по DX
Но если уж и брать PHP Laravel - для админки я б сразу FilamentPHP рассматривал, если речь не о супер кастомном решении (не думаю что часто у вас такое)
А Livewire для личных кабинетов подойдет неплохо, главное учитывать стоит, что с настоящим хайлоадом не знаком, и не беру его в счет, хз как там оно себя показать может, тк вся фронтовая логика исполняется на сервере.