Добавили ручное управление суммаризацией контекста. Удобно.
#Cursor
Был контекст заполнен на 60%, суммаризирован до 11%
Может быть полезно для длинных цепочек разработки без потери основной сути событий.
https://cursor.com/docs/agent/chat/summarization
#Cursor
Был контекст заполнен на 60%, суммаризирован до 11%
Может быть полезно для длинных цепочек разработки без потери основной сути событий.
https://cursor.com/docs/agent/chat/summarization
👍3
Cododel.dev | Александр
Добавили ручное управление суммаризацией контекста. Удобно. #Cursor Был контекст заполнен на 60%, суммаризирован до 11% Может быть полезно для длинных цепочек разработки без потери основной сути событий. https://cursor.com/docs/agent/chat/summarization
Интересно, чей гепард потерялся?
Судя по ценам это обновленный Opus со скидкой 🤫
Судя по ценам это обновленный Opus со скидкой 🤫
😢1
Cododel.dev | Александр
И еще, кое-что, интересное Про это анонс не видел, но судя по всему Headless Browser
Как AI Агенты меняют разработку уже сейчас?
Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция.
Работает прекрасно!
Но медленно.
Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции в браузере.
И тратит прилично контекста.
Предполагаю, если взять модельку подороже, с контекстом побольше — может получиться ручной QA Агент.
Поставил на тестирование - ушел пить чай. (или параллельно разбирать другие задачи)
На самом деле большинство задач в вебе, в ближайшее время будут полностью решаемы через агентов, остается только платить за токены.
Такие кейсы становятся довольно популярны.
В моем случае - ручная суммаризация контекста и режим планирования очень подталкивают к такому виду работы. Это действительно очень упрощает и ускоряет работу, моя задача становится более архитектурно-проектировочной, по большей мере печатать код - становится не выгодно.
В интеграции Playwright + Docs + MCP к бекенду с полным доступом (как у directus) + монорепозиторий (возможно с workspaces тоже работать может)
Получается так, что действительно остается только давать задачи, ревьюить и платить за токены.
Уверен, что главное, и самое выгодное вложение времени - это профессионально освоить работу с ИИ Агентами, а не классическое изучение языков программирования и фреймворков. (Оно само приложится со временем, во время работы, либо ИИ очень ускорит изучение)
---
Посмотрим, на сколько применим подход к реальным продуктовым задачам.
Сейчас я протестировал подход с grok-code-fast-1 на рефакторинге говнокода - в продуманный архитектурно проект.
Оно работает, и больше не имеет проблем с размером контекста, точностью и непредсказуемых действий ИИ - даже с относительно дефолтными настройками, без сис промптов.
Достаточно прописать строгие правила cursorrules в проекте, настроить линтер и тайпчекинг, использовать plan mode и чейнить задачи близкие по смыслу, последовательно, через summary.
Еще три года назад - я был уверен, что AI - пузырь, и ничего полезнее автокомплита или протейших команд, по типу convert to camel case оно не даст
Сейчас я плавно поворачиваюсь к противоположному мнению.
Всё еще спецефичные задачи, качественные решения, ревью — будут решать разработчики, но эти же разработчики скорее всего будут иметь в разы больший план эффективности.
Самые прошаренные, кто освоит параллельных агентов, и сможет это всё организовать - думаю сможет вполне до x10 раз больше задач выполнять 🤔
Странно, но все ведет к такому итогу.
Только умей пользоваться всем инструментарием, думай и плати за токены
Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция.
Работает прекрасно!
Но медленно.
Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции в браузере.
И тратит прилично контекста.
Предполагаю, если взять модельку подороже, с контекстом побольше — может получиться ручной QA Агент.
Поставил на тестирование - ушел пить чай. (или параллельно разбирать другие задачи)
На самом деле большинство задач в вебе, в ближайшее время будут полностью решаемы через агентов, остается только платить за токены.
Такие кейсы становятся довольно популярны.
В моем случае - ручная суммаризация контекста и режим планирования очень подталкивают к такому виду работы. Это действительно очень упрощает и ускоряет работу, моя задача становится более архитектурно-проектировочной, по большей мере печатать код - становится не выгодно.
В интеграции Playwright + Docs + MCP к бекенду с полным доступом (как у directus) + монорепозиторий (возможно с workspaces тоже работать может)
Получается так, что действительно остается только давать задачи, ревьюить и платить за токены.
Уверен, что главное, и самое выгодное вложение времени - это профессионально освоить работу с ИИ Агентами, а не классическое изучение языков программирования и фреймворков. (Оно само приложится со временем, во время работы, либо ИИ очень ускорит изучение)
---
Посмотрим, на сколько применим подход к реальным продуктовым задачам.
Сейчас я протестировал подход с grok-code-fast-1 на рефакторинге говнокода - в продуманный архитектурно проект.
Оно работает, и больше не имеет проблем с размером контекста, точностью и непредсказуемых действий ИИ - даже с относительно дефолтными настройками, без сис промптов.
Достаточно прописать строгие правила cursorrules в проекте, настроить линтер и тайпчекинг, использовать plan mode и чейнить задачи близкие по смыслу, последовательно, через summary.
Еще три года назад - я был уверен, что AI - пузырь, и ничего полезнее автокомплита или протейших команд, по типу convert to camel case оно не даст
Сейчас я плавно поворачиваюсь к противоположному мнению.
Всё еще спецефичные задачи, качественные решения, ревью — будут решать разработчики, но эти же разработчики скорее всего будут иметь в разы больший план эффективности.
Самые прошаренные, кто освоит параллельных агентов, и сможет это всё организовать - думаю сможет вполне до x10 раз больше задач выполнять 🤔
Странно, но все ведет к такому итогу.
Только умей пользоваться всем инструментарием, думай и плати за токены
Cododel.dev | Александр
Как AI Агенты меняют разработку уже сейчас? Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция. Работает прекрасно! Но медленно. Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции…
Вайбкодинг может быть почти бесплатным, но ресурсоемким.
И я не про локальные LLM
Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута
Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру 🫨
Приличный вклад делает запущенный dev server nextjs, ребилдящий часть модулей каждый мелкий edit от агента.
Особенно, если прогнать через один чат около 540млн токенов (IO + IO Cache + Output) по курсору.
На Grok-code-1-fast это сейчас бесплатно, а за деньги стоило бы 1.53$
Я же говорил, что он почти бесплатный?))
И я не про локальные LLM
Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута
Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру 🫨
Приличный вклад делает запущенный dev server nextjs, ребилдящий часть модулей каждый мелкий edit от агента.
Особенно, если прогнать через один чат около 540млн токенов (IO + IO Cache + Output) по курсору.
На Grok-code-1-fast это сейчас бесплатно, а за деньги стоило бы 1.53$
Я же говорил, что он почти бесплатный?))
К слову Summarize - не дает бесконечный контекст.
Есть какие-то критерии, которые ограничивают бесконечное рекурсировное сжатие контекста, так что в какой-то момент/summarizeне будет снижать загрузку контекста ниже 40% на 200к окне при повторных вызовах, что приводит все равно к переполнению контекста, а следование правилам ухудшается, так например у меня строгий запрет типизации any снова начинает нарушаться моделью.
Но не смотря на это - очень сильно расширяет возможности.
🗿2
Cododel.dev | Александр
Вайбкодинг может быть почти бесплатным, но ресурсоемким. И я не про локальные LLM Последнее время кстати начал замечать, как Cursor очень сильно жрет ресурсы ноута Он не стесняется лагать на M4 Pro, и даже заставляет раскрутить куллер и подогреть клавиатуру…
Не, ну чо
Я сейчас смог исправить ошибку кривого бэка, валидации и фронта + их несогласованности
Обьяснив модели grok-code-fast-1 — что он в монорепо, что есть shared schema с трансформацией snakeCase -> camelCase и обратно, что логи бэка можно смотреть по docker compose logs directus | head, что можно временно покрыть логами эндпоинт
И самое важное - что не надо прогонять через playwright mcp в браузере каждый раз проверку формы, а можно извлечь запрос, просто через curl его кидать в бэк, а на бэке через directus-mcp можно проверить соответствие данных, и эффект
Он просто взял и за минут 20 вместе со мной, с планированием - просто решил проблему, которую я бы решал приличным когнитивным усилием, и как минимум те-же полчаса.
Вместо этого время было проведено за параллельным просмотром ютубчика😀
Я главный противник чистого вайбкодинга, но основной тейк в небезопасных, кривых решениях.
Но как выше уже упомянул, в целом это реально решается прописыванием правил, ревью, направлением модели в нужном направлении и настройкой линтера, проработанным проектированием архитектуры.
---
Честно, хз сколько это стоило бы на claude, gemini, gpt — думаю за день потратил бы спокойно 30-50$
Но мне реально очень нравится как grok-code-fast-1 справляется, эт прям чудо, если ему давать четкие задачи с достаточным контекстом, самому думать. И иногда можно ревьюить или планировать через claude 4.5 thinking, что обходится тоже очень дешево, тк чтение дешевое, за write tokens - только на thinking и сам фактический план. В целом и Opus тут может быть уместен.
Как выведут planning из beta - опробую на Opus попланировать🤔
Я сейчас смог исправить ошибку кривого бэка, валидации и фронта + их несогласованности
Обьяснив модели grok-code-fast-1 — что он в монорепо, что есть shared schema с трансформацией snakeCase -> camelCase и обратно, что логи бэка можно смотреть по docker compose logs directus | head, что можно временно покрыть логами эндпоинт
И самое важное - что не надо прогонять через playwright mcp в браузере каждый раз проверку формы, а можно извлечь запрос, просто через curl его кидать в бэк, а на бэке через directus-mcp можно проверить соответствие данных, и эффект
Он просто взял и за минут 20 вместе со мной, с планированием - просто решил проблему, которую я бы решал приличным когнитивным усилием, и как минимум те-же полчаса.
Вместо этого время было проведено за параллельным просмотром ютубчика
Ну вот прям на сто-оо-олько оно облегчает работу, если разобраться??🫢
Я главный противник чистого вайбкодинга, но основной тейк в небезопасных, кривых решениях.
Но как выше уже упомянул, в целом это реально решается прописыванием правил, ревью, направлением модели в нужном направлении и настройкой линтера, проработанным проектированием архитектуры.
---
Честно, хз сколько это стоило бы на claude, gemini, gpt — думаю за день потратил бы спокойно 30-50$
Но мне реально очень нравится как grok-code-fast-1 справляется, эт прям чудо, если ему давать четкие задачи с достаточным контекстом, самому думать. И иногда можно ревьюить или планировать через claude 4.5 thinking, что обходится тоже очень дешево, тк чтение дешевое, за write tokens - только на thinking и сам фактический план. В целом и Opus тут может быть уместен.
Как выведут planning из beta - опробую на Opus попланировать
Please open Telegram to view this post
VIEW IN TELEGRAM
Cododel.dev | Александр
R — Refactoring Оно бесплатно кстати, included в лимиты подписки 1070 запросов разных, больше всего на grok-code-fast-1, много на gemini-2.5-pro, claude-sonnet-4, чуть меньше ноунейм code-supernova и немного claude-opus-4.1 (вопрос с типизацией импортов…
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1
Cododel.dev | Александр
С каких пор у GPT лимиты такие огромные? Я нагуглил что голосовой чат у него 10 минут в день на бесплатном тарифе, но я сегодня как минимум час в нём провел, может полтора 🫣 Там ещё в конце два deep research параллельных, тк думал что один получилось остановить…
Тут я кстати понял откуда лимиты
В голосовом режиме обычно используют легкие модели, скорее всего GPT-5-mini
А она безлимитная
Другой вопрос, что Advanced Voice mode стал анлимит
В голосовом режиме обычно используют легкие модели, скорее всего GPT-5-mini
А она безлимитная
Другой вопрос, что Advanced Voice mode стал анлимит
Cododel.dev | Александр
Как AI Агенты меняют разработку уже сейчас? Добавленный browser в cursor - cложно показать скринами, но это полноценная playwright интеграция. Работает прекрасно! Но медленно. Суперскоростной grok-code-fast-1 имеет оверхед около 3сек на вызов каждой операции…
Cursor официально релизнули Plan Mode😀
Недавно писал о нем пару постов, опробовав в beta
(Он все так же в бэте, но критичные баги должны были пофиксить)
Please open Telegram to view this post
VIEW IN TELEGRAM
Cododel.dev | Александр
Кажется придумал typesafe для directus... Убираем полностью генерацию типов специфичную для Directus тк пользы от неё мало. Делаем schema пакет в монорепо В нем ставим drizzle-orm + drizzle-kit + drizzle-zod + dotenv + nunjucks + tsx Делаем команду для npm…
Решение себя показало очень хорошо.
Его фиксирую.
Для Directus действительно удобно использовать Drizzle ORM с расширением для генерации Zod схем.
Но с парой моих доработок в виде отдельной cli утилиты с организацией в сгенерированных схем, и упаковкой в пакет, трансформацией данных - вообще прекрасно!
И генерация типов для SDK в целом даже и не нужна больше, даже для автокомплитов, тк если все ответы валидировать - типизация будет строгой.
Не хватает пока только сделать какой то хелпер wrapper для перехвата и классификации ошибок, над этим еще подумаю, прежде чем внедрять в alto, но рабочее решение у меня уже лежит.
Его фиксирую.
Для Directus действительно удобно использовать Drizzle ORM с расширением для генерации Zod схем.
Но с парой моих доработок в виде отдельной cli утилиты с организацией в сгенерированных схем, и упаковкой в пакет, трансформацией данных - вообще прекрасно!
И генерация типов для SDK в целом даже и не нужна больше, даже для автокомплитов, тк если все ответы валидировать - типизация будет строгой.
Не хватает пока только сделать какой то хелпер wrapper для перехвата и классификации ошибок, над этим еще подумаю, прежде чем внедрять в alto, но рабочее решение у меня уже лежит.
Cododel.dev | Александр
AppWrite, SupaBase, Directus, Strapi - не понравились ЧЕТЫРЕ РАЗА! — ПЕРЕПИСЫВАЛ... проект! AppWrite Есть всё, кроме массового импорта. Мощнейшая вещь. Но настройка его сложна для новичка, и жрет о 2-4гб оперативки на сервере. SupaBase Крутая штука, не допёр…
Пнули старый пост)
Дополню, что у Livewire есть SSR, а весь фронт пишется на PHP + AlpineJS, а так же добавили Laravel Volt, дающий SFC (Single FIle Components) экспириенс
Да и в целом при наличии полноценного бекенда оно скорее на Astro похоже, но на PHP по DX
Дополню, что у Livewire есть SSR, а весь фронт пишется на PHP + AlpineJS, а так же добавили Laravel Volt, дающий SFC (Single FIle Components) экспириенс
Да и в целом при наличии полноценного бекенда оно скорее на Astro похоже, но на PHP по DX
Но если уж и брать PHP Laravel - для админки я б сразу FilamentPHP рассматривал, если речь не о супер кастомном решении (не думаю что часто у вас такое)
А Livewire для личных кабинетов подойдет неплохо, главное учитывать стоит, что с настоящим хайлоадом не знаком, и не беру его в счет, хз как там оно себя показать может, тк вся фронтовая логика исполняется на сервере.
Cododel.dev | Александр
Нам нужен Codex Of Cododelia?
В общем я приступаю к описанию конвенции.
зря идею засрали на начале. да и актива маловато.
Пока приоритетное направление - FullStack Typescrpt с TypeSafety First подходом.
После набора команды под это направление - освежу знания в Python, будет зафиксирована конвенция по нему
И в последнюю очередь PHP
Это мои стеки, в них имею опыт, взвесив все "за" и "против" - пришел к заключению, что без документации невозможны качественный кодревью, синхронизация разработчиков, и определеность.
Лично я даже без правил - всегда в поисках лучшего решения.
А с некоторыми смягчениями - правила дают четкое решение и возможность не отвлекаться от рабочего процесса.
зря идею засрали на начале. да и актива маловато.
Пока приоритетное направление - FullStack Typescrpt с TypeSafety First подходом.
После набора команды под это направление - освежу знания в Python, будет зафиксирована конвенция по нему
И в последнюю очередь PHP
Это мои стеки, в них имею опыт, взвесив все "за" и "против" - пришел к заключению, что без документации невозможны качественный кодревью, синхронизация разработчиков, и определеность.
Лично я даже без правил - всегда в поисках лучшего решения.
А с некоторыми смягчениями - правила дают четкое решение и возможность не отвлекаться от рабочего процесса.
👍1
Cododel.dev | Александр
В общем я приступаю к описанию конвенции. зря идею засрали на начале. да и актива маловато. Пока приоритетное направление - FullStack Typescrpt с TypeSafety First подходом. После набора команды под это направление - освежу знания в Python, будет зафиксирована…
Media is too big
VIEW IN TELEGRAM
Поехали, оплатил Claude подписку, пора снова собрать знания в кучку.
Пальцы устали конечно столько писать активно полтора часа 🫠
Cododel.dev | Александр
Поехали, оплатил Claude подписку, пора снова собрать знания в кучку. Пальцы устали конечно столько писать активно полтора часа 🫠
Чот дождь не кончается, ночь, кофейни не работают, спать охота.
Пойду дрип заварю, сутра эспрессо хапну, днем пару капучини, так и вечер придет, на выходные я в спячку.😴
Обещают только после 10 утра что дождь кончится, а я на мопеде😔
Пойду дрип заварю, сутра эспрессо хапну, днем пару капучини, так и вечер придет, на выходные я в спячку.
Обещают только после 10 утра что дождь кончится, а я на мопеде
UPD. Дрипы кончились, ссобой больше нет.
Ночь будет сложной...
Please open Telegram to view this post
VIEW IN TELEGRAM
Cododel.dev | Александр
Камыши негодуют.
Камыши кайфуют 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM