Forwarded from Данные по-большому
А теперь самый интересный fun fact, с которого у меня люто горит жопа: если раньше ты мог втыкать в задачу неделю, то с вайбкодингом растут не только твои возможности, но и твои проблемы. Растут требования к числу закрытых тасок, а ещё ты вроде начинаешь разбираться в чужом коде, а потом внезапно начинаешь понимать что это сгенерированный код. Просишь нейронку сделать на его основе новый код, а она выдает говно. Пытаешься сам писать, но так как новые модели пишут почти сеньорский питонячий бэкэндерский код, то мероприятие по самостоятельному написанию теряет смысл.
В итоге все придет к тому что весь код будет сгенерированным, а сотрудники будут рубить промты, и самый логически мыслящий сотрудник с лучшими навыками запросов к нужной нейронке выдачи лучший код. Чисто петля обратной связи с усложнением как самого кода, так и требований к скорости его понимания. По итогу понимание кода становится существенно хуже как в силу его усложнения, так и в силу KPI по скорости закрытия тасок. Человек перестает понимать что происходит в коде и не успевает глубоко погрузиться в процессы. И рано или поздно с ростом количества сгенерированного кода понимание закончится у большинства сотрудников, даже у лидов - понимать будут только машины.
Так что вайбкодинг - это с некоторой стороны немного печально.
В итоге все придет к тому что весь код будет сгенерированным, а сотрудники будут рубить промты, и самый логически мыслящий сотрудник с лучшими навыками запросов к нужной нейронке выдачи лучший код. Чисто петля обратной связи с усложнением как самого кода, так и требований к скорости его понимания. По итогу понимание кода становится существенно хуже как в силу его усложнения, так и в силу KPI по скорости закрытия тасок. Человек перестает понимать что происходит в коде и не успевает глубоко погрузиться в процессы. И рано или поздно с ростом количества сгенерированного кода понимание закончится у большинства сотрудников, даже у лидов - понимать будут только машины.
Так что вайбкодинг - это с некоторой стороны немного печально.
Forwarded from Данные по-большому
💸 BigTech удваивает ставки на ИИ
- В 2025 компании потратят $345 млрд на AI-инфраструктуру - рост в 2,5 раза за два года.
- Для сравнения: мировой телеком тратит ~$1,5 трлн.
- Проект OpenAI Stargate ($500 млрд к 2029) = ~25% от прогнозируемых $2 трлн при росте в 58% год за годом.
#новости
- В 2025 компании потратят $345 млрд на AI-инфраструктуру - рост в 2,5 раза за два года.
- Для сравнения: мировой телеком тратит ~$1,5 трлн.
- Проект OpenAI Stargate ($500 млрд к 2029) = ~25% от прогнозируемых $2 трлн при росте в 58% год за годом.
#новости
Forwarded from Данные по-большому
Forwarded from Технозаметки Малышева
🤖 Google запускает 5-дневный интенсив по ИИ-агентам
После успеха GenAI курса (420К+ участников) Google поднимает планку и теперь выпускает курс только по агентам. От архитектур до продакшена за 5 дней.
Программа:
День 1: Агентные архитектуры vs традиционные LLM приложения
День 2: MCP (Model Context Protocol) — стандарт для взаимодействия с инструментами
День 3: Контекст-инжиниринг — кратко/долгосрочная память для мультитурновых задач
День 4: Observability, логирование, метрики — как строить надёжные системы
День 5: Agent2Agent (A2A) Protocol — мульти-агентные системы в продакшене
Формат обучения:
📚 Ежедневные задания (1-2 часа) — whitepapers + codelabs + подкасты от NotebookLM
💬 Discord канал для обсуждений с экспертами Google
🎥 Лайвстримы 45-60 мин с авторами курса + AMA сессии
🏆 Capstone проект на ADK (Agent Development Kit) — реальное портфолио + призы
Требования:
Python + базовые AI концепты + Google AI Studio (доступен в ограниченных регионах) + Kaggle аккаунт с верифицированным телефоном.
Бесплатно, записи будут доступны после курса. Топ-10 capstone проектов получат swag + продвижение в соцсетях Google.
Записываемся. За 5 дней влетаем в агентостроение.
#Google #Kaggle #обучение
———
@tsingular
После успеха GenAI курса (420К+ участников) Google поднимает планку и теперь выпускает курс только по агентам. От архитектур до продакшена за 5 дней.
Программа:
День 1: Агентные архитектуры vs традиционные LLM приложения
День 2: MCP (Model Context Protocol) — стандарт для взаимодействия с инструментами
День 3: Контекст-инжиниринг — кратко/долгосрочная память для мультитурновых задач
День 4: Observability, логирование, метрики — как строить надёжные системы
День 5: Agent2Agent (A2A) Protocol — мульти-агентные системы в продакшене
Формат обучения:
📚 Ежедневные задания (1-2 часа) — whitepapers + codelabs + подкасты от NotebookLM
💬 Discord канал для обсуждений с экспертами Google
🎥 Лайвстримы 45-60 мин с авторами курса + AMA сессии
🏆 Capstone проект на ADK (Agent Development Kit) — реальное портфолио + призы
Требования:
Python + базовые AI концепты + Google AI Studio (доступен в ограниченных регионах) + Kaggle аккаунт с верифицированным телефоном.
Бесплатно, записи будут доступны после курса. Топ-10 capstone проектов получат swag + продвижение в соцсетях Google.
Записываемся. За 5 дней влетаем в агентостроение.
#Google #Kaggle #обучение
———
@tsingular
Forwarded from Технозаметки Малышева
Prompt Packs от OpenAI Academy
OpenAI выпустила Prompt Packs - готовые наборы промптов для различных сценариев.
Полезно не только для обучения,- разные промпты в одинаковых задачах могут давать разницу результатов от 8.8% до 62.9% на одинаковой модели.
Парсим, загоняем в RAG по задачам,- профит :)
Ну или просто учимся сами.
#PromptPacks #OpenAI #промпты #обучение
------
@tsingular
OpenAI выпустила Prompt Packs - готовые наборы промптов для различных сценариев.
Полезно не только для обучения,- разные промпты в одинаковых задачах могут давать разницу результатов от 8.8% до 62.9% на одинаковой модели.
Парсим, загоняем в RAG по задачам,- профит :)
Ну или просто учимся сами.
#PromptPacks #OpenAI #промпты #обучение
------
@tsingular
Forwarded from Технозаметки Малышева
Cursor запустил свою платформу для обучения.
Пока база, - про модели, галлюцинации, токены, контекст, инструменты и агентов.
Дальше в планах, - размышления, планирование, создание и работа с агентами, отладка и безопасность.
Осталось еще хостинг моделей и MCP хаб добавить и будет классический современный набор.
#Cursor #обучение
———
@tsingular
Пока база, - про модели, галлюцинации, токены, контекст, инструменты и агентов.
Дальше в планах, - размышления, планирование, создание и работа с агентами, отладка и безопасность.
Осталось еще хостинг моделей и MCP хаб добавить и будет классический современный набор.
#Cursor #обучение
———
@tsingular
Forwarded from Технозаметки Малышева
Forwarded from Технозаметки Малышева
Forwarded from Data Secrets
Теперь у Anthropic снова SOTA модель для кодинга. Модель уверенно обгоняет GPT-5 на всех бенчмарках по программированию, на остальных идут почти вровень.
Также обновили Claude Code (ура!)
– Добавили новое расширения для VS Code
– Обновили интерфейс терминала
– Залили команду для быстрого возврата к предыдущему чекпоинту (или на несколько шагов назад) и команду для быстрого перехода к расширенному ризонингу
– Теперь агент прямо в терминале сможет создавать файлы, таблицы и диаграммы на основе ваших данных
https://www.anthropic.com/news/claude-sonnet-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Также Anthropic выпустили research preview LLM-операционки
Что-то подобное уже было у Google (мы писали тут). Идея та же: LLM пишет ПО на лету, по вашему запросу.
Тыкаете на какое-то приложение – оно поднимается с нуля без заготовленного заранее кода. Открываете файл – содержимое генерируется тут же. Пример на видео.
Это, конечно, не серьезный продукт, а скорее просто продвинутая демонстрация способностей и реклама для нового Sonnet 4.5.
Поиграться, правда, получится, только если вы пользователь тарифа Max, и только в течение 5 дней.
https://claude.ai/imagine
Что-то подобное уже было у Google (мы писали тут). Идея та же: LLM пишет ПО на лету, по вашему запросу.
Тыкаете на какое-то приложение – оно поднимается с нуля без заготовленного заранее кода. Открываете файл – содержимое генерируется тут же. Пример на видео.
Это, конечно, не серьезный продукт, а скорее просто продвинутая демонстрация способностей и реклама для нового Sonnet 4.5.
Поиграться, правда, получится, только если вы пользователь тарифа Max, и только в течение 5 дней.
https://claude.ai/imagine
Forwarded from Сиолошная
Чуть более полугода назад у нас с Валерой был стрим про высказывание CEO Anthropic, мол, через полгода модели будут писать 90% кода. На стриме, как мне кажется, я очень хорошо описал некоторые из важных оговорок при оценке подобного рода высказываний:
— есть разница «могут» и «делают»
— это может быть применимо к определённым языкам программирования, а не всем
— часть подходов к разработке придётся пересмотреть, чтобы было проще интегрировать ИИ-инструменты
— это может быть применимо к свежим проектам, а не 15+ годичной давности
— это может быть применимо к проектам до определённого размера, а не кодовой базе всего Фейсбука, например
Сами Anthropic сейчас говорят, что Claude Code написан их же моделями на 90%.
Большинство заявлений о том, что «90% кода написано ИИ», исходят от разработчиков моделей / продавцов ИИ-инструментов, поэтому многие (не я) их отметают.
Aider, АИ-ассистент для программирования с открытым исходным кодом, который я как раз упоминал на стриме, от релиза к релизу то и дело перешагивает планки 75-80%. Неплохо!
И вот наткнулся на блог Armin Ronacher, создателя Flask, Jinja, Click и других крупных популярны проектов. Цитаты из поста (но рекомендую прочитать оригинал целиком):
— Что касается инфраструктурного компонента, который я начал разрабатывать в своей новой компании, то, пожалуй, больше 90% моего кода написано с помощью ИИ. Я не хочу вас убеждать — просто поделюсь тем, что узнал. Отчасти потому, что я подошел к этому проекту иначе, чем в своих первых экспериментах.
— Сервис написан на Go с небольшим количеством зависимостей. Сейчас в нём около 40 000 строк, включая Go, YAML, Pulumi и несколько специальных SDK-прослоек.
— Я установил высокую планку, особенно в плане надёжности работы. Я уже работал с подобными системами и знал, чего хочу.
— Я уделяю пристальное внимание основам архитектуры системы, структуре кода и взаимодействию с базами данных. Я невероятно самоуверен. Поэтому есть вещи, которые я не позволяю ИИ делать. Я начинал проект традиционным способом: проектирование системы, схема, архитектура. На этом этапе я не позволяю ИИ писать с нуля, а просто включаю его в свой цикл рассуждений. Это помогает мне видеть типовые ошибки, даже если я не доверяю LLM.
— Для кода, сгенерированного и поддерживаемого ИИ, я теперь получаю стек, который выглядит примерно так, как мне часто хотелось, но было слишком сложно сделать вручную.
— Не могу не подчеркнуть, насколько плохим может быть код агентов, если не быть осторожным. Хотя они понимают архитектуру системы и то, как что-то построить, они не могут смотреть на всю картину целиком. Вам постоянно нужно вносить правильную информацию в контекст.
— Легко создавать системы, которые кажутся правильными, но при использовании ведут себя неправильно. Вот пример: я попросил его создать ограничитель лимитов. Он «работал», но не имел джиттера и использовал неудачные решения по хранению данных. Легко исправить, если знаешь ограничители лимитов, но опасно, если не знаешь.
— Для меня это дошло до того, что я уже не представляю, как можно работать по-другому. Да, я, вероятно, смог бы обойтись без ИИ. Но я бы построил другую систему, потому что мне пришлось бы идти на другие компромиссы. Такой подход открывает возможности, которые я обычно пропускаю или откладываю.
— Исследование + разработка вместо «исследование, а разработка потом»: на некоторые вещи, на понимание которых у меня ушел бы день или два, теперь уходит 10–15 минут.
— Пишет ли ИИ 90% кода? Не знаю. Знаю только, что для меня в этом проекте ответ уже точно «да». В то же время, для меня ИИ не владеет кодом. Я всё равно проверяю каждую строчку, формирую архитектуру и несу ответственность за то, как всё это работает.
===
(обратите внимание, что ни о каком вайб-кодинге речи не идёт: только вдумчивая работа, где, как мне кажется, по сравнению с обычным процессом мозги приходится напрягать даже больше — пока LLM работает, ты думаешь)
— есть разница «могут» и «делают»
— это может быть применимо к определённым языкам программирования, а не всем
— часть подходов к разработке придётся пересмотреть, чтобы было проще интегрировать ИИ-инструменты
— это может быть применимо к свежим проектам, а не 15+ годичной давности
— это может быть применимо к проектам до определённого размера, а не кодовой базе всего Фейсбука, например
Сами Anthropic сейчас говорят, что Claude Code написан их же моделями на 90%.
Большинство заявлений о том, что «90% кода написано ИИ», исходят от разработчиков моделей / продавцов ИИ-инструментов, поэтому многие (не я) их отметают.
Aider, АИ-ассистент для программирования с открытым исходным кодом, который я как раз упоминал на стриме, от релиза к релизу то и дело перешагивает планки 75-80%. Неплохо!
И вот наткнулся на блог Armin Ronacher, создателя Flask, Jinja, Click и других крупных популярны проектов. Цитаты из поста (но рекомендую прочитать оригинал целиком):
— Что касается инфраструктурного компонента, который я начал разрабатывать в своей новой компании, то, пожалуй, больше 90% моего кода написано с помощью ИИ. Я не хочу вас убеждать — просто поделюсь тем, что узнал. Отчасти потому, что я подошел к этому проекту иначе, чем в своих первых экспериментах.
— Сервис написан на Go с небольшим количеством зависимостей. Сейчас в нём около 40 000 строк, включая Go, YAML, Pulumi и несколько специальных SDK-прослоек.
— Я установил высокую планку, особенно в плане надёжности работы. Я уже работал с подобными системами и знал, чего хочу.
— Я уделяю пристальное внимание основам архитектуры системы, структуре кода и взаимодействию с базами данных. Я невероятно самоуверен. Поэтому есть вещи, которые я не позволяю ИИ делать. Я начинал проект традиционным способом: проектирование системы, схема, архитектура. На этом этапе я не позволяю ИИ писать с нуля, а просто включаю его в свой цикл рассуждений. Это помогает мне видеть типовые ошибки, даже если я не доверяю LLM.
— Для кода, сгенерированного и поддерживаемого ИИ, я теперь получаю стек, который выглядит примерно так, как мне часто хотелось, но было слишком сложно сделать вручную.
— Не могу не подчеркнуть, насколько плохим может быть код агентов, если не быть осторожным. Хотя они понимают архитектуру системы и то, как что-то построить, они не могут смотреть на всю картину целиком. Вам постоянно нужно вносить правильную информацию в контекст.
— Легко создавать системы, которые кажутся правильными, но при использовании ведут себя неправильно. Вот пример: я попросил его создать ограничитель лимитов. Он «работал», но не имел джиттера и использовал неудачные решения по хранению данных. Легко исправить, если знаешь ограничители лимитов, но опасно, если не знаешь.
— Для меня это дошло до того, что я уже не представляю, как можно работать по-другому. Да, я, вероятно, смог бы обойтись без ИИ. Но я бы построил другую систему, потому что мне пришлось бы идти на другие компромиссы. Такой подход открывает возможности, которые я обычно пропускаю или откладываю.
— Исследование + разработка вместо «исследование, а разработка потом»: на некоторые вещи, на понимание которых у меня ушел бы день или два, теперь уходит 10–15 минут.
— Пишет ли ИИ 90% кода? Не знаю. Знаю только, что для меня в этом проекте ответ уже точно «да». В то же время, для меня ИИ не владеет кодом. Я всё равно проверяю каждую строчку, формирую архитектуру и несу ответственность за то, как всё это работает.
===
(обратите внимание, что ни о каком вайб-кодинге речи не идёт: только вдумчивая работа, где, как мне кажется, по сравнению с обычным процессом мозги приходится напрягать даже больше — пока LLM работает, ты думаешь)
Telegram
Сиолошная
Если вдруг пропустили стрим, то появилась его запись.
Обсуждение, как мне кажется, вышло достаточно интересным (особенно если промотать сразу минуту на пятнадцатую) — и на самом стриме зрителей было много до конца, и на записи уже много просмотров, и @itbeard…
Обсуждение, как мне кажется, вышло достаточно интересным (особенно если промотать сразу минуту на пятнадцатую) — и на самом стриме зрителей было много до конца, и на записи уже много просмотров, и @itbeard…
Forwarded from Мысли Рвачева
🤖 Cursor 2.0: шаг к агентному программированию
Cursor выпустил крупное обновление — Cursor 2.0 и свою первую модель для кодинга под названием Composer.
Composer — frontier-модель, созданная специально для agentic coding. Она в 4 раза быстрее аналогов и способна завершать сложные многошаговые задачи менее чем за 30 секунд. Модель обучена с использованием codebase-wide semantic search, что делает ее особенно эффективной в работе с большими кодовыми базами.
Cursor 2.0 также представляет новый multi-agent интерфейс. Теперь работа организована вокруг агентов, а не файлов: можно запускать несколько агентов параллельно, используя git worktrees или удаленные машины. Интересный эффект — одновременная работа нескольких моделей над одной задачей повышает качество итогового результата.
Компания также добавила инструменты для быстрого ревью кода и встроенный браузер для автотестирования изменений.
Заметно, что Cursor становится не просто IDE, а полноценной средой для многомодельной работы с AI-агентами.
🔗 Source: https://cursor.com/blog/2-0
🔗 Download: https://cursor.com/download
#ai #coding #agents #cursor
—————————
Мысли Рвачева
—————————
Cursor выпустил крупное обновление — Cursor 2.0 и свою первую модель для кодинга под названием Composer.
Composer — frontier-модель, созданная специально для agentic coding. Она в 4 раза быстрее аналогов и способна завершать сложные многошаговые задачи менее чем за 30 секунд. Модель обучена с использованием codebase-wide semantic search, что делает ее особенно эффективной в работе с большими кодовыми базами.
Cursor 2.0 также представляет новый multi-agent интерфейс. Теперь работа организована вокруг агентов, а не файлов: можно запускать несколько агентов параллельно, используя git worktrees или удаленные машины. Интересный эффект — одновременная работа нескольких моделей над одной задачей повышает качество итогового результата.
Компания также добавила инструменты для быстрого ревью кода и встроенный браузер для автотестирования изменений.
Заметно, что Cursor становится не просто IDE, а полноценной средой для многомодельной работы с AI-агентами.
🔗 Source: https://cursor.com/blog/2-0
🔗 Download: https://cursor.com/download
#ai #coding #agents #cursor
—————————
Мысли Рвачева
—————————
Forwarded from Сказки из IT - Егор Урванов
Что такое Context7 и зачем он нужен
Context7 — это MCP-сервер от Upstash, который подсовывает LLM актуальные версии документации и рабочие примеры прямо в контекст генерации.
Зачем? Потому что обычные LLM (ChatGPT, Claude и пр.) страдают от знаний среза — библиотека обновилась, API изменился, а модель всё ещё предлагает то, что "знает". Context7 решает это: подтягивает официальную доку + пример кода, фильтрует по версии, ранжирует релевантное, и подмешивает в prompt.
Типичный сценарий: ты в Cursor или другом MCP-клиенте пишешь “use context7”, дальше модель сама дергает resolve-library-id, get-library-docs и подсовывает нужные куски документации в контекст генерации.
Плюсы: меньше бредовых API, меньше правок, удобнее работать с быстро меняющимися библиотеками (Next.js, Tailwind, Zod и др.)
Минусы: может выбрать не то, надо контролировать prompt.
Объяснение
— Разработчик работает в IDE (например, Cursor или VSCode с поддержкой MCP). Он пишет запрос вроде «как использовать FastAPI middleware», IDE шлёт его в Context7 MCP Server.
— Context7 — мозг, который знает, где искать правду. Сначала он маппит запрос к нужной библиотеке и версии, потом идёт в Docs & Repos — официальные источники документации.
— Если документ уже есть в кэше, Context7 отдаёт его сразу. Если нет — скачивает свежие данные, фильтрует, очищает, добавляет примеры.
— Ранжировщик отбирает самое релевантное и подсовывает результат LLM (например, ChatGPT или Claude).
— LLM получает контекст — не абстрактный, а актуальный — и пишет код, который реально работает в твоей версии библиотеки.
— Результат возвращается обратно в IDE: разработчик видит сгенерированный код, а Context7 молча ускоряет следующий запрос из кэша.
Пример на Python: попросим LLM с Context7
Представим, ты работаешь с библиотекой starlette (версии 0.27). Ты хочешь, чтобы модель написала middleware, проверяющее заголовок X-Auth.
Context7 внутри подтянет секцию из официальной документации
Если библиотека обновится и в версии 0.28
Source
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Context7 — это MCP-сервер от Upstash, который подсовывает LLM актуальные версии документации и рабочие примеры прямо в контекст генерации.
Зачем? Потому что обычные LLM (ChatGPT, Claude и пр.) страдают от знаний среза — библиотека обновилась, API изменился, а модель всё ещё предлагает то, что "знает". Context7 решает это: подтягивает официальную доку + пример кода, фильтрует по версии, ранжирует релевантное, и подмешивает в prompt.
Типичный сценарий: ты в Cursor или другом MCP-клиенте пишешь “use context7”, дальше модель сама дергает resolve-library-id, get-library-docs и подсовывает нужные куски документации в контекст генерации.
Плюсы: меньше бредовых API, меньше правок, удобнее работать с быстро меняющимися библиотеками (Next.js, Tailwind, Zod и др.)
Минусы: может выбрать не то, надо контролировать prompt.
Объяснение
— Разработчик работает в IDE (например, Cursor или VSCode с поддержкой MCP). Он пишет запрос вроде «как использовать FastAPI middleware», IDE шлёт его в Context7 MCP Server.
— Context7 — мозг, который знает, где искать правду. Сначала он маппит запрос к нужной библиотеке и версии, потом идёт в Docs & Repos — официальные источники документации.
— Если документ уже есть в кэше, Context7 отдаёт его сразу. Если нет — скачивает свежие данные, фильтрует, очищает, добавляет примеры.
— Ранжировщик отбирает самое релевантное и подсовывает результат LLM (например, ChatGPT или Claude).
— LLM получает контекст — не абстрактный, а актуальный — и пишет код, который реально работает в твоей версии библиотеки.
— Результат возвращается обратно в IDE: разработчик видит сгенерированный код, а Context7 молча ускоряет следующий запрос из кэша.
Пример на Python: попросим LLM с Context7
Представим, ты работаешь с библиотекой starlette (версии 0.27). Ты хочешь, чтобы модель написала middleware, проверяющее заголовок X-Auth.
Напиши middleware для starlette 0.27, который проверяет заголовок X-Auth и возвращает 401, если его нет. use context7
Context7 внутри подтянет секцию из официальной документации
starlette.middleware, выберет релевантный пример к версии 0.27, и передаст LLM. Получишь примерно такой код:from starlette.middleware.base import BaseHTTPMiddleware
from starlette.requests import Request
from starlette.responses import JSONResponse
class AuthHeaderMiddleware(BaseHTTPMiddleware):
async def dispatch(self, request: Request, call_next):
auth = request.headers.get("X-Auth")
if not auth:
return JSONResponse({"detail": "Unauthorized"}, status_code=401)
# можно проверить значение auth тут
response = await call_next(request)
return response
Если библиотека обновится и в версии 0.28
BaseHTTPMiddleware будет помечен как deprecated, Context7 подставит именно нужный кусок и LLM не будет юзать старый API.Source
——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from New Yorko Times (Yury Kashnitsky)
This media is not supported in your browser
VIEW IN TELEGRAM
Первые ощущения от Antigravity
#google
Ну, космос, конечно. Покажи это себе самому образца 5-летней давности.
Как минимум три отличия Antigravity от привычной IDE с нависшим над ней кодинг-агентом:
- Можно запускать несколько агентов параллельно. Отдал одному фронт, второму бэк, третьему рисеч. Возвращаешься результат проверять;
- Antigravity сам запускает приложение в песочнице, тестирует, прям как человек, отчитывается, что сработало, что нет, потом пишет отчет в файлик Walkthrough. На видео как раз это происходит – когда браузер синей рамкой подсвечивается, это Antigravity захватил управление;
- приятные мелочи в виде отдельных файлов Task, Implementation Plan и Walkthrough, мысли и действия агентов еще более прозрачны.
Можно еще вот это видео глянуть, попробовать повторить.
Для демки с кубиком рубика пойдет, дальше надо попробовать в реальном проекте. Тут скепсис еще есть.
Ну, космос, конечно. Покажи это себе самому образца 5-летней давности.
Как минимум три отличия Antigravity от привычной IDE с нависшим над ней кодинг-агентом:
- Можно запускать несколько агентов параллельно. Отдал одному фронт, второму бэк, третьему рисеч. Возвращаешься результат проверять;
- Antigravity сам запускает приложение в песочнице, тестирует, прям как человек, отчитывается, что сработало, что нет, потом пишет отчет в файлик Walkthrough. На видео как раз это происходит – когда браузер синей рамкой подсвечивается, это Antigravity захватил управление;
- приятные мелочи в виде отдельных файлов Task, Implementation Plan и Walkthrough, мысли и действия агентов еще более прозрачны.
Можно еще вот это видео глянуть, попробовать повторить.
Для демки с кубиком рубика пойдет, дальше надо попробовать в реальном проекте. Тут скепсис еще есть.