Forwarded from ИИволюция 👾 (Сергей Пахандрин)
Как-то мимо меня пролетела новость о важном обновлении Codex
Наконец-то появилась полноценная интеграция в IDE!
Что добавили:
– IDE-расширение: Codex теперь живёт в VS Code, Cursor и других классных IDE для разработки. Он понимает контекст проекта: файлы, дифы, сниппеты. Теперь те, кто так себе воспринимает CLI и это было главным стопом при использовании Codex, могут легко подключить его в Cursor и вайбить во всю ивановскую!
– Хэнд-офф задач: можно начать задачу локально, отдать её в облако, а потом забрать обратно и продолжить, не теряя состояние. Как у Apple режим handoff, начал звонок в одном месте, продолжил в другом. Кайфово!
– Code Review в GitHub: Codex умеет проверять PR не только на синтаксис, но и по смыслу: анализирует зависимости, прогоняет код и сверяет с намерением изменений. Поддерживается авто-ревью или вызов через @codex.
– Codex CLI 2.0: новый UI в терминале, поддержка инпут изображений (!), очередь сообщений, ту-душки, веб-поиск и быстрые режимы подтверждения. Всё работает на GPT-5, поэтому стало заметно надёжнее.
Для меня главная новость — интеграция в Cursor. Ставлю лайк за обновление и буду теперь активнее использовать Codex, ведь он входит в стандартную подписку ChatGPT. Кстати, в разных чатах вижу, что часть разработчиков начинают отдавать предпочтения Codex, а не Claude Code. Рождается 2 секты со своими “религиями” и надеюсь кучей мемов впереди (ой, а у клода это еще год назад было! копипастят, сами ничего не придумывают)!😃
Наконец-то появилась полноценная интеграция в IDE!
Что добавили:
– IDE-расширение: Codex теперь живёт в VS Code, Cursor и других классных IDE для разработки. Он понимает контекст проекта: файлы, дифы, сниппеты. Теперь те, кто так себе воспринимает CLI и это было главным стопом при использовании Codex, могут легко подключить его в Cursor и вайбить во всю ивановскую!
– Хэнд-офф задач: можно начать задачу локально, отдать её в облако, а потом забрать обратно и продолжить, не теряя состояние. Как у Apple режим handoff, начал звонок в одном месте, продолжил в другом. Кайфово!
– Code Review в GitHub: Codex умеет проверять PR не только на синтаксис, но и по смыслу: анализирует зависимости, прогоняет код и сверяет с намерением изменений. Поддерживается авто-ревью или вызов через @codex.
– Codex CLI 2.0: новый UI в терминале, поддержка инпут изображений (!), очередь сообщений, ту-душки, веб-поиск и быстрые режимы подтверждения. Всё работает на GPT-5, поэтому стало заметно надёжнее.
Для меня главная новость — интеграция в Cursor. Ставлю лайк за обновление и буду теперь активнее использовать Codex, ведь он входит в стандартную подписку ChatGPT. Кстати, в разных чатах вижу, что часть разработчиков начинают отдавать предпочтения Codex, а не Claude Code. Рождается 2 секты со своими “религиями” и надеюсь кучей мемов впереди (ой, а у клода это еще год назад было! копипастят, сами ничего не придумывают)!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Константин Доронин
Codex CLI от OpenAI – скаковая лошадь без седла.
Пару недель часть задач сгружал на Codex CLI, чтобы посмотреть, каково это – работать с данным инструментом. Делюсь наблюдениями.
Codex CLI – это AI-Coding-агент от OpenAI, который вышел 5 месяцев назад. За время, прошедшее с первого коммита, команда разработки выпустила 126 релизов. То есть они постоянно развиваются и обрастают функциональностью. Релизы почти каждый день!
Поэтому, данный обзор отражает ситуацию на текущий момент. В скором времени всё может измениться, надеюсь, в лучшую сторону.
Я считаю, что CLI-инструменты стоит сравнивать с Claude Code. Который, по моему мнению, обладает лучшим набором инструментов среди CLI-AI-Coding-Agent.
У Codex есть только базовая функциональность для CLI-инструмента: настройки, MCP-сервера, управление контекстом, выбор модели, запуск консольных команд, поиск в сети.
Кастомные команды, агенты, хуки, гибкие настройки для конкретного проекта (есть toml-файл, но он глобальный) пока что отсутствуют.
Вся документация по инструменту пока что существует только в формате md-файлов внутри github-проекта. Отдельно её пока не оформили.
Отдельно стоит отметить расширение для VS Code. Хоть там и нет поддержки команд из консоли, видно, что OpenAI пытаются замахнуться на конкуренцию с Cursor и иже с ними. С точки зрения интерфейса, Codex CLI выглядит интереснее, чем аналогичное VS Code-расширение для Claude Code. Но инструмент ещё в зачаточном состоянии и речь идёт, скорее, о перспективах развития.
Главный герой этого бала – ChatGPT 5, доступный в Codex CLI через веб-авторизацию с лимитами основной подписки. Тот самый скаковой жеребец, который вытягивает тестовую версию CLI-инструмента на несколько уровней выше. К сожалению, функциональности вокруг модели (того самого седла) пока недостаточно, чтобы заменить Claude Code.
Интересный момент: без явного указания на желаемую архитектуру решения, AI-агент от OpenAI склонен пихать весь код в один файл. Поэтому обязательно используем Agents.md файл и добавляем в него базовые инструкции для агента.
Вывод: Codex CLI – пока ещё достаточно сырое решение для AI Coding. За счёт того, что он даёт доступ к топовой модели в рамках $20-подписки, его имеет смысл добавить в свой пайплайн в качестве отдельного агента. Например, для написания спецификаций или совместной разработки архитектуры в формате диалога с AI-агентом.
Пару недель часть задач сгружал на Codex CLI, чтобы посмотреть, каково это – работать с данным инструментом. Делюсь наблюдениями.
Codex CLI – это AI-Coding-агент от OpenAI, который вышел 5 месяцев назад. За время, прошедшее с первого коммита, команда разработки выпустила 126 релизов. То есть они постоянно развиваются и обрастают функциональностью. Релизы почти каждый день!
Поэтому, данный обзор отражает ситуацию на текущий момент. В скором времени всё может измениться, надеюсь, в лучшую сторону.
Я считаю, что CLI-инструменты стоит сравнивать с Claude Code. Который, по моему мнению, обладает лучшим набором инструментов среди CLI-AI-Coding-Agent.
У Codex есть только базовая функциональность для CLI-инструмента: настройки, MCP-сервера, управление контекстом, выбор модели, запуск консольных команд, поиск в сети.
Кастомные команды, агенты, хуки, гибкие настройки для конкретного проекта (есть toml-файл, но он глобальный) пока что отсутствуют.
Вся документация по инструменту пока что существует только в формате md-файлов внутри github-проекта. Отдельно её пока не оформили.
Отдельно стоит отметить расширение для VS Code. Хоть там и нет поддержки команд из консоли, видно, что OpenAI пытаются замахнуться на конкуренцию с Cursor и иже с ними. С точки зрения интерфейса, Codex CLI выглядит интереснее, чем аналогичное VS Code-расширение для Claude Code. Но инструмент ещё в зачаточном состоянии и речь идёт, скорее, о перспективах развития.
Главный герой этого бала – ChatGPT 5, доступный в Codex CLI через веб-авторизацию с лимитами основной подписки. Тот самый скаковой жеребец, который вытягивает тестовую версию CLI-инструмента на несколько уровней выше. К сожалению, функциональности вокруг модели (того самого седла) пока недостаточно, чтобы заменить Claude Code.
Интересный момент: без явного указания на желаемую архитектуру решения, AI-агент от OpenAI склонен пихать весь код в один файл. Поэтому обязательно используем Agents.md файл и добавляем в него базовые инструкции для агента.
Вывод: Codex CLI – пока ещё достаточно сырое решение для AI Coding. За счёт того, что он даёт доступ к топовой модели в рамках $20-подписки, его имеет смысл добавить в свой пайплайн в качестве отдельного агента. Например, для написания спецификаций или совместной разработки архитектуры в формате диалога с AI-агентом.
Forwarded from DE
Media is too big
VIEW IN TELEGRAM
Forwarded from DE
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from ROSLOVETS: AI, IT and Miaou Miaou Miaou
Неприятно, когда нужно объяснить разработчикам новую концепцию, ты сидишь рисуешь схемы, пишешь ТЗ на 15 страниц, потом еще несколько раз по часу обсуждаешь в зуме, и в итоге выясняется, что все поняли по-разному.
Недавно я нашла неожиданное для себя применение вайбкодингу, которое все это нивелировало. И нет, я не про генерацию MVP - об этом я писала ранее, что в сложную архитектуру это не впишется без костылей.
Вот что я делаю теперь:
Вместо ТЗ и презентаций я за час минут накидываю в Lovable или Replit визуальный прототип. Без бэкенда, без логики. Просто интерфейс, который показывает, как продукт/фича должна выглядеть и работать.
Разработчики сразу видят результат. Нет разночтений и никто не может интерпретировать по-своему то, что он видит своими глазами.
Я не говорю, что это заменит нормальный процесс разработки. Но как инструмент донесения идеи - огонь.
На прошлой неделе мне это помогло объяснить инженеру, как будет выглядеть интерфейс обращения к учебным стендам. Вместо описаний, я сделала прототип. В процессе я открыла для себя некоторые детали, о которых я не думала и уже на старте их учла. Даже в процессе обсуждения я испытывала легкость от объяснения и видела, что меня понимают. Незабываемое ощущение.
В следующий раз, когда будете объяснять сложную фичу, попробуйте показать, а не рассказать. Даже если прототип будет кривой, он донесет идею лучше, чем самое подробное ТЗ.
Недавно я нашла неожиданное для себя применение вайбкодингу, которое все это нивелировало. И нет, я не про генерацию MVP - об этом я писала ранее, что в сложную архитектуру это не впишется без костылей.
Вот что я делаю теперь:
Вместо ТЗ и презентаций я за час минут накидываю в Lovable или Replit визуальный прототип. Без бэкенда, без логики. Просто интерфейс, который показывает, как продукт/фича должна выглядеть и работать.
Разработчики сразу видят результат. Нет разночтений и никто не может интерпретировать по-своему то, что он видит своими глазами.
Я не говорю, что это заменит нормальный процесс разработки. Но как инструмент донесения идеи - огонь.
На прошлой неделе мне это помогло объяснить инженеру, как будет выглядеть интерфейс обращения к учебным стендам. Вместо описаний, я сделала прототип. В процессе я открыла для себя некоторые детали, о которых я не думала и уже на старте их учла. Даже в процессе обсуждения я испытывала легкость от объяснения и видела, что меня понимают. Незабываемое ощущение.
В следующий раз, когда будете объяснять сложную фичу, попробуйте показать, а не рассказать. Даже если прототип будет кривой, он донесет идею лучше, чем самое подробное ТЗ.
Forwarded from Сиолошная
OpenAI выпустили новую GPT-5 😑
...заточенную на программистов, GPT-5 Codex. Эта модель заменит o3 в Codex в веб-клиенте (наконец-то) и уже доступна в локальном Codex CLI / плагине для вашей IDE. Если вы ещё не пробовали — обязательно попробуйте! Это бесплатно, если вы подписаны на любой тир ChatGPT. В комментариях многие отмечали, что им нравится больше, чем Claude Code, и модель работает лучше.
GPT-5 Codex дотренировали на новых сложных реальных задач, создании проектов с нуля, добавлении функций и тестов, отладке, проведении масштабных рефакторингов и ревью кода.
По стандартному бенчмарку SWE-bench Verified разница не особо заметна, 74.5% против старых 72.8%. Однако на внутреннем бенчмарке OpenAI на задачах рефакторинга модель стала гораздо лучше: прыжок с 33.9% до 51.3%!
Но и это не всё: модель стала писать меньше бесполезных или ошибочных комментариев, лучше ловить баги в коде, и... думать меньше, когда это не надо. OpenAI взяли запросы от сотрудников внутри компании и сравнили количество токенов в ответах двух моделей.
Там, где ответы были короткими, они стали ещё короче, а там, где цепочки рассуждений и сгенерированный код были длиннее — стало больше. Со слов OpenAI, во время они наблюдали, как GPT‑5-Codex работал автономно более 7 часов подряд над большими и сложными задачами, выполняя итерации по внедрению, исправляя ошибки тестирования и в конечном итоге обеспечивая успешное решение задачи.
Codex CLI и Codex Web получили кучу обновлений за последний месяц, но про них писать не буду.
В API модель появится скоро, очень ждём, пока замеряют качество и на других бенчмарках. В системной карточке модели указали лишь один — по решению многоступенчатых задачек по кибер-взлому (с соревнований CTF). Модель наконец-то статистически значимо обгоняет o3! Жаль, не замерили другие бенчмарки (вроде PaperBench).
...заточенную на программистов, GPT-5 Codex. Эта модель заменит o3 в Codex в веб-клиенте (наконец-то) и уже доступна в локальном Codex CLI / плагине для вашей IDE. Если вы ещё не пробовали — обязательно попробуйте! Это бесплатно, если вы подписаны на любой тир ChatGPT. В комментариях многие отмечали, что им нравится больше, чем Claude Code, и модель работает лучше.
GPT-5 Codex дотренировали на новых сложных реальных задач, создании проектов с нуля, добавлении функций и тестов, отладке, проведении масштабных рефакторингов и ревью кода.
По стандартному бенчмарку SWE-bench Verified разница не особо заметна, 74.5% против старых 72.8%. Однако на внутреннем бенчмарке OpenAI на задачах рефакторинга модель стала гораздо лучше: прыжок с 33.9% до 51.3%!
Но и это не всё: модель стала писать меньше бесполезных или ошибочных комментариев, лучше ловить баги в коде, и... думать меньше, когда это не надо. OpenAI взяли запросы от сотрудников внутри компании и сравнили количество токенов в ответах двух моделей.
Там, где ответы были короткими, они стали ещё короче, а там, где цепочки рассуждений и сгенерированный код были длиннее — стало больше. Со слов OpenAI, во время они наблюдали, как GPT‑5-Codex работал автономно более 7 часов подряд над большими и сложными задачами, выполняя итерации по внедрению, исправляя ошибки тестирования и в конечном итоге обеспечивая успешное решение задачи.
Codex CLI и Codex Web получили кучу обновлений за последний месяц, но про них писать не буду.
В API модель появится скоро, очень ждём, пока замеряют качество и на других бенчмарках. В системной карточке модели указали лишь один — по решению многоступенчатых задачек по кибер-взлому (с соревнований CTF). Модель наконец-то статистически значимо обгоняет o3! Жаль, не замерили другие бенчмарки (вроде PaperBench).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 🔋 Труба данных (Simon Osipov)
Данные от самого OpenAI, для чего используют ChatGPT.
Мы в пузырике, в общей доле запросов к модели, программирование - всего 4%
@ohmydataengineer - канал "🕯 Труба Данных"
Мы в пузырике, в общей доле запросов к модели, программирование - всего 4%
@ohmydataengineer - канал "
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from XOR
Google выпустил огромный гайд по Al-агентам
Внутри пошагово рассказывают, как построить агента от идеи до продакшена с упором на качество, безопасность и стабильность работы. Есть также полезные ссылки с ресурсами для работы и разбор базовых концепций, так что поймет даже джун.
Такое мы сохраняем😊
@xor_journal
Внутри пошагово рассказывают, как построить агента от идеи до продакшена с упором на качество, безопасность и стабильность работы. Есть также полезные ссылки с ресурсами для работы и разбор базовых концепций, так что поймет даже джун.
Такое мы сохраняем
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Данные по-большому
А теперь самый интересный fun fact, с которого у меня люто горит жопа: если раньше ты мог втыкать в задачу неделю, то с вайбкодингом растут не только твои возможности, но и твои проблемы. Растут требования к числу закрытых тасок, а ещё ты вроде начинаешь разбираться в чужом коде, а потом внезапно начинаешь понимать что это сгенерированный код. Просишь нейронку сделать на его основе новый код, а она выдает говно. Пытаешься сам писать, но так как новые модели пишут почти сеньорский питонячий бэкэндерский код, то мероприятие по самостоятельному написанию теряет смысл.
В итоге все придет к тому что весь код будет сгенерированным, а сотрудники будут рубить промты, и самый логически мыслящий сотрудник с лучшими навыками запросов к нужной нейронке выдачи лучший код. Чисто петля обратной связи с усложнением как самого кода, так и требований к скорости его понимания. По итогу понимание кода становится существенно хуже как в силу его усложнения, так и в силу KPI по скорости закрытия тасок. Человек перестает понимать что происходит в коде и не успевает глубоко погрузиться в процессы. И рано или поздно с ростом количества сгенерированного кода понимание закончится у большинства сотрудников, даже у лидов - понимать будут только машины.
Так что вайбкодинг - это с некоторой стороны немного печально.
В итоге все придет к тому что весь код будет сгенерированным, а сотрудники будут рубить промты, и самый логически мыслящий сотрудник с лучшими навыками запросов к нужной нейронке выдачи лучший код. Чисто петля обратной связи с усложнением как самого кода, так и требований к скорости его понимания. По итогу понимание кода становится существенно хуже как в силу его усложнения, так и в силу KPI по скорости закрытия тасок. Человек перестает понимать что происходит в коде и не успевает глубоко погрузиться в процессы. И рано или поздно с ростом количества сгенерированного кода понимание закончится у большинства сотрудников, даже у лидов - понимать будут только машины.
Так что вайбкодинг - это с некоторой стороны немного печально.
Forwarded from Данные по-большому
💸 BigTech удваивает ставки на ИИ
- В 2025 компании потратят $345 млрд на AI-инфраструктуру - рост в 2,5 раза за два года.
- Для сравнения: мировой телеком тратит ~$1,5 трлн.
- Проект OpenAI Stargate ($500 млрд к 2029) = ~25% от прогнозируемых $2 трлн при росте в 58% год за годом.
#новости
- В 2025 компании потратят $345 млрд на AI-инфраструктуру - рост в 2,5 раза за два года.
- Для сравнения: мировой телеком тратит ~$1,5 трлн.
- Проект OpenAI Stargate ($500 млрд к 2029) = ~25% от прогнозируемых $2 трлн при росте в 58% год за годом.
#новости
Forwarded from Данные по-большому
Forwarded from Технозаметки Малышева
🤖 Google запускает 5-дневный интенсив по ИИ-агентам
После успеха GenAI курса (420К+ участников) Google поднимает планку и теперь выпускает курс только по агентам. От архитектур до продакшена за 5 дней.
Программа:
День 1: Агентные архитектуры vs традиционные LLM приложения
День 2: MCP (Model Context Protocol) — стандарт для взаимодействия с инструментами
День 3: Контекст-инжиниринг — кратко/долгосрочная память для мультитурновых задач
День 4: Observability, логирование, метрики — как строить надёжные системы
День 5: Agent2Agent (A2A) Protocol — мульти-агентные системы в продакшене
Формат обучения:
📚 Ежедневные задания (1-2 часа) — whitepapers + codelabs + подкасты от NotebookLM
💬 Discord канал для обсуждений с экспертами Google
🎥 Лайвстримы 45-60 мин с авторами курса + AMA сессии
🏆 Capstone проект на ADK (Agent Development Kit) — реальное портфолио + призы
Требования:
Python + базовые AI концепты + Google AI Studio (доступен в ограниченных регионах) + Kaggle аккаунт с верифицированным телефоном.
Бесплатно, записи будут доступны после курса. Топ-10 capstone проектов получат swag + продвижение в соцсетях Google.
Записываемся. За 5 дней влетаем в агентостроение.
#Google #Kaggle #обучение
———
@tsingular
После успеха GenAI курса (420К+ участников) Google поднимает планку и теперь выпускает курс только по агентам. От архитектур до продакшена за 5 дней.
Программа:
День 1: Агентные архитектуры vs традиционные LLM приложения
День 2: MCP (Model Context Protocol) — стандарт для взаимодействия с инструментами
День 3: Контекст-инжиниринг — кратко/долгосрочная память для мультитурновых задач
День 4: Observability, логирование, метрики — как строить надёжные системы
День 5: Agent2Agent (A2A) Protocol — мульти-агентные системы в продакшене
Формат обучения:
📚 Ежедневные задания (1-2 часа) — whitepapers + codelabs + подкасты от NotebookLM
💬 Discord канал для обсуждений с экспертами Google
🎥 Лайвстримы 45-60 мин с авторами курса + AMA сессии
🏆 Capstone проект на ADK (Agent Development Kit) — реальное портфолио + призы
Требования:
Python + базовые AI концепты + Google AI Studio (доступен в ограниченных регионах) + Kaggle аккаунт с верифицированным телефоном.
Бесплатно, записи будут доступны после курса. Топ-10 capstone проектов получат swag + продвижение в соцсетях Google.
Записываемся. За 5 дней влетаем в агентостроение.
#Google #Kaggle #обучение
———
@tsingular
Forwarded from Технозаметки Малышева
Prompt Packs от OpenAI Academy
OpenAI выпустила Prompt Packs - готовые наборы промптов для различных сценариев.
Полезно не только для обучения,- разные промпты в одинаковых задачах могут давать разницу результатов от 8.8% до 62.9% на одинаковой модели.
Парсим, загоняем в RAG по задачам,- профит :)
Ну или просто учимся сами.
#PromptPacks #OpenAI #промпты #обучение
------
@tsingular
OpenAI выпустила Prompt Packs - готовые наборы промптов для различных сценариев.
Полезно не только для обучения,- разные промпты в одинаковых задачах могут давать разницу результатов от 8.8% до 62.9% на одинаковой модели.
Парсим, загоняем в RAG по задачам,- профит :)
Ну или просто учимся сами.
#PromptPacks #OpenAI #промпты #обучение
------
@tsingular
Forwarded from Технозаметки Малышева
Cursor запустил свою платформу для обучения.
Пока база, - про модели, галлюцинации, токены, контекст, инструменты и агентов.
Дальше в планах, - размышления, планирование, создание и работа с агентами, отладка и безопасность.
Осталось еще хостинг моделей и MCP хаб добавить и будет классический современный набор.
#Cursor #обучение
———
@tsingular
Пока база, - про модели, галлюцинации, токены, контекст, инструменты и агентов.
Дальше в планах, - размышления, планирование, создание и работа с агентами, отладка и безопасность.
Осталось еще хостинг моделей и MCP хаб добавить и будет классический современный набор.
#Cursor #обучение
———
@tsingular
Forwarded from Технозаметки Малышева