ChatGPTevelopment & Promptgramming
19 subscribers
181 photos
33 videos
5 files
293 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Также Anthropic выпустили research preview LLM-операционки

Что-то подобное уже было у Google (мы писали тут). Идея та же: LLM пишет ПО на лету, по вашему запросу.

Тыкаете на какое-то приложение – оно поднимается с нуля без заготовленного заранее кода. Открываете файл – содержимое генерируется тут же. Пример на видео.

Это, конечно, не серьезный продукт, а скорее просто продвинутая демонстрация способностей и реклама для нового Sonnet 4.5.

Поиграться, правда, получится, только если вы пользователь тарифа Max, и только в течение 5 дней.

https://claude.ai/imagine
Forwarded from Сиолошная
Чуть более полугода назад у нас с Валерой был стрим про высказывание CEO Anthropic, мол, через полгода модели будут писать 90% кода. На стриме, как мне кажется, я очень хорошо описал некоторые из важных оговорок при оценке подобного рода высказываний:
— есть разница «могут» и «делают»
— это может быть применимо к определённым языкам программирования, а не всем
— часть подходов к разработке придётся пересмотреть, чтобы было проще интегрировать ИИ-инструменты
— это может быть применимо к свежим проектам, а не 15+ годичной давности
— это может быть применимо к проектам до определённого размера, а не кодовой базе всего Фейсбука, например

Сами Anthropic сейчас говорят, что Claude Code написан их же моделями на 90%.

Большинство заявлений о том, что «90% кода написано ИИ», исходят от разработчиков моделей / продавцов ИИ-инструментов, поэтому многие (не я) их отметают.

Aider, АИ-ассистент для программирования с открытым исходным кодом, который я как раз упоминал на стриме, от релиза к релизу то и дело перешагивает планки 75-80%. Неплохо!

И вот наткнулся на блог Armin Ronacher, создателя Flask, Jinja, Click и других крупных популярны проектов. Цитаты из поста (но рекомендую прочитать оригинал целиком):

— Что касается инфраструктурного компонента, который я начал разрабатывать в своей новой компании, то, пожалуй, больше 90% моего кода написано с помощью ИИ. Я не хочу вас убеждать — просто поделюсь тем, что узнал. Отчасти потому, что я подошел к этому проекту иначе, чем в своих первых экспериментах.

— Сервис написан на Go с небольшим количеством зависимостей. Сейчас в нём около 40 000 строк, включая Go, YAML, Pulumi и несколько специальных SDK-прослоек.

— Я установил высокую планку, особенно в плане надёжности работы. Я уже работал с подобными системами и знал, чего хочу.

— Я уделяю пристальное внимание основам архитектуры системы, структуре кода и взаимодействию с базами данных. Я невероятно самоуверен. Поэтому есть вещи, которые я не позволяю ИИ делать. Я начинал проект традиционным способом: проектирование системы, схема, архитектура. На этом этапе я не позволяю ИИ писать с нуля, а просто включаю его в свой цикл рассуждений. Это помогает мне видеть типовые ошибки, даже если я не доверяю LLM.

— Для кода, сгенерированного и поддерживаемого ИИ, я теперь получаю стек, который выглядит примерно так, как мне часто хотелось, но было слишком сложно сделать вручную.

— Не могу не подчеркнуть, насколько плохим может быть код агентов, если не быть осторожным. Хотя они понимают архитектуру системы и то, как что-то построить, они не могут смотреть на всю картину целиком. Вам постоянно нужно вносить правильную информацию в контекст.

— Легко создавать системы, которые кажутся правильными, но при использовании ведут себя неправильно. Вот пример: я попросил его создать ограничитель лимитов. Он «работал», но не имел джиттера и использовал неудачные решения по хранению данных. Легко исправить, если знаешь ограничители лимитов, но опасно, если не знаешь.

— Для меня это дошло до того, что я уже не представляю, как можно работать по-другому. Да, я, вероятно, смог бы обойтись без ИИ. Но я бы построил другую систему, потому что мне пришлось бы идти на другие компромиссы. Такой подход открывает возможности, которые я обычно пропускаю или откладываю.

— Исследование + разработка вместо «исследование, а разработка потом»: на некоторые вещи, на понимание которых у меня ушел бы день или два, теперь уходит 10–15 минут.

— Пишет ли ИИ 90% кода? Не знаю. Знаю только, что для меня в этом проекте ответ уже точно «да». В то же время, для меня ИИ не владеет кодом. Я всё равно проверяю каждую строчку, формирую архитектуру и несу ответственность за то, как всё это работает.

===

(обратите внимание, что ни о каком вайб-кодинге речи не идёт: только вдумчивая работа, где, как мне кажется, по сравнению с обычным процессом мозги приходится напрягать даже больше — пока LLM работает, ты думаешь)
🤖 Cursor 2.0: шаг к агентному программированию

Cursor выпустил крупное обновление — Cursor 2.0 и свою первую модель для кодинга под названием Composer.

Composer — frontier-модель, созданная специально для agentic coding. Она в 4 раза быстрее аналогов и способна завершать сложные многошаговые задачи менее чем за 30 секунд. Модель обучена с использованием codebase-wide semantic search, что делает ее особенно эффективной в работе с большими кодовыми базами.

Cursor 2.0 также представляет новый multi-agent интерфейс. Теперь работа организована вокруг агентов, а не файлов: можно запускать несколько агентов параллельно, используя git worktrees или удаленные машины. Интересный эффект — одновременная работа нескольких моделей над одной задачей повышает качество итогового результата.

Компания также добавила инструменты для быстрого ревью кода и встроенный браузер для автотестирования изменений.
Заметно, что Cursor становится не просто IDE, а полноценной средой для многомодельной работы с AI-агентами.

🔗 Source: https://cursor.com/blog/2-0
🔗 Download: https://cursor.com/download

#ai #coding #agents #cursor

—————————
Мысли Рвачева
—————————
Что такое Context7 и зачем он нужен

Context7 — это MCP-сервер от Upstash, который подсовывает LLM актуальные версии документации и рабочие примеры прямо в контекст генерации.

Зачем? Потому что обычные LLM (ChatGPT, Claude и пр.) страдают от знаний среза — библиотека обновилась, API изменился, а модель всё ещё предлагает то, что "знает". Context7 решает это: подтягивает официальную доку + пример кода, фильтрует по версии, ранжирует релевантное, и подмешивает в prompt.

Типичный сценарий: ты в Cursor или другом MCP-клиенте пишешь “use context7”, дальше модель сама дергает resolve-library-id, get-library-docs и подсовывает нужные куски документации в контекст генерации.

Плюсы: меньше бредовых API, меньше правок, удобнее работать с быстро меняющимися библиотеками (Next.js, Tailwind, Zod и др.)

Минусы: может выбрать не то, надо контролировать prompt.

Объяснение
— Разработчик работает в IDE (например, Cursor или VSCode с поддержкой MCP). Он пишет запрос вроде «как использовать FastAPI middleware», IDE шлёт его в Context7 MCP Server.
— Context7 — мозг, который знает, где искать правду. Сначала он маппит запрос к нужной библиотеке и версии, потом идёт в Docs & Repos — официальные источники документации.
— Если документ уже есть в кэше, Context7 отдаёт его сразу. Если нет — скачивает свежие данные, фильтрует, очищает, добавляет примеры.
— Ранжировщик отбирает самое релевантное и подсовывает результат LLM (например, ChatGPT или Claude).
— LLM получает контекст — не абстрактный, а актуальный — и пишет код, который реально работает в твоей версии библиотеки.
— Результат возвращается обратно в IDE: разработчик видит сгенерированный код, а Context7 молча ускоряет следующий запрос из кэша.


Пример на Python: попросим LLM с Context7
Представим, ты работаешь с библиотекой starlette (версии 0.27). Ты хочешь, чтобы модель написала middleware, проверяющее заголовок X-Auth.

Напиши middleware для starlette 0.27, который проверяет заголовок X-Auth и возвращает 401, если его нет. use context7


Context7 внутри подтянет секцию из официальной документации starlette.middleware, выберет релевантный пример к версии 0.27, и передаст LLM. Получишь примерно такой код:

from starlette.middleware.base import BaseHTTPMiddleware
from starlette.requests import Request
from starlette.responses import JSONResponse

class AuthHeaderMiddleware(BaseHTTPMiddleware):
async def dispatch(self, request: Request, call_next):
auth = request.headers.get("X-Auth")
if not auth:
return JSONResponse({"detail": "Unauthorized"}, status_code=401)
# можно проверить значение auth тут
response = await call_next(request)
return response


Если библиотека обновится и в версии 0.28 BaseHTTPMiddleware будет помечен как deprecated, Context7 подставит именно нужный кусок и LLM не будет юзать старый API.

Source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from New Yorko Times (Yury Kashnitsky)
This media is not supported in your browser
VIEW IN TELEGRAM
Первые ощущения от Antigravity
#google

Ну, космос, конечно. Покажи это себе самому образца 5-летней давности.

Как минимум три отличия Antigravity от привычной IDE с нависшим над ней кодинг-агентом:

- Можно запускать несколько агентов параллельно. Отдал одному фронт, второму бэк, третьему рисеч. Возвращаешься результат проверять;
- Antigravity сам запускает приложение в песочнице, тестирует, прям как человек, отчитывается, что сработало, что нет, потом пишет отчет в файлик Walkthrough. На видео как раз это происходит – когда браузер синей рамкой подсвечивается, это Antigravity захватил управление;
- приятные мелочи в виде отдельных файлов Task, Implementation Plan и Walkthrough, мысли и действия агентов еще более прозрачны.

Можно еще вот это видео глянуть, попробовать повторить.

Для демки с кубиком рубика пойдет, дальше надо попробовать в реальном проекте. Тут скепсис еще есть.
Forwarded from Vlad: Bit by Bit 🅴
Анонс! вебинар по вайбкодингу: создай сайт на Lovable + n8n за час

📅 в эту пятницу: 21.11

⏱️ 19:00 МСК / 5PM CET

Научу вас создавать крутые сайты в Lovable с интеграцией n8n

1. Найдем вдохновение в Pinterest
2. Создадим анимацию
3. Сделаем простой сайт
4. Интегрируем его с n8n, чтобы он мог выполнять какие-то функции
5. Захостим его

примеры сайтов: хакатон и сайт фонда

афиша ai generated, не обращайте внимание на какие-то описки, интеллект пока еще искусственный, зато на создание ушло ровно 1 минута 💙

для записи пишите мне в тг @vladislavterzi
Forwarded from Vlad: Bit by Bit 🅴
уже 30 регистраций меньше, чем за один день!

на прошлый вебинар я собрал худо-бедно 25 за неделю 😭

очень хочу довести это число до 100, поэтому будет круто, если вы запишитесь сами, а еще круче будет, если перешлете вашим друзьям, кому может быть интересно тоже

я не рассказал про плюшки!

0. вебинар полностью бесплатный…

1. всем, кто запишется, я отправлю запись вебинарчика, чтобы можно было потом пересмотреть и спокойно все повторить — но пришлю ТОЛЬКО тем, кто сейчас запишется

2. отправлю гайд со всеми ссылками, чтобы опять же можно было легко все найти, и все было в одном месте

3. дам свою рефералку на lovable, чтобы было +10 бесплатных кредитов. на пробный сайт, который мы будем делать — хватит за глаза

4. расскажу, про процесс создания крутых генераций фото и анимаций / видео, чтобы они цепляли глаз

5. покажу, как очень просто интегрировать n8n в процесс, чтобы это был не просто лендинг, а полезная страничка, например для сбора контактов клиентов или, например, сайт для брифинга

6. ну и дам скидочку на год бесплатного n8n

для записи напишите мне «вебинар» в тг @vladislavterzi приходите 💙
Контекст — это всё

То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.

В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.

Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.

Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.

— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)

Лекция бесплатная.

Регистрация тут
Forwarded from Сиолошная
Лёд тронулся, господа — WIRED пишет, что Meta планирует позволить кандидатам использовать ИИ во время собеседований по программированию.

— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»

Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно — опытные программисты опасаются, что следующее поколение программистов будет больше склонно к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).

Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую

Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
Forwarded from Data Secrets
⚡️ Иии… Anthropic выпустили Claude Opus 4.5

Это первая модель, которая пробила планку 80 на SWE bench verified. С ее 80.9% это теперь уверенная SOTA по кодингу.

Модель уже доступна в API, и, что самое приятное, цена относительно предыдущего Opus упала! Было 15$/75$, стало 5/25, ощутимое понижение.

Плюс, модель снова стала экономичнее относительно токенов: на среднем уровне ризонинга она достигает уровня Sonnet 4.5, используя на 76% меньше токенов. А при выкрученном на максимум бюджете обходит Sonnet аж на 4.3 процентных пункта (SWE bench), используя на 48% меньше токенов.

Anthropic пишут, что скормили Opus 4.5 внутренний экзамен, который они дают кандидатам при устройстве на работу. За 2 часа модель справилась с ним лучше, чем любой человек когда-либо в истории стартапа.

Что касается апдейтов в продукте:

В Claude App добавили сжатие контекста, как в новом Codex. При достижении лимита старый контекст суммаризуется и передается в новое контекстное окно, и вы не упираетесь в конец диалога. Кроме того, теперь в десктопное приложение завезли Claude Code, и там его можно параллелить на разные задачки.

– Из беты вышли Claude для Chrome и для Excel.

– Теперь можно самостоятельно контролировать время размышлений, есть режимы low, high и medium.

🔥 www.anthropic.com/news/claude-opus-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Ок, настал тот момент когда у меня на одним и тем же проектом параллельно работают кодинг агенты OpenAI Codex и Claude Code. Дивный мир.

#ai #agi

—————————
Мысли Рвачева
—————————
Advent of Agents 2025

Google запускает 25-дневный марафон по разработке агентов - каждый день новая фича за 5 минут.

В программе: Gemini 3 с контекстной инженерией и Computer Use, Agent Development Kit (ADK) на Python, и Vertex AI Agent Engine для быстрого деплоя.

Обещают путь от нуля до production-ready за три недели.

ADK, в принципе, независимый фреймворк, но проблема в том, что весь курс заточен под экосистему Google.

Скорее всего дальше там будет VertexAI, который не всем доступен у нас.
Но в целом почитать и попробовать повторить локально, - имеет смысл, там реально за 5 минут хорошие маленькие примеры собраны.

Вчерашний урок - шаблон в 5 строк на YAML для агента на ADK уже доступен.

#Gemini #ADK #обучение
———
@tsingular
прикольная статистика по стоимости акций AI-инструментов для генерации кода.... чего-то не то намечается.... программисты перестали верить в ай яй?

https://t.me/russianchatbi/51109?thread=51104
https://t.me/russianchatbi/51104
Cursor за оверпрайс всё

Claudix - это расширение для Visual Studio Code, которое интегрирует Claude AI прямо в ваш редактор. Оно предлагает интерактивный интерфейс для общения, управление сессиями и анализ кода, что делает процесс программирования более удобным и эффективным.

🚀 Основные темы:
- Интерактивный чат с Claude Code
- Управление сессиями и история разговоров
- Интеллектуальный анализ кода
- Поддержка нескольких моделей Claude
- Реакция в реальном времени

📌 GitHub: https://github.com/Haleclipse/Claudix
👍1
Рейтинг текстовых процессоров под конец 2025 года:
1. Claude Opus 4.5. Очень дорого, но очень хорошо.
2. GPT 5.2. Extra High. Тоже очень дорого, очень хорошо, но очень медленно и подвисает часто. Хороша для рефакторинга кода от Opus'а
3. Gemini 3 Flash. Дёшево и очень сердито. Хороша для точечных правок, лучше чем Grok Code.

#llm
Лучшее, что случилось в моем vibecoding мире за последний месяц это создание телеграмм бота, который транслирует в обе стороны команды из Claude Code (текстом и голосовыми), а особенно скилл управления ToDoist. Ставить и управлять задачами на бегу стало в 100 раз удобнее.

Все это конечно на коленках, но становится очень отчетливо понятно куда придут персональные ассистенты от OpenAI и Anthropic

P.S. Особенно приятно, что так же голосом можно создавать новые скилы. Ассистент не умеет что-то - говоришь ему сделай вот такой скилл и теперь умеет.

#ai #agi #personal_assistant #claude

—————————
Мысли Рвачева
—————————