ChatGPTevelopment & Promptgramming
19 subscribers
181 photos
33 videos
5 files
293 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
Cursor запустил свою платформу для обучения.

Пока база, - про модели, галлюцинации, токены, контекст, инструменты и агентов.

Дальше в планах, - размышления, планирование, создание и работа с агентами, отладка и безопасность.

Осталось еще хостинг моделей и MCP хаб добавить и будет классический современный набор.

#Cursor #обучение
———
@tsingular
ахаха, у меня будет своя GPT5
изи катка

результат в комментарии.
Проверяйте :)

#юмор
———
@tsingular
Вайб-сингулярность.

Когда каждый может навайбкодить себе AGI

#мысли #AGI
———
@tsingular
Forwarded from Data Secrets
⚡️ Вышел Claude Sonnet 4.5

Теперь у Anthropic снова SOTA модель для кодинга. Модель уверенно обгоняет GPT-5 на всех бенчмарках по программированию, на остальных идут почти вровень.

Также обновили Claude Code (ура!)

– Добавили новое расширения для VS Code
– Обновили интерфейс терминала
– Залили команду для быстрого возврата к предыдущему чекпоинту (или на несколько шагов назад) и команду для быстрого перехода к расширенному ризонингу
– Теперь агент прямо в терминале сможет создавать файлы, таблицы и диаграммы на основе ваших данных

https://www.anthropic.com/news/claude-sonnet-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Также Anthropic выпустили research preview LLM-операционки

Что-то подобное уже было у Google (мы писали тут). Идея та же: LLM пишет ПО на лету, по вашему запросу.

Тыкаете на какое-то приложение – оно поднимается с нуля без заготовленного заранее кода. Открываете файл – содержимое генерируется тут же. Пример на видео.

Это, конечно, не серьезный продукт, а скорее просто продвинутая демонстрация способностей и реклама для нового Sonnet 4.5.

Поиграться, правда, получится, только если вы пользователь тарифа Max, и только в течение 5 дней.

https://claude.ai/imagine
Forwarded from Сиолошная
Чуть более полугода назад у нас с Валерой был стрим про высказывание CEO Anthropic, мол, через полгода модели будут писать 90% кода. На стриме, как мне кажется, я очень хорошо описал некоторые из важных оговорок при оценке подобного рода высказываний:
— есть разница «могут» и «делают»
— это может быть применимо к определённым языкам программирования, а не всем
— часть подходов к разработке придётся пересмотреть, чтобы было проще интегрировать ИИ-инструменты
— это может быть применимо к свежим проектам, а не 15+ годичной давности
— это может быть применимо к проектам до определённого размера, а не кодовой базе всего Фейсбука, например

Сами Anthropic сейчас говорят, что Claude Code написан их же моделями на 90%.

Большинство заявлений о том, что «90% кода написано ИИ», исходят от разработчиков моделей / продавцов ИИ-инструментов, поэтому многие (не я) их отметают.

Aider, АИ-ассистент для программирования с открытым исходным кодом, который я как раз упоминал на стриме, от релиза к релизу то и дело перешагивает планки 75-80%. Неплохо!

И вот наткнулся на блог Armin Ronacher, создателя Flask, Jinja, Click и других крупных популярны проектов. Цитаты из поста (но рекомендую прочитать оригинал целиком):

— Что касается инфраструктурного компонента, который я начал разрабатывать в своей новой компании, то, пожалуй, больше 90% моего кода написано с помощью ИИ. Я не хочу вас убеждать — просто поделюсь тем, что узнал. Отчасти потому, что я подошел к этому проекту иначе, чем в своих первых экспериментах.

— Сервис написан на Go с небольшим количеством зависимостей. Сейчас в нём около 40 000 строк, включая Go, YAML, Pulumi и несколько специальных SDK-прослоек.

— Я установил высокую планку, особенно в плане надёжности работы. Я уже работал с подобными системами и знал, чего хочу.

— Я уделяю пристальное внимание основам архитектуры системы, структуре кода и взаимодействию с базами данных. Я невероятно самоуверен. Поэтому есть вещи, которые я не позволяю ИИ делать. Я начинал проект традиционным способом: проектирование системы, схема, архитектура. На этом этапе я не позволяю ИИ писать с нуля, а просто включаю его в свой цикл рассуждений. Это помогает мне видеть типовые ошибки, даже если я не доверяю LLM.

— Для кода, сгенерированного и поддерживаемого ИИ, я теперь получаю стек, который выглядит примерно так, как мне часто хотелось, но было слишком сложно сделать вручную.

— Не могу не подчеркнуть, насколько плохим может быть код агентов, если не быть осторожным. Хотя они понимают архитектуру системы и то, как что-то построить, они не могут смотреть на всю картину целиком. Вам постоянно нужно вносить правильную информацию в контекст.

— Легко создавать системы, которые кажутся правильными, но при использовании ведут себя неправильно. Вот пример: я попросил его создать ограничитель лимитов. Он «работал», но не имел джиттера и использовал неудачные решения по хранению данных. Легко исправить, если знаешь ограничители лимитов, но опасно, если не знаешь.

— Для меня это дошло до того, что я уже не представляю, как можно работать по-другому. Да, я, вероятно, смог бы обойтись без ИИ. Но я бы построил другую систему, потому что мне пришлось бы идти на другие компромиссы. Такой подход открывает возможности, которые я обычно пропускаю или откладываю.

— Исследование + разработка вместо «исследование, а разработка потом»: на некоторые вещи, на понимание которых у меня ушел бы день или два, теперь уходит 10–15 минут.

— Пишет ли ИИ 90% кода? Не знаю. Знаю только, что для меня в этом проекте ответ уже точно «да». В то же время, для меня ИИ не владеет кодом. Я всё равно проверяю каждую строчку, формирую архитектуру и несу ответственность за то, как всё это работает.

===

(обратите внимание, что ни о каком вайб-кодинге речи не идёт: только вдумчивая работа, где, как мне кажется, по сравнению с обычным процессом мозги приходится напрягать даже больше — пока LLM работает, ты думаешь)
🤖 Cursor 2.0: шаг к агентному программированию

Cursor выпустил крупное обновление — Cursor 2.0 и свою первую модель для кодинга под названием Composer.

Composer — frontier-модель, созданная специально для agentic coding. Она в 4 раза быстрее аналогов и способна завершать сложные многошаговые задачи менее чем за 30 секунд. Модель обучена с использованием codebase-wide semantic search, что делает ее особенно эффективной в работе с большими кодовыми базами.

Cursor 2.0 также представляет новый multi-agent интерфейс. Теперь работа организована вокруг агентов, а не файлов: можно запускать несколько агентов параллельно, используя git worktrees или удаленные машины. Интересный эффект — одновременная работа нескольких моделей над одной задачей повышает качество итогового результата.

Компания также добавила инструменты для быстрого ревью кода и встроенный браузер для автотестирования изменений.
Заметно, что Cursor становится не просто IDE, а полноценной средой для многомодельной работы с AI-агентами.

🔗 Source: https://cursor.com/blog/2-0
🔗 Download: https://cursor.com/download

#ai #coding #agents #cursor

—————————
Мысли Рвачева
—————————
Что такое Context7 и зачем он нужен

Context7 — это MCP-сервер от Upstash, который подсовывает LLM актуальные версии документации и рабочие примеры прямо в контекст генерации.

Зачем? Потому что обычные LLM (ChatGPT, Claude и пр.) страдают от знаний среза — библиотека обновилась, API изменился, а модель всё ещё предлагает то, что "знает". Context7 решает это: подтягивает официальную доку + пример кода, фильтрует по версии, ранжирует релевантное, и подмешивает в prompt.

Типичный сценарий: ты в Cursor или другом MCP-клиенте пишешь “use context7”, дальше модель сама дергает resolve-library-id, get-library-docs и подсовывает нужные куски документации в контекст генерации.

Плюсы: меньше бредовых API, меньше правок, удобнее работать с быстро меняющимися библиотеками (Next.js, Tailwind, Zod и др.)

Минусы: может выбрать не то, надо контролировать prompt.

Объяснение
— Разработчик работает в IDE (например, Cursor или VSCode с поддержкой MCP). Он пишет запрос вроде «как использовать FastAPI middleware», IDE шлёт его в Context7 MCP Server.
— Context7 — мозг, который знает, где искать правду. Сначала он маппит запрос к нужной библиотеке и версии, потом идёт в Docs & Repos — официальные источники документации.
— Если документ уже есть в кэше, Context7 отдаёт его сразу. Если нет — скачивает свежие данные, фильтрует, очищает, добавляет примеры.
— Ранжировщик отбирает самое релевантное и подсовывает результат LLM (например, ChatGPT или Claude).
— LLM получает контекст — не абстрактный, а актуальный — и пишет код, который реально работает в твоей версии библиотеки.
— Результат возвращается обратно в IDE: разработчик видит сгенерированный код, а Context7 молча ускоряет следующий запрос из кэша.


Пример на Python: попросим LLM с Context7
Представим, ты работаешь с библиотекой starlette (версии 0.27). Ты хочешь, чтобы модель написала middleware, проверяющее заголовок X-Auth.

Напиши middleware для starlette 0.27, который проверяет заголовок X-Auth и возвращает 401, если его нет. use context7


Context7 внутри подтянет секцию из официальной документации starlette.middleware, выберет релевантный пример к версии 0.27, и передаст LLM. Получишь примерно такой код:

from starlette.middleware.base import BaseHTTPMiddleware
from starlette.requests import Request
from starlette.responses import JSONResponse

class AuthHeaderMiddleware(BaseHTTPMiddleware):
async def dispatch(self, request: Request, call_next):
auth = request.headers.get("X-Auth")
if not auth:
return JSONResponse({"detail": "Unauthorized"}, status_code=401)
# можно проверить значение auth тут
response = await call_next(request)
return response


Если библиотека обновится и в версии 0.28 BaseHTTPMiddleware будет помечен как deprecated, Context7 подставит именно нужный кусок и LLM не будет юзать старый API.

Source

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from New Yorko Times (Yury Kashnitsky)
This media is not supported in your browser
VIEW IN TELEGRAM
Первые ощущения от Antigravity
#google

Ну, космос, конечно. Покажи это себе самому образца 5-летней давности.

Как минимум три отличия Antigravity от привычной IDE с нависшим над ней кодинг-агентом:

- Можно запускать несколько агентов параллельно. Отдал одному фронт, второму бэк, третьему рисеч. Возвращаешься результат проверять;
- Antigravity сам запускает приложение в песочнице, тестирует, прям как человек, отчитывается, что сработало, что нет, потом пишет отчет в файлик Walkthrough. На видео как раз это происходит – когда браузер синей рамкой подсвечивается, это Antigravity захватил управление;
- приятные мелочи в виде отдельных файлов Task, Implementation Plan и Walkthrough, мысли и действия агентов еще более прозрачны.

Можно еще вот это видео глянуть, попробовать повторить.

Для демки с кубиком рубика пойдет, дальше надо попробовать в реальном проекте. Тут скепсис еще есть.
Forwarded from Vlad: Bit by Bit 🅴
Анонс! вебинар по вайбкодингу: создай сайт на Lovable + n8n за час

📅 в эту пятницу: 21.11

⏱️ 19:00 МСК / 5PM CET

Научу вас создавать крутые сайты в Lovable с интеграцией n8n

1. Найдем вдохновение в Pinterest
2. Создадим анимацию
3. Сделаем простой сайт
4. Интегрируем его с n8n, чтобы он мог выполнять какие-то функции
5. Захостим его

примеры сайтов: хакатон и сайт фонда

афиша ai generated, не обращайте внимание на какие-то описки, интеллект пока еще искусственный, зато на создание ушло ровно 1 минута 💙

для записи пишите мне в тг @vladislavterzi
Forwarded from Vlad: Bit by Bit 🅴
уже 30 регистраций меньше, чем за один день!

на прошлый вебинар я собрал худо-бедно 25 за неделю 😭

очень хочу довести это число до 100, поэтому будет круто, если вы запишитесь сами, а еще круче будет, если перешлете вашим друзьям, кому может быть интересно тоже

я не рассказал про плюшки!

0. вебинар полностью бесплатный…

1. всем, кто запишется, я отправлю запись вебинарчика, чтобы можно было потом пересмотреть и спокойно все повторить — но пришлю ТОЛЬКО тем, кто сейчас запишется

2. отправлю гайд со всеми ссылками, чтобы опять же можно было легко все найти, и все было в одном месте

3. дам свою рефералку на lovable, чтобы было +10 бесплатных кредитов. на пробный сайт, который мы будем делать — хватит за глаза

4. расскажу, про процесс создания крутых генераций фото и анимаций / видео, чтобы они цепляли глаз

5. покажу, как очень просто интегрировать n8n в процесс, чтобы это был не просто лендинг, а полезная страничка, например для сбора контактов клиентов или, например, сайт для брифинга

6. ну и дам скидочку на год бесплатного n8n

для записи напишите мне «вебинар» в тг @vladislavterzi приходите 💙
Контекст — это всё

То, какой результат вы получаете от нейросетей, напрямую связан с умением подавать в них правильный контекст.

В четверг 27 ноября в 16 часов по Москве проведу открытую лекцию по контексту нейросетей.

Лекция для новичков. Ничего не нужно знать про сети и то, как они работают. Подойдет как разработчикам и сотрудникам ИТ компаний, так и не-айтишникам.

Вы выйдете с пониманием, как работают приложения на их основе, и как сделать свое.

— Как часто начинать новые чаты?
— Что такое страшные слова типа structured output, или mcp — простым языком?
— Какой длины должен быть промпт? (вы удивитесь)

Лекция бесплатная.

Регистрация тут
Forwarded from Сиолошная
Лёд тронулся, господа — WIRED пишет, что Meta планирует позволить кандидатам использовать ИИ во время собеседований по программированию.

— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»

Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно — опытные программисты опасаются, что следующее поколение программистов будет больше склонно к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).

Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую

Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
Forwarded from Data Secrets
⚡️ Иии… Anthropic выпустили Claude Opus 4.5

Это первая модель, которая пробила планку 80 на SWE bench verified. С ее 80.9% это теперь уверенная SOTA по кодингу.

Модель уже доступна в API, и, что самое приятное, цена относительно предыдущего Opus упала! Было 15$/75$, стало 5/25, ощутимое понижение.

Плюс, модель снова стала экономичнее относительно токенов: на среднем уровне ризонинга она достигает уровня Sonnet 4.5, используя на 76% меньше токенов. А при выкрученном на максимум бюджете обходит Sonnet аж на 4.3 процентных пункта (SWE bench), используя на 48% меньше токенов.

Anthropic пишут, что скормили Opus 4.5 внутренний экзамен, который они дают кандидатам при устройстве на работу. За 2 часа модель справилась с ним лучше, чем любой человек когда-либо в истории стартапа.

Что касается апдейтов в продукте:

В Claude App добавили сжатие контекста, как в новом Codex. При достижении лимита старый контекст суммаризуется и передается в новое контекстное окно, и вы не упираетесь в конец диалога. Кроме того, теперь в десктопное приложение завезли Claude Code, и там его можно параллелить на разные задачки.

– Из беты вышли Claude для Chrome и для Excel.

– Теперь можно самостоятельно контролировать время размышлений, есть режимы low, high и medium.

🔥 www.anthropic.com/news/claude-opus-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Ок, настал тот момент когда у меня на одним и тем же проектом параллельно работают кодинг агенты OpenAI Codex и Claude Code. Дивный мир.

#ai #agi

—————————
Мысли Рвачева
—————————