ChatGPTevelopment & Promptgramming
19 subscribers
185 photos
33 videos
5 files
294 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
Forwarded from Семейка продактов (Tatiana Sushchenko)
Media is too big
VIEW IN TELEGRAM
▶️ Запись эфира Вайбкодинг для продактов

Говорят, что сейчас люди без умения программировать, могут делать самые настоящие приложения. Антон Куликов, автор канала Быть продактом! и руководитель финтех-команды в платформе для локализации Smartcat (USA), поделился с нами своим опытом.

Ну что я могу сказать, единорогов 🦄 с вайбкодинга как ветром сдуло.

Если хочется именно вайбкод, приложение задуманное и сделанное вами, будет не так легко, не так быстро. Но - можно.
Говорили о правильных сценариях, о чувстве, когда своими руками создаёшь продукт.

Ссылки:
🟡Гайд по старту приложения для вайбкода
🟡Если это оказалось сложным - модная зеро-код платформа, которая может делать похожие вещи

Таня, [ex-B2B 👩‍💻]
Семейка продактов
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Нейроканал
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️Только что выкатили БЕСПЛАТНЫЙ аналог Cursor на базе DeepSeek V3. Его можно юзать прямо в браузере.

Что умеет:

• Пишет, редачит и оптимизирует ваш код.
• Создает веб-приложения практически любой сложности.
• Можно даже создавать сайты, игры и сразу хостить их — ассистент поможет запустить проект.

Бежим тестировать — сюда.

Делитесь в комментах, как попробуете. Интересны ваши впечатления.
Forwarded from Мастриды
Журнал Wired опубликовал результаты опроса 730 разработчиков разных уровней по поводу того, как они используют нейронки. Большинство делают это регулярно, многие (но пока далеко не все) используют ИИ для написания кода.

Любопытно, что мнения по поводу будущего ИИ (включая влияние нейросетей на трудоустройство респондентов) разделились примерно на 3 равные группы: "ИИ-оптимисты", "ИИ-агностики" и "ИИ-пессимисты".

Мой опыт с этим совпадает: среди многочисленных айтишников из моего круга общения есть как те, кто уверен, что в ближайшие годы их профессия почти полностью исчезнет из-за ИИ, так и те, кто убеждён, что полностью всё автоматизировать никогда не выйдет. Что ж, время покажет!

Материал Wired: https://www.wired.com/story/how-software-engineers-coders-actually-use-ai/

#ИИ_мастрид #тренд_мастрид
Forwarded from Градиент обреченный (Sergei Averkiev)
А никто не начал использовать Gemini 2.5 Pro для кодинга?

В Cursor'e он уже есть, попробовал его пару дней, работает ощутимо лучше Claude'а. Как-будто меньше кода генерирует и при этом чаще попадает в то, что просишь.
Forwarded from AI-Движ
🖥 Как быстро починить код, который присылает нейронка

Если создаете приложения в Cursor, Windsurf и подобных и часто получаете нерабочий код, отправляйте в нейронку промпт ниже:

Reflect on 5-7 different possible sources of the problem, distill those down to 1-2 most likely sources, and then add logs to validate your assumptions before we move onto implementing the actual code fix


С ним нейросеть:

1️⃣ Выделит 5–7 вариантов, из-за которых может возникать ошибки

2️⃣ Проанализирует возможные проблемы и сузит круг потенциальных проблем до 1–2 наиболее вероятных

3️⃣ Добавит логи, что проверить свои предположения перед исправлением кода

4️⃣ Не будет вносить исправления до конца анализа, чтобы не сделать новую ошибку

Нейросети | Маркетинг
Google готовит Sec-Gemini v1 - специализированную модель для кибербеза

Модель натренирована на данных о уязвимостях и может анализировать исходный код, обнаруживать баги и создавать эксплойты.

Уже тестируется внутри Google – инженеры используют её для поиска уязвимостей и защиты инфраструктуры.

Внешним пользователям доступна в Trusted Tester Program.

#Cybersecurity #SecGemini #безопасность #Google
———
@tsingular
This media is not supported in your browser
VIEW IN TELEGRAM
Google запустил Firebase Studio для генерации приложений

Агентская среда Firebase Studio использует Gemini для генерации прототипов приложений.

Инструмент способен выполнять такие задачи как тестирование, рефакторинг, объяснение кода и написание документации. Кроме генерации с нуля, Firebase Studio может работать с кодом из ваших репозиториев.

Попробовать можно здесь: https://studio.firebase.google.com/
Forwarded from DevOps
🚀 Docker представил Model Runner — локальный запуск ИИ-моделей в один клик​

Docker анонсировал Model Runner — новый инструмент, позволяющий запускать и тестировать модели искусственного интеллекта (ИИ) локально, прямо из вашей текущей рабочей среды. Теперь разработчики могут легко интегрировать ИИ в свои приложения без необходимости сложной настройки или использования облачных сервисов.​

🔧 Основные возможности:
Локальный запуск моделей: Возможность запускать модели ИИ прямо на вашем компьютере без необходимости подключения к облаку.​

🟡Интеграция с Docker: Использование знакомых инструментов Docker для управления ИИ-моделями.​

🟡Поддержка популярных моделей: Возможность загрузки и использования моделей от ведущих поставщиков, таких как Hugging Face.​

🟡OpenAI-совместимый API: Интерфейс, совместимый с API OpenAI, облегчает интеграцию моделей в существующие приложения.​

✔️ Как начать:
Установите Docker Desktop версии
Включите функцию Model Runner в настройках Docker Desktop.​

Используйте команду docker model pull для загрузки нужной модели.​

Запустите модель с помощью команды docker model run.

https://www.docker.com/blog/introducing-docker-model-runner/

@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Инжиниринг Данных (Dmitry)
В телеграм-каналах на техническую тематику появляется всё больше информации про использование AI для прикладных задач: про требования при приёме на работу, про отбор кандидатов, которым разрешено выполнять тестовые задания с использованием AI.

Нравится, не нравится — терпи, моя красавица нужно привыкать к новой реальности, где AI становится ещё одним инструментом в вашем арсенале, который помогает быть сверхэффективным.

Вы можете стать гораздо продуктивнее с AI, если будете понимать, как он работает, и просто делегировать ему часть задач. Пока что эти инструменты требуют контроля и проверки, но в будущем ситуация может сильно измениться — и уже они будут контролировать и проверять нас 🙂

За последние несколько дней с помощью AI я:

- Насоздавал dbt-моделей (SQL, YAML) в нескольких проектах — это сотни строк кода, написанных за меня;

- Конвертировал 15 таблиц из SQL Server в Snowflake и создал Snowflake Stored Procedures с MERGE;

- Контрибьютил в репозиторий с Protobuf и Go, имея минимальные знания по этим технологиям;

- Разрулил проблемы с PyTest в Dagster;

- Участвовал в двух хакатонах, где использовались хранилища данных и LLMs;

- Занимался troubleshooting’ом всего, что ломалось и не работало;

- И многое другое.

Физически всё это было бы невозможно сделать за такой короткий срок.

Каждый раз, когда работаю с Cursor AI, думаю: «Всё классно», — но пока Cursor не может сам выполнять запросы к базе данных «из коробки».

То есть, пока что еще много COPY-PASTE (ручного труда).

И вот тут бы отлично подошел бы MCP. Как раз про него свежая статья - MCP Protocol: a new AI dev tools building block

- MCP — это как USB-C для ИИ-инструментов: универсальный интерфейс для подключения внешних систем к LLM-интегрированным IDE.

- MCP делает возможным, например, обращаться к базе данных напрямую из редактора кода, без переключения на PgAdmin или другие GUI-инструменты.

- Используя MCP, IDE может автоматически обращаться к БД, находить нужные таблицы, строить SQL-запросы и интерпретировать результаты, помогая разработчику.

- MCP вдохновлён Language Server Protocol (LSP) от Microsoft, который сделал возможной легкую интеграцию поддержки языков программирования в IDE.

- MCP быстро набрал популярность: VS Code, Cursor, Windsurf, Zed, Claude Desktop, Neovim и др. уже поддерживают MCP или планируют.

- Разработчики могут “разговаривать” с базами данных, CI/CD, системами фич-флагов и т.п. на естественном языке прямо в IDE.

- Протокол ещё очень сырой, но потенциал — огромный: как для повышения продуктивности разработчиков, так и для развития ИИ-агентов.

🎯 Основная идея:
Разработчику больше не нужно переключаться между инструментами. Он может задавать вопросы на естественном языке прямо в IDE, а LLM, используя MCP, под капотом подключается к нужным системам (БД, тикетинг и т.п.) и возвращает результат.
Forwarded from Хабр / ML & AI
[Перевод] Cursor vs Windsurf vs GitHub Copilot

Искусственный интеллект уже давно перестал быть лишь трендом и стал важным инструментом для разработчиков. В этой статье мы сравним три популярных AI-помощника для программирования: GitHub Copilot, Cursor и Windsurf. Каждый из них предлагает уникальные возможности для автоматизации рутинных задач, таких как автозаполнение кода, его генерация и улучшение рабочих процессов в IDE. Мы подробно рассмотрим, как эти решения помогают ускорить разработку и какие особенности отличают их друг от друга, чтобы вы могли выбрать подходящий инструмент для своих задач.

Читать далее

#github_copilot #cursor #windsurf #ии_помощники #разработка | @habr_ai
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
🚀 OpenAI выпускает GPT-4.1 — новый уровень!

OpenAI представили GPT-4.1, и это не просто апдейт — это серьёзный шаг вперёд.
Модель с контекстным окном в 1 МИЛЛИОН токенов (да, догнали Gemini спустя год!) и возможностями на уровне (а то и выше) топовых open-source моделей вроде o3-mini — и всё это без цепочек рассуждений.

GPT-4.1 уже показывает отличные результаты по кодингу и бенчмаркам.
⚠️Но есть нюанс: доступна только через API, в чатах OpenAI (пока) её не будет.

А вайбкодеры сегодня принимайте подарок!🎁

Целую неделю GPT-4.1 можно использовать бесплатно в Windsurf — это альтернатива Cursor с полноценной интеграцией новой модели.

Это первая базовая модель, которая по коду реально обходит многие хайповые open-source решения. Отличный повод затестить и вкатиться в новую волну вайб-кодинга.

🎚 GPT-4.1 уже здесь, но только для разработчиков. Остальным придётся немного подождать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Мы не просто «внедряем ChatGPT». Мы расширяем пайплайн и часть инструментов разработчика, IDE, например. LLM теперь не фича — это часть toolchain. Такой же как Git, Docker и kubectl. Ты не просто пишешь код — ты ведёшь диалог с моделью, которая умеет генерировать паттерны, валидировать бизнес-логику, резюмировать PR, устранять циклические зависимости, даже подсказывать, где у тебя state leaking.

Выглядит как магия — по сути, это новый runtime. И ты, как инженер, должен это осознавать как инженер, а не как юзер. Раньше attack surface был:
— network layer
— open ports
— exposed S3
— слабая авторизация в GraphQL

Теперь — новая плоскость: prompt layer. Ты бахаешь в LLM свой main.py, .env, фрагмент SQL-дампа, кусок docker-compose с кредами. И всё. Запрос уехал

Ты шифруешь данные, а потом тебе DevOps заливает в GPT конфиг Vault с root-токеном, чтобы «понять, почему не деплоится». Поверхность атаки — это уже не сеть. Это VSCode + привычка “спросить у ИИ” без башки.

О чём я в последнее время думаю, так это о promt-ops и промптах в репе, как код. ИИ — это уже не тулза. Это dependency. У него latency, side effects, и его тоже надо дебажить

——————
Менеджер? Давай сюда!
Ищи работу здесь
Технологии и архитектура
Forwarded from 🏆 Data Feeling | AI (Aleron Milenkin)
🪐 Cursor & статистика самых популярных среди разработчиков моделей

Топ-5 самых популярных:

1. Claude 3.7 Sonnet
2. Gemini 2.5 Pro
3. Claude 3.5 Sonnet
4. GPT-4.1
5. GPT-4o

Топ-5 быстрее всего набирающих популярность:

1. o3
2. o4-mini
3. DeepSeek 3.1
4. GPT-4.1
5. Grok 3

🎚️ Пользуемся! Кстати, на днях основатель Cursor заявил, что сейчас их кодовый агент генерирует порядка миллиарда строк кода в день (и это только те, которым пользователь поставил апрув).

Это при том, что во всем мире ежедневно пишется всего несколько миллиардов строчек 🧑‍💻🔥
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from 5 minutes of data
Новые AI стали ошибаться чаще, чем их предшественники.

Недавно американская технологическая компания OpenAI представила новейшие большие языковые модели искусственного интеллекта, получившие названия o3 и o4-mini.

Однако, как показали тесты o3 и o4-mini, по-видимому, сделали значительный шаг назад: они склонны придумывать - или галлюцинировать - сильнее, чем их более ранние версии.

По данным издания TechCrunch, новые модели OpenAI противоречат исторической тенденции, согласно которой каждая новая модель давала все меньше галлюцинаций, чем предыдущая, что позволяет предположить, что OpenAI теперь движется в неверном направлении.

Согласно результатам внутреннего тестирования OpenAI, o3 и o4-mini склонны к галлюцинациям чаще, чем старые модели, включая o1, o1-mini и даже o3-mini. Модель o3 выдала 33% ошибок на тесте точности компании. Это примерно вдвое больше, чем у предыдущих моделей OpenAI. Тогда, как o4-mini показала еще более худший результат - 48%.

Хуже того, специалисты компании, похоже, не до конца понимают, причины проблем. Согласно их техническому отчету, необходимы дополнительные исследования, чтобы понять причину этих ошибок.

А вы замечали, что модели чаще стали выдавать не правильные ответы?