Codex — автономный агент для разработки
C 3 июня 2025 г. доступен подписчикам ChatGPT Plus.
Он анализирует репозитории GitHub, редактирует код, запускает тесты и формирует pull-request’ы внутри изолированной песочницы, при необходимости получая ограниченный доступ в интернет.
OpenAI предупреждает о повышенном риске prompt-injection, поэтому советует включать сеть только для заранее разрешённых доменов, фильтровать ввод-вывод и оставлять итоговое ревью за разработчиком.
#ai #нейросеть #chatgpt #codex
C 3 июня 2025 г. доступен подписчикам ChatGPT Plus.
Он анализирует репозитории GitHub, редактирует код, запускает тесты и формирует pull-request’ы внутри изолированной песочницы, при необходимости получая ограниченный доступ в интернет.
OpenAI предупреждает о повышенном риске prompt-injection, поэтому советует включать сеть только для заранее разрешённых доменов, фильтровать ввод-вывод и оставлять итоговое ревью за разработчиком.
#ai #нейросеть #chatgpt #codex
This media is not supported in your browser
VIEW IN TELEGRAM
Veo 3 развлекается
Решил свою книгу по промпт-инжинирингу выложить на сайты. А там требуют fb2.
Соответственно следующие свои труды сразу буду делать адаптированные под этот формат.
Пойду писать автоматизацию на верное форматирование. Конверторы ужас творят.
Соответственно следующие свои труды сразу буду делать адаптированные под этот формат.
Пойду писать автоматизацию на верное форматирование. Конверторы ужас творят.
Проверил оплату ChatGPT через МТС, работает.
Но лучше оплачивать через знакомых, если нет своей зарубежной карты. Так дешевле.
Но лучше оплачивать через знакомых, если нет своей зарубежной карты. Так дешевле.
Расскажу на примере, как можно использовать нейронки для упрощения работы с контентом.
Канал веду давно. Темы постепенно накапливаются, постов много. Плюс есть клуб, для которого тоже нужно готовить материалы.
В какой-то момент понял, надо посмотреть, что у меня уже есть, и как это всё можно чуть более системно выстроить.
Чтобы проще планировать, не повторяться и не держать всё в голове.
С чего начал.
Экспортировал историю чата (канала).
Выгрузил, пришёл с этим к AI (здесь как раз помогает ChatGPT), спросил:
👉 Проанализируй посты в телеграм канале. Я загрузил файл.
В какой роли ты можешь помочь мне с разбором контента и планированием?
В процессе:
* проанализировали, какие темы уже хорошо раскрыты
* что из них "живёт" и продолжает интересовать людей (например: промпты, практические обзоры, личные мысли)
* что можно добавить: кейсы применения AI, примеры автоматизации в жизни и работе (буду усиливать эту часть)
Потом попросил помочь накидать структуру для контентного плана.
Разделили:
▫️ что удобно давать в канал,чтобы было интересно всем
▫️ что можно глубже разобрать для клуба, чтобы там был практический смысл и дополнительная польза
Сейчас у меня есть понятная сетка постов на неделю.
Не строгий "план-план", а ориентир, чтобы проще работать.
Плюс сделал для себя простую автоматизацию:
▪️ сбор полезных материалов по темам
▪️ подсказки по форматам постов
▪️ шаблоны для разных типов постов
Работает проще, чем кажется. Главное это правильно формулировать промпты.
Если интересно, в клубе расскажу подробнее:
* какие промпты использовал для анализа канала
* как выстроил для себя процесс планирования
* примеры шаблонов, которые сейчас применяю
Покажу прямо примеры промптов, чтобы каждый мог так разобрать свой канал, блог или проект.
P.S.
После анализа истории постов, нейронка понимает стиль автора и не дает рекомендации в стиле "я маркетолог сейчас продадим".
#ai #нейронныесети #контент #промпты #автоматизация
Канал веду давно. Темы постепенно накапливаются, постов много. Плюс есть клуб, для которого тоже нужно готовить материалы.
В какой-то момент понял, надо посмотреть, что у меня уже есть, и как это всё можно чуть более системно выстроить.
Чтобы проще планировать, не повторяться и не держать всё в голове.
С чего начал.
Экспортировал историю чата (канала).
Выгрузил, пришёл с этим к AI (здесь как раз помогает ChatGPT), спросил:
👉 Проанализируй посты в телеграм канале. Я загрузил файл.
В какой роли ты можешь помочь мне с разбором контента и планированием?
В процессе:
* проанализировали, какие темы уже хорошо раскрыты
* что из них "живёт" и продолжает интересовать людей (например: промпты, практические обзоры, личные мысли)
* что можно добавить: кейсы применения AI, примеры автоматизации в жизни и работе (буду усиливать эту часть)
Потом попросил помочь накидать структуру для контентного плана.
Разделили:
▫️ что удобно давать в канал,чтобы было интересно всем
▫️ что можно глубже разобрать для клуба, чтобы там был практический смысл и дополнительная польза
Сейчас у меня есть понятная сетка постов на неделю.
Не строгий "план-план", а ориентир, чтобы проще работать.
Плюс сделал для себя простую автоматизацию:
▪️ сбор полезных материалов по темам
▪️ подсказки по форматам постов
▪️ шаблоны для разных типов постов
Работает проще, чем кажется. Главное это правильно формулировать промпты.
Если интересно, в клубе расскажу подробнее:
* какие промпты использовал для анализа канала
* как выстроил для себя процесс планирования
* примеры шаблонов, которые сейчас применяю
Покажу прямо примеры промптов, чтобы каждый мог так разобрать свой канал, блог или проект.
P.S.
После анализа истории постов, нейронка понимает стиль автора и не дает рекомендации в стиле "я маркетолог сейчас продадим".
#ai #нейронныесети #контент #промпты #автоматизация
Появился интересный инструмент — OpenMemory.
Это модуль памяти для LLM, который работает локально и позволяет переносить контекст между разными нейросетями.
Пример: поработали в одном инструменте (в Claude или Cursor), задали какой-то контекст.
Потом открыли другой и у него есть доступ к прошлому контексту. Не приходится каждый раз объяснять заново.
Причём память работает локально. Можно контролировать, что сохраняется.
Поддерживается формат MCP. С ним уже работают Cursor, Claude, Windsurf и т.д.
Интеграция постепенно будет расширяться.
Инструмент в ранней стадии. Работает через локальный сервер (можно поднять, есть дока). Нужно немного разобраться, но в целом ничего сложного.
Ссылка на GitHub
#OpenMemory #ai #нейронныесети
Это модуль памяти для LLM, который работает локально и позволяет переносить контекст между разными нейросетями.
Пример: поработали в одном инструменте (в Claude или Cursor), задали какой-то контекст.
Потом открыли другой и у него есть доступ к прошлому контексту. Не приходится каждый раз объяснять заново.
Причём память работает локально. Можно контролировать, что сохраняется.
Поддерживается формат MCP. С ним уже работают Cursor, Claude, Windsurf и т.д.
Интеграция постепенно будет расширяться.
Инструмент в ранней стадии. Работает через локальный сервер (можно поднять, есть дока). Нужно немного разобраться, но в целом ничего сложного.
Ссылка на GitHub
#OpenMemory #ai #нейронныесети
MCP (Model Context Protocol) — это открытый протокол для унифицированной передачи контекста и инструментов большим языковым моделям (LLM). По сути, MCP задаёт единый “разъём” для интеграции вашего чат-бота или ассистента с любыми внешними сервисами: базами данных, API и инструментами автоматизации.
Зачем нужен MCP?
Вместо создания N×M коннекторов под каждую связку LLM и сервис, вы реализуете один протокол.
Это позволяет легко менять или добавлять инструменты без правок в ядре приложения.
Документация
#ai #нейросеть #tools #mcp
Зачем нужен MCP?
Вместо создания N×M коннекторов под каждую связку LLM и сервис, вы реализуете один протокол.
Это позволяет легко менять или добавлять инструменты без правок в ядре приложения.
Документация
#ai #нейросеть #tools #mcp
Какую проблему реально решает MCP
Когда подключаешь LLM к внешним сервисам, почти всегда начинается одно и то же: на каждый новый API или базу данных пишется свой отдельный коннектор.
Чем больше интеграций, тем больше разрозненного кода. Любое изменение или добавление инструмента — это правки в нескольких местах, потенциальные баги и лишние часы отладки.
MCP эту проблему убирает. Протокол задаёт единый стандарт описания инструментов для модели. Всё через декларативную схему.
Это упрощает поддержку и не ломает архитектуру. Проект становится более надёжным и масштабируемым. Упрощает подключение новых сервисов.
Где, по вашему опыту, MCP мог бы реально упростить жизнь или уже упростил?
#ai #нейросети #tools #automation #mcp
Когда подключаешь LLM к внешним сервисам, почти всегда начинается одно и то же: на каждый новый API или базу данных пишется свой отдельный коннектор.
Чем больше интеграций, тем больше разрозненного кода. Любое изменение или добавление инструмента — это правки в нескольких местах, потенциальные баги и лишние часы отладки.
MCP эту проблему убирает. Протокол задаёт единый стандарт описания инструментов для модели. Всё через декларативную схему.
Это упрощает поддержку и не ломает архитектуру. Проект становится более надёжным и масштабируемым. Упрощает подключение новых сервисов.
Где, по вашему опыту, MCP мог бы реально упростить жизнь или уже упростил?
#ai #нейросети #tools #automation #mcp
Разобрались, что такое MCP и зачем он нужен. Теперь как его внедрить в проект.
MCP — это не фреймворк, а протокол. Его задача стандартизировать взаимодействие модели с внешними инструментами.
Алгоритм такой:
1️⃣ Сначала определяете, какие инструменты или сервисы хотите "открыть" для модели. Например: CRM, БД, API внутренней системы.
2️⃣ Описываете эти инструменты в декларативном формате (JSON/YAML). Прописываете доступные методы, параметры, ограничения.
3️⃣ Подключаете MCP-сервер или клиент. Готовые SDK есть для Python, TypeScript, Java и т.д.
4️⃣ Интегрируете этот слой с вашей моделью. Поддержка MCP уже есть в популярных инструментах (LangChain, Semantic Kernel и др.).
5️⃣ Тестируете. При необходимости добавляете поддержку сложных сценариев — цепочек вызовов, откатов, проверок контекста.
Важно: MCP не заменяет логику бизнес-процессов — он делает так, чтобы модель могла безопасно и стандартизировано работать с внешними инструментами.
#ai #нейросети #tools #automation #mcp
MCP — это не фреймворк, а протокол. Его задача стандартизировать взаимодействие модели с внешними инструментами.
Алгоритм такой:
1️⃣ Сначала определяете, какие инструменты или сервисы хотите "открыть" для модели. Например: CRM, БД, API внутренней системы.
2️⃣ Описываете эти инструменты в декларативном формате (JSON/YAML). Прописываете доступные методы, параметры, ограничения.
3️⃣ Подключаете MCP-сервер или клиент. Готовые SDK есть для Python, TypeScript, Java и т.д.
4️⃣ Интегрируете этот слой с вашей моделью. Поддержка MCP уже есть в популярных инструментах (LangChain, Semantic Kernel и др.).
5️⃣ Тестируете. При необходимости добавляете поддержку сложных сценариев — цепочек вызовов, откатов, проверок контекста.
Важно: MCP не заменяет логику бизнес-процессов — он делает так, чтобы модель могла безопасно и стандартизировано работать с внешними инструментами.
#ai #нейросети #tools #automation #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Генерирует в нейронке и выдает за авторский «полезный» контент
Я не скрываю что, создаю промпты с помощью LLM. Даже приводил пример мета-промпта.
Но я не выдаю сырой промпт от LLM.
Я в какой-то степени разбираюсь в промпт-инжиниринге и могу написать верный промпт.
LLM сокращает время на создание черновика, в принципе как и в других сферах мы их применяем.
Я адаптирую промпт. Убираю лишнее, дописываю или переформулирую. Тестирую, вношу правки и так до тех пор, пока не будет выдан нужный мне результат.
Получается ли что промпт, теперь авторский?
В создании контента так же. Поиск информации, создание черновика и т.д. могу доверить нейросети. Но весь текст, видео и т.д. созданы мною, под моей редактурой. Нейросеть не ведет мои каналы.
Нейросети для меня как помощник, который делает черновую работу и сокращает время на реализацию.
Ссылки для двух постов выше были найденные ChatGPT.
Считать ли этот контент авторским?
Я не скрываю что, создаю промпты с помощью LLM. Даже приводил пример мета-промпта.
Но я не выдаю сырой промпт от LLM.
Я в какой-то степени разбираюсь в промпт-инжиниринге и могу написать верный промпт.
LLM сокращает время на создание черновика, в принципе как и в других сферах мы их применяем.
Я адаптирую промпт. Убираю лишнее, дописываю или переформулирую. Тестирую, вношу правки и так до тех пор, пока не будет выдан нужный мне результат.
Получается ли что промпт, теперь авторский?
В создании контента так же. Поиск информации, создание черновика и т.д. могу доверить нейросети. Но весь текст, видео и т.д. созданы мною, под моей редактурой. Нейросеть не ведет мои каналы.
Нейросети для меня как помощник, который делает черновую работу и сокращает время на реализацию.
Ссылки для двух постов выше были найденные ChatGPT.
Считать ли этот контент авторским?