Михаил Омельченко
4.44K subscribers
748 photos
164 videos
4 files
537 links
Меня зовут Михаил Омельченко.
Я ментор и ex-CTO. 20 лет в IT.

Рассказываю о нейросетях, веб разработке, программировании и IT простым языком.

YouTube - https://www.youtube.com/c/DjangoSchool
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Veo 3 развлекается
Решил свою книгу по промпт-инжинирингу выложить на сайты. А там требуют fb2.

Соответственно следующие свои труды сразу буду делать адаптированные под этот формат.

Пойду писать автоматизацию на верное форматирование. Конверторы ужас творят.
Please open Telegram to view this post
VIEW IN TELEGRAM
Проверил оплату ChatGPT через МТС, работает.

Но лучше оплачивать через знакомых, если нет своей зарубежной карты. Так дешевле.
Расскажу на примере, как можно использовать нейронки для упрощения работы с контентом.

Канал веду давно. Темы постепенно накапливаются, постов много. Плюс есть клуб, для которого тоже нужно готовить материалы.
В какой-то момент понял, надо посмотреть, что у меня уже есть, и как это всё можно чуть более системно выстроить.

Чтобы проще планировать, не повторяться и не держать всё в голове.

С чего начал.
Экспортировал историю чата (канала).
Выгрузил, пришёл с этим к AI (здесь как раз помогает ChatGPT), спросил:
👉 Проанализируй посты в телеграм канале. Я загрузил файл.
В какой роли ты можешь помочь мне с разбором контента и планированием?


В процессе:
* проанализировали, какие темы уже хорошо раскрыты
* что из них "живёт" и продолжает интересовать людей (например: промпты, практические обзоры, личные мысли)
* что можно добавить: кейсы применения AI, примеры автоматизации в жизни и работе (буду усиливать эту часть)

Потом попросил помочь накидать структуру для контентного плана.

Разделили:
▫️ что удобно давать в канал,чтобы было интересно всем
▫️ что можно глубже разобрать для клуба, чтобы там был практический смысл и дополнительная польза

Сейчас у меня есть понятная сетка постов на неделю.
Не строгий "план-план", а ориентир, чтобы проще работать.

Плюс сделал для себя простую автоматизацию:
▪️ сбор полезных материалов по темам
▪️ подсказки по форматам постов
▪️ шаблоны для разных типов постов

Работает проще, чем кажется. Главное это правильно формулировать промпты.

Если интересно, в клубе расскажу подробнее:
* какие промпты использовал для анализа канала
* как выстроил для себя процесс планирования
* примеры шаблонов, которые сейчас применяю

Покажу прямо примеры промптов, чтобы каждый мог так разобрать свой канал, блог или проект.

P.S.
После анализа истории постов, нейронка понимает стиль автора и не дает рекомендации в стиле "я маркетолог сейчас продадим".

#ai #нейронныесети #контент #промпты #автоматизация
Появился интересный инструмент — OpenMemory.

Это модуль памяти для LLM, который работает локально и позволяет переносить контекст между разными нейросетями.

Пример: поработали в одном инструменте (в Claude или Cursor), задали какой-то контекст.
Потом открыли другой и у него есть доступ к прошлому контексту. Не приходится каждый раз объяснять заново.

Причём память работает локально. Можно контролировать, что сохраняется.

Поддерживается формат MCP. С ним уже работают Cursor, Claude, Windsurf и т.д.
Интеграция постепенно будет расширяться.

Инструмент в ранней стадии. Работает через локальный сервер (можно поднять, есть дока). Нужно немного разобраться, но в целом ничего сложного.

Ссылка на GitHub

#OpenMemory #ai #нейронныесети
MCP (Model Context Protocol) — это открытый протокол для унифицированной передачи контекста и инструментов большим языковым моделям (LLM). По сути, MCP задаёт единый “разъём” для интеграции вашего чат-бота или ассистента с любыми внешними сервисами: базами данных, API и инструментами автоматизации.

Зачем нужен MCP?
Вместо создания N×M коннекторов под каждую связку LLM и сервис, вы реализуете один протокол.
Это позволяет легко менять или добавлять инструменты без правок в ядре приложения.

Документация

#ai #нейросеть #tools #mcp
Какую проблему реально решает MCP

Когда подключаешь LLM к внешним сервисам, почти всегда начинается одно и то же: на каждый новый API или базу данных пишется свой отдельный коннектор.

Чем больше интеграций, тем больше разрозненного кода. Любое изменение или добавление инструмента — это правки в нескольких местах, потенциальные баги и лишние часы отладки.

MCP эту проблему убирает. Протокол задаёт единый стандарт описания инструментов для модели. Всё через декларативную схему.

Это упрощает поддержку и не ломает архитектуру. Проект становится более надёжным и масштабируемым. Упрощает подключение новых сервисов.

Где, по вашему опыту, MCP мог бы реально упростить жизнь или уже упростил?

#ai #нейросети #tools #automation #mcp
Разобрались, что такое MCP и зачем он нужен. Теперь как его внедрить в проект.

MCP — это не фреймворк, а протокол. Его задача стандартизировать взаимодействие модели с внешними инструментами.

Алгоритм такой:

1️⃣ Сначала определяете, какие инструменты или сервисы хотите "открыть" для модели. Например: CRM, БД, API внутренней системы.

2️⃣ Описываете эти инструменты в декларативном формате (JSON/YAML). Прописываете доступные методы, параметры, ограничения.

3️⃣ Подключаете MCP-сервер или клиент. Готовые SDK есть для Python, TypeScript, Java и т.д.

4️⃣ Интегрируете этот слой с вашей моделью. Поддержка MCP уже есть в популярных инструментах (LangChain, Semantic Kernel и др.).

5️⃣ Тестируете. При необходимости добавляете поддержку сложных сценариев — цепочек вызовов, откатов, проверок контекста.

Важно: MCP не заменяет логику бизнес-процессов — он делает так, чтобы модель могла безопасно и стандартизировано работать с внешними инструментами.


#ai #нейросети #tools #automation #mcp
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Генерирует в нейронке и выдает за авторский «полезный» контент

Я не скрываю что, создаю промпты с помощью LLM. Даже приводил пример мета-промпта.

Но я не выдаю сырой промпт от LLM.
Я в какой-то степени разбираюсь в промпт-инжиниринге и могу написать верный промпт.

LLM сокращает время на создание черновика, в принципе как и в других сферах мы их применяем.

Я адаптирую промпт. Убираю лишнее, дописываю или переформулирую. Тестирую, вношу правки и так до тех пор, пока не будет выдан нужный мне результат.
Получается ли что промпт, теперь авторский?

В создании контента так же. Поиск информации, создание черновика и т.д. могу доверить нейросети. Но весь текст, видео и т.д. созданы мною, под моей редактурой. Нейросеть не ведет мои каналы.

Нейросети для меня как помощник, который делает черновую работу и сокращает время на реализацию.

Ссылки для двух постов выше были найденные ChatGPT.

Считать ли этот контент авторским?
Как писать промпты для думающей модели

Модели о-серии (o3, o4-mini) описываются самой OpenAI как reasoning models. Они решают сложные задачи, "думая" внутри себя, а не только генерируя текст.

OpenAI прямо предупреждает: не добавляйте в запросы фразы вроде "Давай подумаем шаг за шагом". У таких моделей уже есть внутренний chain-of-thought. Дополнительная инструкция может ухудшить ответ.

Лучшие результаты даёт лаконичный запрос, где достаточно контекста и чётко сформулирован вопрос. Избегайте двусмысленностей.

OpenAI советует начинать промпт с основной инструкции (роли, задачи), а потом при необходимости добавлять уточнения или контекст, так модель быстрее "понимает" цель.

Чек-лист
▪️ Роль → задача → (при необходимости) дополнительный контекст.
▪️ Никаких "Думай пошагово"
▪️ Формулировки чёткие, без "воды".
▪️ После ответа уточняйте запрос, а не переписывайте его заново, итерации полезны.

Источник
Cookbook

#ai #нейросети #chatgpt
Как писать промпты для "не думающих" моделей

Под "не думающими" моделями OpenAI подразумевает GPT-4o, GPT-4.1 и их mini-версии. Эти модели не создают скрытую внутреннюю цепочку рассуждений, поэтому им полезно давать подсказку "думай пошагово" и задавать чёткую структуру.

Фраза "Давай подумаем шаг за шагом" (chain-of-thought) помогает модели разложить задачу на этапы, улучшая качество ответа.

Совет: поместите эту фразу в конце промпта, чтобы сначала дать инструкции, а затем указать, как рассуждать.


OpenAI рекомендует начинать промпт с главной инструкции и отделять её от контекста символами ### или """. Так модель быстрее улавливает задачу.

Уточняйте желаемый формат, длину, стиль и т. д. Чем точнее описание, тем меньше "творчества" и лучше результат.

Модели лучше следуют формату, если вы показываете пример (few-shot). Например, показать шаблон JSON или образец списка.

Начинайте с одного короткого запроса (zero-shot). Если ответ неточный, добавьте пару примеров (few-shot). Это официально рекомендуемый порядок итераций.

Даже без скрытого "рассуждения", GPT-4.1 подчиняется чётким инструкциям. Достаточно одного ясного предложения, чтобы "перенастроить" модель на желаемое поведение.

Источники
GPT-4.1 гайд
Best practices


#ai #нейросети #chatgpt
Полноценный промпт — это не всегда просто две-три фразы.

Он похож на чёткое техническое задание: сначала задаёт роль модели, затем формулирует задачу, перечисляет ограничения и описывает формат ответа.

В официальных рекомендациях OpenAI подчёркивается, что запрос должен быть "ясным и конкретным" и содержать достаточно контекста, иначе модель теряется в догадках.

Такой промпт часто длиннее, потому что каждое требование или пример экономит вам итерации: модель сразу понимает, что от неё ждут.

В руководстве советуют дробить многошаговые инструкции на короткие пункты и разделять их делимитерами, так читаемость и точность выше.

Но длина не равна пользе. "Вода" — это текст без новой инструкции, контекста или формата. Создаёт шум, сдвигает внимание модели.

Если начать с обращения "Привет, мой дорогой и любимый ИИ, надеюсь, у тебя отличное настроение…", токенов станет больше, а смысл тот же. Убирайте такие части.

Пример из Cookbook о "meta prompting" показывает, как из короткого запроса ("Сделай резюме статьи") поэтапно строится длинный, но структурированный промпт.
Ответ становится лучше именно потому, что каждый элемент служит цели.

Чёткий промпт
Ты — HR-менеджер международной компании. Подготовь письмо-отказ кандидату на позицию data-аналитика.  
Тон: уважительный, деловой.
Язык: русский.
Структура:
1) благодарность, 2) краткая причина отказа, 3) пожелание успехов.
Длина: 120–150 слов.
Не упоминай внутренние процессы отбора.



Источники
Best practices for prompt engineering with the OpenAI API (п. 2 "Put instructions at the beginning…")

GPT-4.1 Prompting Guide (раздел Prompt Organization)

Enhance your prompts with meta prompting

#ai #нейросети #chatgpt