Forwarded from Иван Олянский (Ivan)
@ProChallenge_bot — полностью обновил бота!
Переписал промпт и обновил модель.
Как и предполагал: GPT-4/GPT-5 от частых выполнений одного и того же задания начинают ходить по кругу, предлагая одно и то же действие)
Переписал промпт и обновил модель.
Как и предполагал: GPT-4/GPT-5 от частых выполнений одного и того же задания начинают ходить по кругу, предлагая одно и то же действие)
🐳2🤝1
Интересное наблюдение по блокировкам в России
Похоже, есть хостеры из "неправильных" стран, которые попали в немилость. И сейчас их блокируют пачками.
У меня сервер на Хетцнере — заблокирован. На Amazon — та же история. Определённые IP попадают под раздачу, вместе с ними ложатся обычные сайты.
Заметил закономерность: работаю с полуночи до 18:00, и каждый день около 15:00 начинаются проблемы с VPN. Причём с разными сервисами. Будто кто-то просыпается и начинает тестировать что-то на сетях.
Соединение отваливается, приходится перезапускать VPN, постоянные сбои. Наблюдаю это уже несколько дней подряд.
Кто-то ещё замечал такое?
Похоже, есть хостеры из "неправильных" стран, которые попали в немилость. И сейчас их блокируют пачками.
У меня сервер на Хетцнере — заблокирован. На Amazon — та же история. Определённые IP попадают под раздачу, вместе с ними ложатся обычные сайты.
Заметил закономерность: работаю с полуночи до 18:00, и каждый день около 15:00 начинаются проблемы с VPN. Причём с разными сервисами. Будто кто-то просыпается и начинает тестировать что-то на сетях.
Соединение отваливается, приходится перезапускать VPN, постоянные сбои. Наблюдаю это уже несколько дней подряд.
Кто-то ещё замечал такое?
💯3🥰1
Forwarded from Дмитрий
Промт создает AI-наставника для структурированного обучения с прогрессивной системой уроков и экзаменов.
Что делает промт
Превращает языковую модель в "MentorGPT" — персонального преподавателя, который:
Создает пошаговую программу обучения по выбранной теме
Проводит уроки с практическими заданиями
Тестирует знания через экзамены перед переходом к следующему уроку
Адаптирует сложность и темп под ваш уровень
Дает обратную связь и помогает исправить ошибки
Почему разбит на 3 части
Каждый блок выполняет свою функцию:
Часть 1 (роль и принципы): Устанавливает базовую методологию — прогрессивное обучение, экзамены на готовность, фокус на практике, обратная связь, кастомизация.
Часть 2 (структура программы): Описывает конкретную последовательность — от введения до финальной оценки, с четкими этапами для каждого урока.
Часть 3 (активация): Содержит инструкции для запуска — как начать диалог, собрать требования пользователя и построить персонализированную программу.
Как использовать
1. Вставьте весь промт в начало нового диалога с LLM (как системное сообщение или первое пользовательское)
2. Укажите тему обучения и цели (например: "Хочу изучить Python для анализа данных")
3. Следуйте программе: проходите уроки → выполняйте задания → сдавайте экзамены → переходите дальше
4. Получайте feedback и корректировки по ходу обучения
Разделение на блоки делает промт модульным — можно менять отдельные части без переписывания всего.
Преимущества PromptCode-формата (второй в прикреплённом файле):
Улучшенная читаемость для людей и команд
Более четкая структура разделов
Упрощенное редактирование и итерации
Потенциально лучшая производительность при правильной структуре
Практический совет
Переписывайте постепенно, тестируя каждую версию на реальных примерах. Современные LLM хорошо понимают как естественный язык, так и структурированные форматы (Markdown, JSON, YAML). Для вашего MentorGPT-промта переход на более компактный PromptCode-формат может даже улучшить четкость инструкций, если сохранить все критические директивы и примеры.
🔥4🥱1
Forwarded from Дмитрий
нейронка куратор в любой теме.txt
6.6 KB
Модели, которые участвовали в тестировании
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
👍5
За эти деньги я реально мог нанять вагон индусов для разработки приложения. Или сделать самому — конечно, было бы проще)
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
🐳2
Пу-пу-пу!
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
🔥5
Пользуетесь agentrouter?
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
👍1
Есть база пользователей Телеграм из бота и нужно проверить, кто заблокировал бота? Есть простое решение — отправить Action Typing. Если пользователь заблокировал бота или его аккаунт удалён — Телеграм вернёт ошибку.
👍2
Как я внедрял агента для поддержки пользователей:
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
👍3
😨😨😨 В общем, это пиздец. Других слов просто нет. 7 числа произошло какое-то обновление в n8n. Я его обновил, и все работало. Я считал, что так работало. Я заходил во все свои workflow, там все нормально отображалось, все нормально записывалось, сохранялось. То есть я видел все свои изменения, и все работало. Сегодня мне нужно было заново еще раз накатить обновление. Я запускаю обновление, захожу, а у меня пропало куда-то 4 дня. Просто их как будто вырезали. В итоге 5 часов я сейчас потратил на изучение всех логов, вообще всего, что только было возможно. И эти 4 дня потеряны. Я не очень много, в принципе, там чего добавил, наделал, но сам факт потерять 4 дня работы — ну, это ПЗДЦ!. В итоге изучение всей темы, из-за чего такое произошло: что произошло обновление в SQLite WAL mode deadlock + Redis queue → данные в памяти контейнера, но НЕ на диск . И после перезагрузки контейнера все нахрен стерлось. Поэтому, сохраняете все воркфлоу, обязательно на диск. Делайте копию хотя бы раз в день, просто нажать сохранить. Пускай лучше они у вас файликами будут.
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
😱6❤2👍1
Там все боты могут глючить не много сегодня.
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
👍1
Как не словить проблему с потерей данных после обновления n8n
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
database.sqlite-journal и он не пустой — скорее всего, база не пишется. Это тревожный звонок.Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
👍1