Модели, которые участвовали в тестировании
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:
Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.
Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.
Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.
Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
👍5
За эти деньги я реально мог нанять вагон индусов для разработки приложения. Или сделать самому — конечно, было бы проще)
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.
Не хотелось бы получить еще одного индуса))
🐳2
Пу-пу-пу!
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
Никогда такого не было, и вот опять)
Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)
Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)
У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.
Защита от этого:
В docker-compose уберите строку ports. Так доступ будет только из локалки.
Внутри докеров Ollama останется доступна по адресу:
http://ollama:11434
🔥5
Пользуетесь agentrouter?
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.
Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.
Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
👍1
Есть база пользователей Телеграм из бота и нужно проверить, кто заблокировал бота? Есть простое решение — отправить Action Typing. Если пользователь заблокировал бота или его аккаунт удалён — Телеграм вернёт ошибку.
👍2
Как я внедрял агента для поддержки пользователей:
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
👍3
😨😨😨 В общем, это пиздец. Других слов просто нет. 7 числа произошло какое-то обновление в n8n. Я его обновил, и все работало. Я считал, что так работало. Я заходил во все свои workflow, там все нормально отображалось, все нормально записывалось, сохранялось. То есть я видел все свои изменения, и все работало. Сегодня мне нужно было заново еще раз накатить обновление. Я запускаю обновление, захожу, а у меня пропало куда-то 4 дня. Просто их как будто вырезали. В итоге 5 часов я сейчас потратил на изучение всех логов, вообще всего, что только было возможно. И эти 4 дня потеряны. Я не очень много, в принципе, там чего добавил, наделал, но сам факт потерять 4 дня работы — ну, это ПЗДЦ!. В итоге изучение всей темы, из-за чего такое произошло: что произошло обновление в SQLite WAL mode deadlock + Redis queue → данные в памяти контейнера, но НЕ на диск . И после перезагрузки контейнера все нахрен стерлось. Поэтому, сохраняете все воркфлоу, обязательно на диск. Делайте копию хотя бы раз в день, просто нажать сохранить. Пускай лучше они у вас файликами будут.
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
😱6❤2👍1
Там все боты могут глючить не много сегодня.
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
👍1
Как не словить проблему с потерей данных после обновления n8n
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
database.sqlite-journal и он не пустой — скорее всего, база не пишется. Это тревожный звонок.Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
👍1
note.ivol.pro
Как я потерял 4 дня данных в n8n Docker и восстановил систему: подробн
Введение В ноябре 2025 года я столкнулся с критической потерей данных в продакшен-инстансе n8n, который работал в Docker, использовал SQLite и Redis в...
Подробно, кому интересно)
https://note.ivol.pro/p/kak-a-poteral-4-dna-dannyh-v-n8n-docker-i-vosstanovil-sis-1763008716
https://note.ivol.pro/p/kak-a-poteral-4-dna-dannyh-v-n8n-docker-i-vosstanovil-sis-1763008716
TechnoBlog of Ivan Olyansky
qwen3:30b-a3b-q4_K_M 17.3 Гб 2 карты p104-100. Карты для майнинга изначально, по 8 гб. Вся система кушает почти 400W скорость 22т/с - очень приятно работает. С такой моделью уже можно много чего придумать. + ограничил по вольтажу до 120W на карту. UPD.…
qwen3:30b-a3b-q4_K_M 49.3 т/с
qwen3:14b-q4_K_M 24,39 т/с (на одной карте работает)
phi3:14b-medium-128k-instruct-q5_K_M 22.65 т/с (тоже на одной карте запустилась )
mistral-small:24b 13.4 Гб. 15 т/с
gpt-oss:20b 52 т/с
Разница конечно колоссальная!
особенно Qwen3-30B-A3B-Q4_K_M в 2 раза быстрее.
карты нашел по 2500 с доставкой)
UPD
qwen3-coder:latest 52.82 т/с
карты по мощности чуть заглушил до 180W, что на скорости почти ни как не отразилось.
qwen3:14b-q4_K_M 24,39 т/с (на одной карте работает)
phi3:14b-medium-128k-instruct-q5_K_M 22.65 т/с (тоже на одной карте запустилась )
mistral-small:24b 13.4 Гб. 15 т/с
gpt-oss:20b 52 т/с
Разница конечно колоссальная!
особенно Qwen3-30B-A3B-Q4_K_M в 2 раза быстрее.
карты нашел по 2500 с доставкой)
UPD
qwen3-coder:latest 52.82 т/с
карты по мощности чуть заглушил до 180W, что на скорости почти ни как не отразилось.
👍2
Держите подробное сравнение )
https://note.ivol.pro/p/p102-100-za-5000-rublej-vs-rtx-4090-za-330000-cestnoe-sra-1763297799
https://note.ivol.pro/p/p102-100-za-5000-rublej-vs-rtx-4090-za-330000-cestnoe-sra-1763297799
note.ivol.pro
P102-100 за 5000 рублей vs RTX 4090 за 330000: честное сравнение произ
Две видеокарты P102-100 за 5,000 рублей показывают скорость флагманских GPU за копейки Вступление Недавно я провел эксперимент, который показал, насколько...
🔥6🐳1
Много букв)
https://note.ivol.pro/p/budzetnyj-ai-server-na-majning-gpu-test-p104-100-dla-loka-1763350701
https://note.ivol.pro/p/budzetnyj-ai-server-na-majning-gpu-test-p104-100-dla-loka-1763350701
note.ivol.pro
Бюджетный AI-сервер на майнинг-GPU: тест P104-100 для локальных LLM
Бюджетный AI-сервер на майнинг-GPU: тест P104-100 для локальных LLM TL;DR: Собрал inference-сервер на 2x P104-100 (8GB) за 5000₽. Qwen3-30B выдает 23 т/с,...
👍1
Если у вас Windows — https://whispertyping.com
Отличная программа для транскрибации.
Перебрал множество разных программ: то вставка не работает, то после пары фраз — плати))
Думал свою написать, но пока нет времени разбираться.
Суть программы. Зажимаешь две кнопки, диктуешь, и все, что ты надиктовал, вставляется там, где у тебя сейчас курсор, либо в буфер обмена.
Отличная программа для транскрибации.
Перебрал множество разных программ: то вставка не работает, то после пары фраз — плати))
Думал свою написать, но пока нет времени разбираться.
Суть программы. Зажимаешь две кнопки, диктуешь, и все, что ты надиктовал, вставляется там, где у тебя сейчас курсор, либо в буфер обмена.
🐳2
https://note.ivol.pro/p/test-p102-100-10gb-v-2-raza-bystree-p104-za-te-ze-den-gi-1763424888
и еще статья подробностей
и еще статья подробностей
note.ivol.pro
Тест P102-100 (10GB): в 2 раза быстрее P104 почти за те же деньги)
TL;DR: Поменял 2x P104-100 (8GB) на 2x P102-100 (10GB) по 2500₽/карта. Qwen3-30B — 49 т/с (было 23), GPT-OSS — 52 т/с (было 42). Разница колоссальная: в 2x...