Есть база пользователей Телеграм из бота и нужно проверить, кто заблокировал бота? Есть простое решение — отправить Action Typing. Если пользователь заблокировал бота или его аккаунт удалён — Телеграм вернёт ошибку.
👍2
Как я внедрял агента для поддержки пользователей:
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).
Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
👍3
😨😨😨 В общем, это пиздец. Других слов просто нет. 7 числа произошло какое-то обновление в n8n. Я его обновил, и все работало. Я считал, что так работало. Я заходил во все свои workflow, там все нормально отображалось, все нормально записывалось, сохранялось. То есть я видел все свои изменения, и все работало. Сегодня мне нужно было заново еще раз накатить обновление. Я запускаю обновление, захожу, а у меня пропало куда-то 4 дня. Просто их как будто вырезали. В итоге 5 часов я сейчас потратил на изучение всех логов, вообще всего, что только было возможно. И эти 4 дня потеряны. Я не очень много, в принципе, там чего добавил, наделал, но сам факт потерять 4 дня работы — ну, это ПЗДЦ!. В итоге изучение всей темы, из-за чего такое произошло: что произошло обновление в SQLite WAL mode deadlock + Redis queue → данные в памяти контейнера, но НЕ на диск . И после перезагрузки контейнера все нахрен стерлось. Поэтому, сохраняете все воркфлоу, обязательно на диск. Делайте копию хотя бы раз в день, просто нажать сохранить. Пускай лучше они у вас файликами будут.
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
😱6❤2👍1
Там все боты могут глючить не много сегодня.
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
👍1
Как не словить проблему с потерей данных после обновления n8n
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.
Проверьте прямо сейчас:
Зайдите в папку с файлами проекта. Если там лежит файл
database.sqlite-journal и он не пустой — скорее всего, база не пишется. Это тревожный звонок.Что делать:
1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их
Мой совет:
После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.
Сначала миграция — потом обновление контейнера.
Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)
Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
👍1
note.ivol.pro
Как я потерял 4 дня данных в n8n Docker и восстановил систему: подробн
Введение В ноябре 2025 года я столкнулся с критической потерей данных в продакшен-инстансе n8n, который работал в Docker, использовал SQLite и Redis в...
Подробно, кому интересно)
https://note.ivol.pro/p/kak-a-poteral-4-dna-dannyh-v-n8n-docker-i-vosstanovil-sis-1763008716
https://note.ivol.pro/p/kak-a-poteral-4-dna-dannyh-v-n8n-docker-i-vosstanovil-sis-1763008716
TechnoBlog of Ivan Olyansky
qwen3:30b-a3b-q4_K_M 17.3 Гб 2 карты p104-100. Карты для майнинга изначально, по 8 гб. Вся система кушает почти 400W скорость 22т/с - очень приятно работает. С такой моделью уже можно много чего придумать. + ограничил по вольтажу до 120W на карту. UPD.…
qwen3:30b-a3b-q4_K_M 49.3 т/с
qwen3:14b-q4_K_M 24,39 т/с (на одной карте работает)
phi3:14b-medium-128k-instruct-q5_K_M 22.65 т/с (тоже на одной карте запустилась )
mistral-small:24b 13.4 Гб. 15 т/с
gpt-oss:20b 52 т/с
Разница конечно колоссальная!
особенно Qwen3-30B-A3B-Q4_K_M в 2 раза быстрее.
карты нашел по 2500 с доставкой)
UPD
qwen3-coder:latest 52.82 т/с
карты по мощности чуть заглушил до 180W, что на скорости почти ни как не отразилось.
qwen3:14b-q4_K_M 24,39 т/с (на одной карте работает)
phi3:14b-medium-128k-instruct-q5_K_M 22.65 т/с (тоже на одной карте запустилась )
mistral-small:24b 13.4 Гб. 15 т/с
gpt-oss:20b 52 т/с
Разница конечно колоссальная!
особенно Qwen3-30B-A3B-Q4_K_M в 2 раза быстрее.
карты нашел по 2500 с доставкой)
UPD
qwen3-coder:latest 52.82 т/с
карты по мощности чуть заглушил до 180W, что на скорости почти ни как не отразилось.
👍2
Держите подробное сравнение )
https://note.ivol.pro/p/p102-100-za-5000-rublej-vs-rtx-4090-za-330000-cestnoe-sra-1763297799
https://note.ivol.pro/p/p102-100-za-5000-rublej-vs-rtx-4090-za-330000-cestnoe-sra-1763297799
note.ivol.pro
P102-100 за 5000 рублей vs RTX 4090 за 330000: честное сравнение произ
Две видеокарты P102-100 за 5,000 рублей показывают скорость флагманских GPU за копейки Вступление Недавно я провел эксперимент, который показал, насколько...
🔥6🐳1
Много букв)
https://note.ivol.pro/p/budzetnyj-ai-server-na-majning-gpu-test-p104-100-dla-loka-1763350701
https://note.ivol.pro/p/budzetnyj-ai-server-na-majning-gpu-test-p104-100-dla-loka-1763350701
note.ivol.pro
Бюджетный AI-сервер на майнинг-GPU: тест P104-100 для локальных LLM
Бюджетный AI-сервер на майнинг-GPU: тест P104-100 для локальных LLM TL;DR: Собрал inference-сервер на 2x P104-100 (8GB) за 5000₽. Qwen3-30B выдает 23 т/с,...
👍1
Если у вас Windows — https://whispertyping.com
Отличная программа для транскрибации.
Перебрал множество разных программ: то вставка не работает, то после пары фраз — плати))
Думал свою написать, но пока нет времени разбираться.
Суть программы. Зажимаешь две кнопки, диктуешь, и все, что ты надиктовал, вставляется там, где у тебя сейчас курсор, либо в буфер обмена.
Отличная программа для транскрибации.
Перебрал множество разных программ: то вставка не работает, то после пары фраз — плати))
Думал свою написать, но пока нет времени разбираться.
Суть программы. Зажимаешь две кнопки, диктуешь, и все, что ты надиктовал, вставляется там, где у тебя сейчас курсор, либо в буфер обмена.
🐳2
https://note.ivol.pro/p/test-p102-100-10gb-v-2-raza-bystree-p104-za-te-ze-den-gi-1763424888
и еще статья подробностей
и еще статья подробностей
note.ivol.pro
Тест P102-100 (10GB): в 2 раза быстрее P104 почти за те же деньги)
TL;DR: Поменял 2x P104-100 (8GB) на 2x P102-100 (10GB) по 2500₽/карта. Qwen3-30B — 49 т/с (было 23), GPT-OSS — 52 т/с (было 42). Разница колоссальная: в 2x...
Сегодня вроде как Gemini 3 выйдет, по метрикам это прям 🔥
Ждем )🤞
И Grok 4.1 вышел, но его все еще нет на Api
Ждем )🤞
И Grok 4.1 вышел, но его все еще нет на Api
👍1
Вчера весь день убил на тесты. 🤦♂️
Задача была простая: накатить gpt-oss-20b-heretic. Хотел модели с полностью снятыми ограничениями, чтобы можно было задавать вообще любые вопросы без цензуры.
Итог?
Ни хрена не вышло. 5 штук перепробовал — ни одна модель не захотела нормально работать на моих железках - x2 p102-100 . Тупили страшно, падали, просто отказывались запускаться. Короче, нервы потрачены.
НО! Внезапно спасла ситуация вот эта находка:
👉 huihui_ai/qwen3-abliterated:30b-a3b
Вот она взлетела вообще великолепно. 🔥
Поспрашивал её про всякое... кхм, запрещенное. И знаете что? Она не читает мораль. Обычно AI сразу включают режим "я не могу, это неэтично, бла-бла-бла". А эта ведет диалог абсолютно свободно о чем угодно. Никаких тормозов.
А самое крутое — скорость. 52 токена в секунду! 🚀
Для 30B модели локально — это прям огонь. Летает.
Пу-пу-пу... С одной стороны, все пытаются ограничить AI, гайки закручивают, чтобы модель лишнего не сболтнула. А с другой — вот, пожалуйста. Полная свобода и доступ к любой информации здесь и сейчас.
В общем, забирайте и тестируйте, пока работает.
Задача была простая: накатить gpt-oss-20b-heretic. Хотел модели с полностью снятыми ограничениями, чтобы можно было задавать вообще любые вопросы без цензуры.
Итог?
Ни хрена не вышло. 5 штук перепробовал — ни одна модель не захотела нормально работать на моих железках - x2 p102-100 . Тупили страшно, падали, просто отказывались запускаться. Короче, нервы потрачены.
НО! Внезапно спасла ситуация вот эта находка:
👉 huihui_ai/qwen3-abliterated:30b-a3b
Вот она взлетела вообще великолепно. 🔥
Поспрашивал её про всякое... кхм, запрещенное. И знаете что? Она не читает мораль. Обычно AI сразу включают режим "я не могу, это неэтично, бла-бла-бла". А эта ведет диалог абсолютно свободно о чем угодно. Никаких тормозов.
А самое крутое — скорость. 52 токена в секунду! 🚀
Для 30B модели локально — это прям огонь. Летает.
Пу-пу-пу... С одной стороны, все пытаются ограничить AI, гайки закручивают, чтобы модель лишнего не сболтнула. А с другой — вот, пожалуйста. Полная свобода и доступ к любой информации здесь и сейчас.
В общем, забирайте и тестируйте, пока работает.
🐳2❤1🔥1
🧟♂️ Как оживить любой старый проект?
Слушайте, начал тут ворошить свои архивы. Смотрю на старые наработки, блоки кода... и, честно говоря, иногда ни хрена не понимаю. 😅
Возвращаться к старому проекту — это всегда боль. Сидишь и пытаешься вспомнить: где, как, когда и нафига ты это написал? Куда летят данные? Какая вообще была логика?
Раньше на восстановление контекста уходили часы (и нервы). Сейчас, благодаря нейросетям, это делается на раз-два. Собственно, вот мой алгоритм реанимации, который работает безотказно.
Что нужно сделать:
1. Запросить жесткую документацию
Закидываете проект в нейронку и говорите прямым текстом: "Нужно полностью разобраться. Опиши, как это работает, какие связи, что внутри происходит".
Пусть пишет подробнейшую документацию. Нейронка прошерстит весь код, пройдет по всем закоулкам, изучит вообще все, что возможно..
2. Временно "засрать" код комментариями
Следующий шаг — просите добавить комментарии прямо в код.
Я сам не люблю, когда в файлах "простыни" текста, меня это визуально раздражает. Но! Для разбора старья — это киллер-фича.
Пусть нейронка пропишет везде:
• Почему это вызывается?
• Откуда приходят данные?
• Зачем этот блок вообще нужен?
С этим справляется практически любая модель. Она тупо идет по коду, видит цепочку вызовов и дает описание.
Итог:
У вас перед глазами код, где каждая строчка разжевана. Разобрались, вспомнили логику? Одной командой просите нейронку убрать все комментарии — и у вас снова чистый код.
Короче, пользуйтесь. Экономит кучу времени. 🔥
Слушайте, начал тут ворошить свои архивы. Смотрю на старые наработки, блоки кода... и, честно говоря, иногда ни хрена не понимаю. 😅
Возвращаться к старому проекту — это всегда боль. Сидишь и пытаешься вспомнить: где, как, когда и нафига ты это написал? Куда летят данные? Какая вообще была логика?
Раньше на восстановление контекста уходили часы (и нервы). Сейчас, благодаря нейросетям, это делается на раз-два. Собственно, вот мой алгоритм реанимации, который работает безотказно.
Что нужно сделать:
1. Запросить жесткую документацию
Закидываете проект в нейронку и говорите прямым текстом: "Нужно полностью разобраться. Опиши, как это работает, какие связи, что внутри происходит".
Пусть пишет подробнейшую документацию. Нейронка прошерстит весь код, пройдет по всем закоулкам, изучит вообще все, что возможно..
2. Временно "засрать" код комментариями
Следующий шаг — просите добавить комментарии прямо в код.
Я сам не люблю, когда в файлах "простыни" текста, меня это визуально раздражает. Но! Для разбора старья — это киллер-фича.
Пусть нейронка пропишет везде:
• Почему это вызывается?
• Откуда приходят данные?
• Зачем этот блок вообще нужен?
С этим справляется практически любая модель. Она тупо идет по коду, видит цепочку вызовов и дает описание.
Итог:
У вас перед глазами код, где каждая строчка разжевана. Разобрались, вспомнили логику? Одной командой просите нейронку убрать все комментарии — и у вас снова чистый код.
Короче, пользуйтесь. Экономит кучу времени. 🔥
✍1❤1
Есть интересная идейка. Хочу собрать собственный сервер для LLM, буквально из говна и палок (ну почти), чтобы гонять жирные модели на 50+ гигов. Бюджет — смешной, эффективность — посмотрим.
Что имеем на старте?
• Цель: Запустить 6 карт (ориентируюсь на P102-100 ).
• Железо: Материнка уже есть, поддерживает 6 слотов. Блок питания на 1800W тоже в наличии — там выходы идеально под 6 карт.
• Корпус: Нашел на Авито майнинговый кейс. Сейчас всё, что касается майнинга, стоит копейки. Грех не воспользоваться.
Собственно, в чем план:
В начале все протестировать на том, что уже есть. И если эксперимент будет удачный, то получится докупить определенные части, и собрать всё это "на коленке" тысяч за 50-70 рублей.
Но есть нюанс (куда же без него):
Карты хотят PCI-E x4 для максимальной скорости, а обычные майнинговые райзера выдают только x1. Это, конечно, бутылочное горлышко, скорость загрузки моделей может пострадать. Но для первого теста — сойдет. (дальше нужно будет удлинители PCI брать или заменить мать.
Зачем мне это надо?
Майнинг — это про "вентиляторы крутятся, деньги мутятся", а тут история другая. Деньги система не печатает, но дает тебе в руки мощнейший инструмент. Я сейчас тестирую Gemini 3 pro и понимаю: через 2-3 года такие будут LLM с такой же производительностью запустятся на обычных машинах. Это повлияет на рынок труда, те же сисадмины, которые раньше сутками чекали логи и мониторили сеть — всё, их работу заберет AI.
По факту, я за 60к собираю машину, которая может заменить целый отдел. Жрет она только электричество и только в момент нагрузки. Ну и прикладно можно использовать дома для всего, но это уже после сборки.
Завтра будет тест с райзерами x1.
Будет 4 карты. 2 p102-100 и 2 p104-100
Ну что, погнали собирать? О результатах отпишусь. Если всё отвалится — тоже расскажу честно 😅
Сервер пока передумал продавать))
🤓 Такая корова нужна самому)
Что имеем на старте?
• Цель: Запустить 6 карт (ориентируюсь на P102-100 ).
• Железо: Материнка уже есть, поддерживает 6 слотов. Блок питания на 1800W тоже в наличии — там выходы идеально под 6 карт.
• Корпус: Нашел на Авито майнинговый кейс. Сейчас всё, что касается майнинга, стоит копейки. Грех не воспользоваться.
Собственно, в чем план:
В начале все протестировать на том, что уже есть. И если эксперимент будет удачный, то получится докупить определенные части, и собрать всё это "на коленке" тысяч за 50-70 рублей.
Но есть нюанс (куда же без него):
Карты хотят PCI-E x4 для максимальной скорости, а обычные майнинговые райзера выдают только x1. Это, конечно, бутылочное горлышко, скорость загрузки моделей может пострадать. Но для первого теста — сойдет. (дальше нужно будет удлинители PCI брать или заменить мать.
Зачем мне это надо?
Майнинг — это про "вентиляторы крутятся, деньги мутятся", а тут история другая. Деньги система не печатает, но дает тебе в руки мощнейший инструмент. Я сейчас тестирую Gemini 3 pro и понимаю: через 2-3 года такие будут LLM с такой же производительностью запустятся на обычных машинах. Это повлияет на рынок труда, те же сисадмины, которые раньше сутками чекали логи и мониторили сеть — всё, их работу заберет AI.
По факту, я за 60к собираю машину, которая может заменить целый отдел. Жрет она только электричество и только в момент нагрузки. Ну и прикладно можно использовать дома для всего, но это уже после сборки.
Завтра будет тест с райзерами x1.
Будет 4 карты. 2 p102-100 и 2 p104-100
Ну что, погнали собирать? О результатах отпишусь. Если всё отвалится — тоже расскажу честно 😅
Сервер пока передумал продавать))
🤓 Такая корова нужна самому)
👍5🔥1🐳1
P102 + P104 (36 GB VRAM). Одна карта подключена через нормальный PCIe, часть — через USB-райзера (x1).
Решил не мелочиться и скачал версии в Q8 (8 бит). Это почти оригинальное качество
1️⃣ Qwen3:30b-a3b-q8_0 (31ГБ)
🚀 Скорость: 26.84 ток/сек
2️⃣ Qwen3:32b-q8_0 (33ГБ)
🐢 Скорость: 6.66 ток/сек
А вот тут архитектура уперлась в шину. Разница в 2 ГБ веса, а падение скорости в 4 раза.
3️⃣ qwen3:30b-a3b-thinking-2507-q8_0 (30.3ГБ)
🚀 Скорость: 26.26 ток/сек
Вывод:
Железо за копейки ТАЩИТ, если правильно подобрать модель. 26 токенов в секунду на Q8 — это уровень Enterprise-серверов, который я получил у себя на балконе.
Железо за копейки ТАЩИТ, если правильно подобрать модель. 26 токенов в секунду на Q8 — это уровень Enterprise-серверов, который я получил у себя на балконе.
Решил не мелочиться и скачал версии в Q8 (8 бит). Это почти оригинальное качество
1️⃣ Qwen3:30b-a3b-q8_0 (31ГБ)
🚀 Скорость: 26.84 ток/сек
2️⃣ Qwen3:32b-q8_0 (33ГБ)
🐢 Скорость: 6.66 ток/сек
А вот тут архитектура уперлась в шину. Разница в 2 ГБ веса, а падение скорости в 4 раза.
3️⃣ qwen3:30b-a3b-thinking-2507-q8_0 (30.3ГБ)
🚀 Скорость: 26.26 ток/сек
Вывод:
Железо за копейки ТАЩИТ, если правильно подобрать модель. 26 токенов в секунду на Q8 — это уровень Enterprise-серверов, который я получил у себя на балконе.
Железо за копейки ТАЩИТ, если правильно подобрать модель. 26 токенов в секунду на Q8 — это уровень Enterprise-серверов, который я получил у себя на балконе.
👍1🔥1🐳1