TechnoBlog of Ivan Olyansky
224 subscribers
421 photos
54 videos
14 files
241 links
TechnoBlog обо всем)
ai.ivol.pro - ИИ разработка
ivol.pro - все проекты

@ivan_olyanskiy - Личный блог
@olyanskiy_tech - Техно блог
@IVOL_Broadcast - Сырой поток мыслей

Боты:
@vpn_c_bot - VPN
Связь со мной тут @oiv_an
Download Telegram
Когда придумываешь названия для нового бота и тебе ИИ предлагает такое ))
Как думаете, с чем связано?))
🤣8😁2
😁2
😁1
это последний) 😂
😁5🔥1
Модели, которые участвовали в тестировании

Потратил более $500 на тесты, пробовал разные подходы и решения. Думаю, запишу видео и расскажу, к чему пришёл ) а пока кратко:

Что можно сказать? Не просто так Grok 4 code fast на первом месте в рейтинге OpenRouter. Тут либо дорого, но очень круто, либо дешево и не работает.

Провожу разные тесты, решил дать ИИ полностью все права для создания приложения.

Даже Claude Sonnet 4.5 и Opus 4.5 иногда тупят. Часто бывает зацикливание. И самое главное — если проект большой и нет мега-подробного ТЗ, можно считать, что ваш код будут писать разные индусы. Причём каждый по-своему.

Изначально как-то будет работать, но стоит чуть внести правки — и всё, конец. Ничего не работает, поправить нереально, а самому разбираться — это просто ППЦ!
👍5
За эти деньги я реально мог нанять вагон индусов для разработки приложения. Или сделать самому — конечно, было бы проще)

Дальше будет эксперимент: OSS 20B запущу локально с доступом к кодовой базе, документации и интернету. Модель будет самостоятельно писать ПО.

Не хотелось бы получить еще одного индуса))
🐳2
Пу-пу-пу!

Никогда такого не было, и вот опять)

Заметил повышенную нагрузку на сервере — процессор пашет как не в себя. Стал смотреть, кто такой прожорливый. Оказалось, контейнер Ollama в докере)

Порт у Ollama всем известный: 11434. Сканировать весь интернет на открытый порт - без проблем. Найдя открытый порт, можно свободно запускать модели. Почти как майнер установить)

У меня стоит всего одна модель для embedding, чтобы лучше русский язык понимать.

Защита от этого:

В docker-compose уберите строку ports. Так доступ будет только из локалки.

Внутри докеров Ollama останется доступна по адресу:

http://ollama:11434
🔥5
Пользуетесь agentrouter?
Если зайти через GitHub — дают 200$.
Раньше моделей было побольше) Видимо, этот аттракцион невиданной щедрости закончился)
Из доступных моделей тоже не все работают нормально.
Grok вообще не запустился. GPT-5 работает, но с трудом и постоянно вылетает ошибка защиты.

Остальные модели DeepSeek — доверять им большой проект не стал бы. Максимум для простых задач.

Чтобы запустить из n8n — нужно передавать кучу данных, как в IDE. Протестировал в KiloCode: ни одна версия DeepSeek не справилась с элементарными вещами. Возможно, это развод и за API стоит что-то попроще на локальном железе. Скорость тоже печальная)
👍1
Держите крутой обработчик ошибок для n8n.

Присылает в Telegram подробную инфу с прямой ссылкой на ошибку.

Как подключить: в настройках вашего Workflow выберите его в разделе Error Workflow. 🫡
👍5
Есть база пользователей Телеграм из бота и нужно проверить, кто заблокировал бота? Есть простое решение — отправить Action Typing. Если пользователь заблокировал бота или его аккаунт удалён — Телеграм вернёт ошибку.
👍2
Как я внедрял агента для поддержки пользователей:

Главное - идти по шагам и под контролем поддержки.
1 - переадресация на агента каждое третье письмо.
2 - за агентом следит поддержка — сразу видит чат, что он там пишет.
3 - можно моментально перехватить разговор, что и делает поддержка регулярно, если разговор идет не туда или агент тупит.
4 - обязательно кнопка 'Позвать оператора' (и приписка, что оператор следит за разговором).

Так можно допилить промпт прям в процессе.
Подобрать модель которая лучше справляется.
👍3
😨😨😨 В общем, это пиздец. Других слов просто нет. 7 числа произошло какое-то обновление в n8n. Я его обновил, и все работало. Я считал, что так работало. Я заходил во все свои workflow, там все нормально отображалось, все нормально записывалось, сохранялось. То есть я видел все свои изменения, и все работало. Сегодня мне нужно было заново еще раз накатить обновление. Я запускаю обновление, захожу, а у меня пропало куда-то 4 дня. Просто их как будто вырезали. В итоге 5 часов я сейчас потратил на изучение всех логов, вообще всего, что только было возможно. И эти 4 дня потеряны. Я не очень много, в принципе, там чего добавил, наделал, но сам факт потерять 4 дня работы — ну, это ПЗДЦ!. В итоге изучение всей темы, из-за чего такое произошло: что произошло обновление в SQLite WAL mode deadlock + Redis queue → данные в памяти контейнера, но НЕ на диск . И после перезагрузки контейнера все нахрен стерлось. Поэтому, сохраняете все воркфлоу, обязательно на диск. Делайте копию хотя бы раз в день, просто нажать сохранить. Пускай лучше они у вас файликами будут.

ПС
даже бекап в 2 раза в день тут не помог. Все хранилось в контейнере
😱62👍1
Там все боты могут глючить не много сегодня.
Я перевел все n8n на Postgres и разрешения баз не везде поправил) ловлю ошибки по ходу)
👍1
Как не словить проблему с потерей данных после обновления n8n
n8n потерял 4 дня данных после обновления. Чтобы вы не попали в такую же ситуацию, делюсь простой проверкой.

Проверьте прямо сейчас:

Зайдите в папку с файлами проекта. Если там лежит файл database.sqlite-journal и он не пустой — скорее всего, база не пишется. Это тревожный звонок.

Что делать:

1. Сохраните все Workflow как файлы — это главное
2. Credentials сохранить напрямую не получится, только через экспорт с ключом. Или придётся добавлять заново вручную
3. Самое важное — это Workflows, не потеряйте их

Мой совет:

После обновления лучше сразу перейти с SQLite на PostgreSQL. Это стабильнее и безопаснее.

Сначала миграция — потом обновление контейнера.

Подробная инструкция по миграции тут:
[Миграция n8n с SQLite на PostgreSQL](https://telegra.ph/Migraciya-n8n-s-SQLite-na-PostgreSQL-Prakticheskoe-rukovodstvo-11-13)

Потратите 20 минут сейчас — сэкономите часы нервов потом 🙂
👍1
Наконец пришли 2 карты p102-100 по 10гб
gpt-oss:20b

Скорость 52 т/с
По ходу картам майнинга можно дать второй шанс)
👍1
TechnoBlog of Ivan Olyansky
qwen3:30b-a3b-q4_K_M 17.3 Гб 2 карты p104-100. Карты для майнинга изначально, по 8 гб. Вся система кушает почти 400W скорость 22т/с - очень приятно работает. С такой моделью уже можно много чего придумать. + ограничил по вольтажу до 120W на карту. UPD.…
qwen3:30b-a3b-q4_K_M 49.3 т/с
qwen3:14b-q4_K_M 24,39 т/с (на одной карте работает)

phi3:14b-medium-128k-instruct-q5_K_M 22.65 т/с (тоже на одной карте запустилась )

mistral-small:24b 13.4 Гб. 15 т/с

gpt-oss:20b 52 т/с


Разница конечно колоссальная!
особенно Qwen3-30B-A3B-Q4_K_M в 2 раза быстрее.
карты нашел по 2500 с доставкой)

UPD
qwen3-coder:latest 52.82 т/с

карты по мощности чуть заглушил до 180W, что на скорости почти ни как не отразилось.
👍2