TechnoBlog of Ivan Olyansky
224 subscribers
421 photos
54 videos
14 files
241 links
TechnoBlog обо всем)
ai.ivol.pro - ИИ разработка
ivol.pro - все проекты

@ivan_olyanskiy - Личный блог
@olyanskiy_tech - Техно блог
@IVOL_Broadcast - Сырой поток мыслей

Боты:
@vpn_c_bot - VPN
Связь со мной тут @oiv_an
Download Telegram
Понадобилось получить рут-права на телефоне.

Вспомните, как это происходило раньше. Нужно было убить кучу времени: шерстить форумы, искать информацию под конкретную модель, разбираться с разблокировкой загрузчика. Всегда был риск ошибиться или случайно скачать не ту прошивку.

Как это работает сейчас?

Нейросеть сразу подсказывает алгоритм именно для этого устройства. Находит нужные файлы, говорит, как правильно подключить и что сделать. Процесс ускорился максимально.

Я потратил меньше часа. Раньше на это уходило часа четыре. И это при том, что я знаю матчасть и понимаю, как работает загрузчик. Но сам факт: тебе не нужно часами искать и перепроверять информацию, чтобы не превратить телефон в кирпич.

Всё стало значительно проще. Нейросети превратили рутину в волшебство.
👍2
За 15 минут навёл порядок в OpenWebUI (и заархивировал 1000+ чатов)

Я долго искал нормальный способ быстро почистить историю в OpenWebUI. Перепробовал разные плагины, даже пытался написать свою функцию — но всё работало нестабильно или “как-то не так”, или не работала вообще.

В какой-то момент я уже почти смирился и подумал: “Ладно, прокликаю вручную”. А у меня там было больше тысячи чатов — это значит открыть меню у каждого, нажать “Архив”, и так сотни раз. Сомнительное удовольствие.

В итоге я сделал простую штуку: Tampermonkey-скрипт, который делает ровно то, что я бы делал руками — только быстро и без ошибок. Он проходит по левому сайдбару, открывает меню (три точки) у каждого чата и отправляет его в архив. У меня он буквально за ~15 минут прокликал и заархивировал всё.

Самое важное: это UI-автоматизация. Не нужно лезть в базу данных OpenWebUI, не нужно ковырять внутренности проекта, не нужно писать миграции или рисковать сломать инстанс. Просто “как пользователь”, но в автоматическом режиме.

Если у тебя тоже накопилась огромная история — забирай скрипт:
https://github.com/oiv-an/openwebui-auto-archive

Установка простая: ставишь Tampermonkey, вставляешь index.js, в шапке меняешь @match на домен своего OpenWebUI — и запускаешь кнопкой на странице.

Все это сделано потому, что в новом обновлении OpenWebUI очень медленная загрузка, потому что он как-то работает с историей всех чатов, еще что-то, и в итоге все грузится писец как долго.
👍4🔥2💩1
Почему модели в подписках «тупеют»

Многие замечают деградацию качества ответов в популярных сервисах. Почему так происходит? Ответ кроется в классическом жизненном цикле любого бизнеса.

Когда продукт только создается, задача одна — сделать лучшее качество на рынке. Команда вкладывается в технологии, запускает массивную рекламу и завоевывает аудиторию. Продукт работает идеально, чтобы «подсадить» пользователя.

Но затем наступает период возврата инвестиций. К власти приходят люди, чья задача — не развитие технологий, а максимизация прибыли.

Если база пользователей огромна (как сейчас у ChatGPT или Perplexity), включается эффект инерции. Люди уже настроили процессы под этот инструмент. Даже если сервис станет чуть хуже или дороже, они не уйдут, потому что привыкли.

Начинается процесс, похожий на «шринкфляцию» в продуктовых магазинах. Это как с молоком: цена та же, но в пакете уже не литр, а 900 мл. Это экономия на масштабе.
В AI-сервисах происходит то же самое. Чтобы увеличить маржу, разработчики начинают «подкручивать гайки»: упрощают модель, урезают контекст, оптимизируют вычислительные мощности. Делают это осторожно, чтобы не вызвать массовый отток, но качество неизбежно падает.

Вывод:
Именно поэтому я работаю через API. Там мы получаем доступ к модели в её изначальном, «сыром» виде.
В веб-версиях идет оптимизация расходов на массового пользователя. В API, по крайней мере с новыми моделями, я такой деградации не замечал. Вы получаете ровно то, за что платите за каждый токен.
👍82💩2
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Как нейросети изменили мою культуру разработки

Раньше я часто пренебрегал правилами разработки. Писал сразу на чистовик, тесты не делал почти никогда. Главная задача была — ускорить процесс и получить готовый продукт. GitHub'ом пользовался редко, коммиты делал от случая к случаю.

С нейросетями всё изменилось. Теперь я соблюдаю все стандарты. Прошу нейросеть написать тесты, запустить их и выстроить структуру.

Отдельная история — это работа с Git. Настоящая золотая кнопка. Раньше я мог внести кучу правок, а потом сидел и вспоминал, что именно изменилось в файлах. Сейчас нейросеть анализирует код и моментально выдает подробное описание коммита. История изменений выглядит профессионально без моих усилий.

Ещё один важнейший пункт — безопасность. Смотрю сейчас на свои старые проекты и понимаю, что код был дырявым. Я тогда просто не видел проблем, а сейчас исправлять это руками нет времени. Нейросети проводят аудит и находят уязвимости за секунды.

По инструменту. Рекомендую GLM 4.6. Если зарегистрироваться именно по реферальной ссылке, через аккаунт github которому больше месяца, то дают 200$. Кому-то даже дали 225$, получается мощный бесплатный помощник. Модель идеально подходит для поиска багов, рефакторинга и мелких правок. (Я зарегистрировал на GitHub еще два аккаунта и оставил их на месяц. Как месяц прошел, получил еще 200$ для дальнейших разработок на каждый аккаунт.)

Вывод: теперь не нужно выбирать между скоростью и качеством. Делаю быстро, но сразу правильно.
🐳5
Вот и perplexity начинает отказываться искать что-то на форумах.

А данная проблема появляется тогда, когда ты начинаешь как-то грубо разговаривать с моделью. 😎
🤔2🤡1
Сегодня всю ночь использовал GLM-6. Могу сравнить эту модель с GPT-5. Они примерно на одном уровне — и та, и та одинаково тупят.

Но общее впечатление от модели, блин, хорошее. Когда пробовал первый раз (вероятно, это была GLM-4.5), она меня никак не впечатлила. Но сейчас действительно вижу хороший прогресс.

Модель идеально подходит для поиска и исправления небольших изменений. Если делать с ней что-то большое, она всё равно ведет себя иногда не совсем адекватно. Хотя за 5 часов работы ошиблась только один раз — скобку не там добавила.

Самое главное — она сама пишет тесты и документацию. Я не добавлял никаких пользовательских промтов. Модель сама после каждой итерации старается сделать отладку, написать тест и исполнить его. Это прям заточено для разработки.

Использую её, потому что она есть по факту на халяву. Хочу полностью испытать эту модель.

Кстати, через Agent Router я смог запустить и GPT-5.2, и Claude Sonnet 4.5 (20250929). Но все эти модели почему-то отказались работать в Kilocode. Просто пишется текст, не исполняется тул. Непонятно почему.

Тут самый главный вопрос. Как живут эти китайцы, которые так щедро раздают деньги?
👍4
Почти всё приехало, не хватает пару проводов для подключения последней видеокарты.

Как всё протестирую, напишу большой пост? И даже видео, скорее всего, как из Г**** и палок. Собрать ИИ сервер.
👍12🐳5
TechnoBlog of Ivan Olyansky
3 карты p102-100 - одна х1 pci mixtral:latest 26,6 гб = 19.99 т/с qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 21,28 т/с не влезла вся в память) 4 карты p102-100 3 из них в райзерах х1 qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 26.2 т/с qwen3:32b-q8_0…
⚠️nemotron-3-nano:latest 22.6GB 58.95 т/с

qwen3:30b-a3b-thinking-2507-q8_0 30,3GB 40.33 т/с
qwen3:32b-q8_0 32.7GB 7.88 т/с
qwen3:30b-a3b-q8_0 31GB 40.86 т/с
Llama-3.3-70B-Instruct-GGUF:Q3_K_M 32ГБ 5.51 т/с

gpt-oss:20b 53.95 т/с


Стоит пока 5 карт, на одну не хватило питания. потребление 700 -800W в пике видел
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥3
gpt-oss:120b 61Gb 10 т/с
⚠️ 🙂‍↔️

UPD
Добавил еще одну карту - 12.64 т/с

UPD2
Работать практически невозможно. Если давать какой-то долгий запрос или ждать сразу какой-то большой ответ, то все ок. Но если выполнять в режиме чата, то модель максимально долго отвечает.

UPD3
провел многократные тесты с разными моделями и посмотрел по скорости, по качеству, как работают ну все, есть один бесспорный лидер nemotron-3-nano:latest для быстрых задач.

qwen3:30b-a3b-thinking-2507-q8_0 для сложных задач

UPD qwen3:30b-a3b-thinking-2507-q8_0 энергопотребление 470W с розетки .
👍61
А вы знали, что сейчас дефицит очень дешевых видеокарт? Разбирают их, как пирожки. Понять не могу, для чего только.

Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.

В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.

Еле нашел подходящую на Авито.
🤔3
Почему можно не бояться Вайб-кодеров

За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.

Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.

Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.

Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.

Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.

Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.

По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
👍7
Протестировал новый Flash 3 от Gemini.

Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.

Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.

Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.

Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
7
https://github.com/oiv-an/Voice/releases/tag/v2.2.4

## История изменений (Changelog)

### v2.2.4
* **Сохранение размера окна:** Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записываются в `config.yaml` и применяются при перезапуске.

### v2.2.3
* **Фильтрация галлюцинаций LLM:** Теперь фразы-заглушки вроде «Продолжение следует...» или «Субтитры сделал DimaTorzok», которые иногда генерируют модели на пустом вводе, полностью игнорируются. Они больше не попадают в буфер обмена и не вставляются в текст.

### v2.2.2
* **Пустой ввод / заглушка:** Если распознавание вернуло пустой текст — показывается «Продолжение следует...».
👍2
Эммм. А Вотсапу конец?

Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)



agentrouter - тоже все 🫠😪
Не долго музыка играла
🔥5
Сократилось время на разработку.

Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.

Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.

Сейчас время от идеи до готового продукта — минимально.

Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.

И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»

UPD:
Больше нет оправданий, чтобы не делать😁
👏7🐳6
Agentrouter ОЖИЛ) Интересно, откуда у них столько денег или какой у них план, что так щедро раздают деньги на баланс.
1
Статистика использования на OpenRouter.

Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
🤯4🔥3
Делаю сейчас проект, Frontend на React. Решил попробовать, посмотреть как это.

С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.

В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.

Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.

Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.

В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.

Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.

UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
👍5😴1
Всё, сервер с нейросетями ВСЁ — продан. Задачу по тестированию локальных моделей он выполнил.

Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.

Почему принял такое решение:

1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.

Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.

Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.

Если нужен сервер - клац

2x Intel Xeon E5 2699 v4 LGA 2011-3 (22 ядра / 44 потока КАЖДЫЙ!)
HUANANZHI Материнская плата X10X99-16D DUAL (с встроенным сервером управления)
256ГБ DDR4 (8x32ГБ Atermiter)
SSD 1ТБ 860 EVO
БП KCAS 800W
🔥7🐳4🥱1
Если покупаете что-то на Авито, обязательно смотрите, когда человек зарегистрирован. И желательно, чтобы у него были отзывы.

Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.

Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.

По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.

Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
😢6👀4
Как голосовой ввод помогает мне заново учиться говорить?

Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.

Работаю с ним уже месяц и заметил интересную тенденцию.

Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.

Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?

Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.

В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥121