TechnoBlog of Ivan Olyansky
225 subscribers
421 photos
54 videos
14 files
241 links
TechnoBlog обо всем)
ai.ivol.pro - ИИ разработка
ivol.pro - все проекты

@ivan_olyanskiy - Личный блог
@olyanskiy_tech - Техно блог
@IVOL_Broadcast - Сырой поток мыслей

Боты:
@vpn_c_bot - VPN
Связь со мной тут @oiv_an
Download Telegram
Как голосовой ввод помогает мне заново учиться говорить?

Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.

Работаю с ним уже месяц и заметил интересную тенденцию.

Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.

Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?

Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.

В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥121
Из полезного, может кому пригодится.

Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.

В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.

Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.

Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.

На GitHub выложил.
🤔5
Сравниваю сейчас работу моделей Opus и . Это, конечно, небо и земля.

Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.

Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.

Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.

Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.

А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
🐳4👍3
Forwarded from Иван Олянский (Ivan)
Проект, над которым я работаю последние два месяца, называется LifeTrend.

Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.

Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.

Я начал отслеживать состояние, но параметры быстро расширились:

1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.

Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.

Самое основное, что хотел понять — какие есть взаимосвязи?

Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.

Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.

@LifeTrendBot - Возможно нужен будет VPN
🔥6
Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.

Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.

Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.

Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.

Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.

В общем, печально все это. Замечали такие проблемы?

UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?

Он, сука, не предлагает простые решения.

Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.

GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.

Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.

Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов


🔥 Новое
Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.

Улучшения
Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
Эксперименты: Обновлен интерфейс для управления личными экспериментами.

@LifeTrendBot
lifetrend.ivol.pro
👍5
🫠
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков

🔥 Новое
Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.

Улучшения
Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.



@LifeTrendBot
lifetrend.ivol.pro

🚀 Обновление: Конфиденциальность, GDPR и Структура графиков

🔥 Новое
Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.

Улучшения
Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.


@LifeTrendBot
lifetrend.ivol.pro
С наступающим 💡
Please open Telegram to view this post
VIEW IN TELEGRAM
7🎄3🔥2
Дорогие друзья, с Новым Годом! 🎄
14
Forwarded from Иван Олянский (Ivan)
LifeTrend, 7 лет выгорания и зачем мне столько данных

Год начался с апгрейда LifeTrend.

Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.

Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.

Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.

Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.

Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.

Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.

Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.

Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.

Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.


@LifeTrendBot
https://lifetrend.ivol.pro
👍8
Цена автоматизации: когда n8n экономит время, а когда жрет его

Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.

Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.

У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.

Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.

То же самое происходит, когда данных немного, но очень много узлов.

Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.

Какой вывод?

Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.

n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
👍9
Небольшой мануал, как я настраиваю окружение.

Самое первое — создаю файл AI_Instruction.md. Добавляю туда все пожелания по проекту и вообще суть того, что мы делаем.

В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий

У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.

Самое главное требование к AI:

Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.

Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты

Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.

Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.

Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
👍8🐳3🔥2
TechnoBlog of Ivan Olyansky
⚠️nemotron-3-nano:latest 22.6GB 58.95 т/с qwen3:30b-a3b-thinking-2507-q8_0 30,3GB 40.33 т/с qwen3:32b-q8_0 32.7GB 7.88 т/с qwen3:30b-a3b-q8_0 …
3090 карта
nemotron-3-nano 13.07 токенов/сек 😭😢
qwen3-vl-30b 36.25 токенов/сек
gpt-oss-20b 140.82 токенов/сек 🔥
nemotron-3-nano (21гб) 26.04 токенов/сек

gemma-3-27b-it-abliterated 28.63 токенов/сек
glm-4.6v-flash 55.19 токенов/сек
devstral-small-2-2512 26.95 токенов/сек
qwen3-coder-30b 20.84 токенов/сек
qwen3-48b-a4b 34.09 токенов/сек



Какой вывод:
Если нужны только текстовые модели и не пугает сборка, то дешевле, конечно, собрать из множества карт из P102-100. Если деньги позволяют, то собирать то же самое, только карты использовать 3090. Ну а если деньги не проблема, то, конечно, рассмотреть карты 5090. Ну а если и тут деньги не проблема, то рассмотреть уже специально заточенные GPU-карты.
🔥7
Как же меня бомбит от версии GPT-5.2.
Какая же она тупая. Вот реально. Либо она оттупела ещё сильнее, либо я не могу понять, чем они там в OpenAi вообще занимаются.

Даю одно и то же задание для Flash 3, для GPT и для Sonnet. В Sonnet немного дорого делать мелкие правки. Gemini перестал работать из-за провайдера. Пришлось работать с GPT. Ну какой же он тупой!

Самое правильное решение, которое принял — больше не использовать его. Парадокс: модель стоит дешевле, но по факту выходит значительно дороже. Приходится трижды переделывать за ней. Из-за косяков и ошибок постоянно нужно либо переделывать полностью, либо доделывать.

Пример: модель занималась переводом одной страницы. Пришлось всю страницу делать заново, потому что она полностью сократила всё, убрала оригинальные названия и заменила их на свои.

В общем, внимательно смотрите за тем, что она делает.
🫡6👎1😱1
Если вам нужно передать в n8n изображение агенту, через Телеграм
То все очень просто:
1️⃣ Включить Download Images/Files в триггере Телеграм.
2️⃣ Прям перед агентом поставить Merge
3️⃣ И в агенте включить:
Automatically Passthrough Binary Images
👍8
Лайфхак: Управление серверами через IDE и AI

Небольшой лайфхак. Через IDE можно управлять сервером сразу по SSH.

Алгоритм простой:
1. Создаёте папку, открываете её в VS Code.
2. Создаёте файл .md с инструкцией по подключению:
ssh -i C:\path\to\private_key.pem user@hostname -p 22
(Это если у вас включен вход по ключу).

Там же описываете разрешённые команды и действия. Можно указать правило: «Согласовывай со мной все команды, которые хочешь выполнить». Вы сами будете видеть, что собирается делать нейросеть.

Кстати, OpenSSH Client в Windows 10/11 доступен по умолчанию или ставится в пару кликов. После этого команда ssh работает в терминале без дополнительных настроек.

Собственно, после подключения у вас есть инструмент управления.

В файле инструкции можно описать огромное количество серверов. Просто говорите нейросети: «Пройди по всем 10 серверам и установи то-то» или «проверь логи».

По факту, это заменяет очень долгую настройку в n8n. Тут нужна только одна строка для доступа и ваши пожелания, что нужно выполнить.
👍8