Сократилось время на разработку.
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
👏7🐳6
Agentrouter ОЖИЛ) Интересно, откуда у них столько денег или какой у них план, что так щедро раздают деньги на баланс.
❤1
Статистика использования на OpenRouter.
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
🤯4🔥3
Делаю сейчас проект, Frontend на React. Решил попробовать, посмотреть как это.
С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.
В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.
Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.
Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.
В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.
Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.
UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.
В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.
Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.
Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.
В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.
Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.
UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
👍5😴1
Всё, сервер с нейросетями ВСЁ — продан. Задачу по тестированию локальных моделей он выполнил.
Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.
Почему принял такое решение:
1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.
Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.
Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.
Если нужен сервер - клац
Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.
Почему принял такое решение:
1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.
Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.
Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.
Если нужен сервер - клац
2x Intel Xeon E5 2699 v4 LGA 2011-3 (22 ядра / 44 потока КАЖДЫЙ!)
HUANANZHI Материнская плата X10X99-16D DUAL (с встроенным сервером управления)
256ГБ DDR4 (8x32ГБ Atermiter)
SSD 1ТБ 860 EVO
БП KCAS 800W
🔥7🐳4🥱1
Если покупаете что-то на Авито, обязательно смотрите, когда человек зарегистрирован. И желательно, чтобы у него были отзывы.
Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.
Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.
По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.
Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.
Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.
По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.
Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
😢6👀4
Как голосовой ввод помогает мне заново учиться говорить?
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥12❤1
Из полезного, может кому пригодится.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
GitHub
GitHub - oiv-an/openai-compatible-proxy: Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет…
Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет перенаправлять запросы к различным AI сервисам с возможностью логирования, отслеживания использования и расчета...
🤔5
Сравниваю сейчас работу моделей Opus и . Это, конечно, небо и земля.
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
🐳4👍3
Forwarded from Иван Олянский (Ivan)
Проект, над которым я работаю последние два месяца, называется LifeTrend.
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
🔥6
Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
👍5
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков
🔥 Новое
• Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
• Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.
✨ Улучшения
• Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
• Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
• Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.
@LifeTrendBot
lifetrend.ivol.pro
🚀 Обновление: Конфиденциальность, GDPR и Структура графиков
🔥 Новое
• Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
• Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.
✨ Улучшения
• Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
• Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.
@LifeTrendBot
lifetrend.ivol.pro
Forwarded from Иван Олянский (Ivan)
LifeTrend, 7 лет выгорания и зачем мне столько данных
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
👍8
Цена автоматизации: когда n8n экономит время, а когда жрет его
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
👍9
Небольшой мануал, как я настраиваю окружение.
Самое первое — создаю файл
В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
Самое первое — создаю файл
AI_Instruction.md. Добавляю туда все пожелания по проекту и вообще суть того, что мы делаем.В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
👍8🐳3🔥2