А вы знали, что сейчас дефицит очень дешевых видеокарт? Разбирают их, как пирожки. Понять не могу, для чего только.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
🤔3
Почему можно не бояться Вайб-кодеров
За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.
Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.
Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.
Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.
Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.
Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.
По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.
Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.
Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.
Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.
Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.
Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.
По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
👍7
Протестировал новый Flash 3 от Gemini.
Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.
Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.
Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.
Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.
Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.
Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.
Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
❤7
https://github.com/oiv-an/Voice/releases/tag/v2.2.4
## История изменений (Changelog)
### v2.2.4
* **Сохранение размера окна:** Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записываются в `config.yaml` и применяются при перезапуске.
### v2.2.3
* **Фильтрация галлюцинаций LLM:** Теперь фразы-заглушки вроде «Продолжение следует...» или «Субтитры сделал DimaTorzok», которые иногда генерируют модели на пустом вводе, полностью игнорируются. Они больше не попадают в буфер обмена и не вставляются в текст.
### v2.2.2
* **Пустой ввод / заглушка:** Если распознавание вернуло пустой текст — показывается «Продолжение следует...».
GitHub
Release VoiceCapture 2.2.4 · oiv-an/Voice
История изменений (Changelog)
v2.2.4
Сохранение размера окна: Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записыв...
v2.2.4
Сохранение размера окна: Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записыв...
👍2
Эммм. А Вотсапу конец?
Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)
agentrouter - тоже все 🫠😪
Не долго музыка играла
Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)
agentrouter - тоже все 🫠😪
Не долго музыка играла
🔥5
Сократилось время на разработку.
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
👏7🐳6
Agentrouter ОЖИЛ) Интересно, откуда у них столько денег или какой у них план, что так щедро раздают деньги на баланс.
❤1
Статистика использования на OpenRouter.
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
🤯4🔥3
Делаю сейчас проект, Frontend на React. Решил попробовать, посмотреть как это.
С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.
В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.
Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.
Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.
В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.
Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.
UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.
В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.
Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.
Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.
В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.
Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.
UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
👍5😴1
Всё, сервер с нейросетями ВСЁ — продан. Задачу по тестированию локальных моделей он выполнил.
Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.
Почему принял такое решение:
1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.
Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.
Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.
Если нужен сервер - клац
Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.
Почему принял такое решение:
1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.
Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.
Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.
Если нужен сервер - клац
2x Intel Xeon E5 2699 v4 LGA 2011-3 (22 ядра / 44 потока КАЖДЫЙ!)
HUANANZHI Материнская плата X10X99-16D DUAL (с встроенным сервером управления)
256ГБ DDR4 (8x32ГБ Atermiter)
SSD 1ТБ 860 EVO
БП KCAS 800W
🔥7🐳4🥱1
Если покупаете что-то на Авито, обязательно смотрите, когда человек зарегистрирован. И желательно, чтобы у него были отзывы.
Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.
Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.
По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.
Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.
Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.
По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.
Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
😢6👀4
Как голосовой ввод помогает мне заново учиться говорить?
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥12❤1
Из полезного, может кому пригодится.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
GitHub
GitHub - oiv-an/openai-compatible-proxy: Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет…
Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет перенаправлять запросы к различным AI сервисам с возможностью логирования, отслеживания использования и расчета...
🤔5
Сравниваю сейчас работу моделей Opus и . Это, конечно, небо и земля.
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
🐳4👍3
Forwarded from Иван Олянский (Ivan)
Проект, над которым я работаю последние два месяца, называется LifeTrend.
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
🔥6
Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
👍5
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков
🔥 Новое
• Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
• Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.
✨ Улучшения
• Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
• Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
• Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.
@LifeTrendBot
lifetrend.ivol.pro
🚀 Обновление: Конфиденциальность, GDPR и Структура графиков
🔥 Новое
• Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
• Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.
✨ Улучшения
• Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
• Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.
@LifeTrendBot
lifetrend.ivol.pro