TechnoBlog of Ivan Olyansky
225 subscribers
421 photos
54 videos
14 files
241 links
TechnoBlog обо всем)
ai.ivol.pro - ИИ разработка
ivol.pro - все проекты

@ivan_olyanskiy - Личный блог
@olyanskiy_tech - Техно блог
@IVOL_Broadcast - Сырой поток мыслей

Боты:
@vpn_c_bot - VPN
Связь со мной тут @oiv_an
Download Telegram
А вы знали, что сейчас дефицит очень дешевых видеокарт? Разбирают их, как пирожки. Понять не могу, для чего только.

Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.

В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.

Еле нашел подходящую на Авито.
🤔3
Почему можно не бояться Вайб-кодеров

За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.

Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.

Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.

Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.

Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.

Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.

По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
👍7
Протестировал новый Flash 3 от Gemini.

Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.

Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.

Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.

Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
7
https://github.com/oiv-an/Voice/releases/tag/v2.2.4

## История изменений (Changelog)

### v2.2.4
* **Сохранение размера окна:** Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записываются в `config.yaml` и применяются при перезапуске.

### v2.2.3
* **Фильтрация галлюцинаций LLM:** Теперь фразы-заглушки вроде «Продолжение следует...» или «Субтитры сделал DimaTorzok», которые иногда генерируют модели на пустом вводе, полностью игнорируются. Они больше не попадают в буфер обмена и не вставляются в текст.

### v2.2.2
* **Пустой ввод / заглушка:** Если распознавание вернуло пустой текст — показывается «Продолжение следует...».
👍2
Эммм. А Вотсапу конец?

Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)



agentrouter - тоже все 🫠😪
Не долго музыка играла
🔥5
Сократилось время на разработку.

Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.

Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.

Сейчас время от идеи до готового продукта — минимально.

Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.

И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»

UPD:
Больше нет оправданий, чтобы не делать😁
👏7🐳6
Agentrouter ОЖИЛ) Интересно, откуда у них столько денег или какой у них план, что так щедро раздают деньги на баланс.
1
Статистика использования на OpenRouter.

Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
🤯4🔥3
Делаю сейчас проект, Frontend на React. Решил попробовать, посмотреть как это.

С TypeScript я знаком — примерно понимаю структуру кода и что где что обозначает.
Проектирование и разработку приложения доверил Opus 4.5.

В процессе работы, развивая поля и данные, кодингом в основном занимался Gemini 3 Pro. И что могу сказать? Он постоянно дублировал код.

Я ему говорил: «Вот здесь код одинаковый». Только после того, как я прям точно указал — зачем ты дублируешь? — он начал всё немного унифицировать.

Если бы я не занимался программированием, то сейчас у меня было бы меню из 5 пунктов, где внутри пересекаются одни и те же параметры. В результате получаешь пять мест, в которых дублируется одна и та же информация, один и тот же код, одни и те же константы.

В итоге, если вдруг я захочу это поменять в одном месте — это будет такой головняк. Где-то поменяется, где-то нет. Где-то нейросеть заметит, где-то напишет не так.

Вывод: даже для того, чтобы «вайб-кодить» сложное, нужно немножко знать программирование.

UPD: А если есть желание научиться программировать, то в момент создания приложения нужно обязательно в любой промпт добавлять «Расскажи, почему это именно так сделано? », «Какие паттерны ты использовал? » и «Почему? ». А также еще можно узнать, как этот код можно улучшить.
👍5😴1
Всё, сервер с нейросетями ВСЁ — продан. Задачу по тестированию локальных моделей он выполнил.

Второй сервер, на котором я проводил исследования, тоже решил продать. За последнюю неделю понял: все мои текущие проекты завязаны на API.

Почему принял такое решение:

1. Экономика. Я нашел достаточно дешевые модели, которые круто выполняют задачи. По деньгам расходы на токены выходят примерно так же, как счета за электричество для серверов. Но если добавить сюда амортизацию оборудования — локальная модель становится невыгодной.
2. Эффективность. Эффективность от API выше. Модели обновляются быстрее. Например, выход GLM 4.7. Модель просто восхитительная: отлично решает агентские задачи, делает всё то, что делали мои локальные сборки, а стоит копейки.

Что по железу:
Основной сервер уходит на продажу. Свою карту 2080 Ti меняю на 3090. Этого объема памяти мне хватит, чтобы точечно запускать локальные модельки, если вдруг возникнет необходимость.

Вывод: держать свое железо ради «бесплатных» токенов сейчас нерационально. API победили.

Если нужен сервер - клац

2x Intel Xeon E5 2699 v4 LGA 2011-3 (22 ядра / 44 потока КАЖДЫЙ!)
HUANANZHI Материнская плата X10X99-16D DUAL (с встроенным сервером управления)
256ГБ DDR4 (8x32ГБ Atermiter)
SSD 1ТБ 860 EVO
БП KCAS 800W
🔥7🐳4🥱1
Если покупаете что-то на Авито, обязательно смотрите, когда человек зарегистрирован. И желательно, чтобы у него были отзывы.

Логика понятна, нужно просто ей следовать. Но я отступил от этого правила и потерял деньги.

Заказал три плашки памяти у человека. Вроде зарегистрирован на сайте давно, а отзывов вообще нет.

По итогу: две из трех плашек — нерабочие. Возвращать человек ничего не собирается, да и вообще никак это решать не хочет.

Ему жить с этой совестью. А для меня — такой вот урок, который нужно просто усвоить.
😢6👀4
Как голосовой ввод помогает мне заново учиться говорить?

Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.

Работаю с ним уже месяц и заметил интересную тенденцию.

Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.

Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?

Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.

В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥121
Из полезного, может кому пригодится.

Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.

В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.

Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.

Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.

На GitHub выложил.
🤔5
Сравниваю сейчас работу моделей Opus и . Это, конечно, небо и земля.

Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.

Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.

Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.

Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.

А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
🐳4👍3
Forwarded from Иван Олянский (Ivan)
Проект, над которым я работаю последние два месяца, называется LifeTrend.

Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.

Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.

Я начал отслеживать состояние, но параметры быстро расширились:

1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.

Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.

Самое основное, что хотел понять — какие есть взаимосвязи?

Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.

Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.

@LifeTrendBot - Возможно нужен будет VPN
🔥6
Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.

Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.

Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.

Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.

Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.

В общем, печально все это. Замечали такие проблемы?

UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?

Он, сука, не предлагает простые решения.

Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.

GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.

Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.

Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов


🔥 Новое
Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.

Улучшения
Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
Эксперименты: Обновлен интерфейс для управления личными экспериментами.

@LifeTrendBot
lifetrend.ivol.pro
👍5
🫠
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков

🔥 Новое
Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.

Улучшения
Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.



@LifeTrendBot
lifetrend.ivol.pro

🚀 Обновление: Конфиденциальность, GDPR и Структура графиков

🔥 Новое
Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.

Улучшения
Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.


@LifeTrendBot
lifetrend.ivol.pro