Как голосовой ввод помогает мне заново учиться говорить?
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
Я сделал для себя приложение, которое транскрибирует всё в текст. Логика простая: зажал две кнопки, сказал, получил текст.
Работаю с ним уже месяц и заметил интересную тенденцию.
Вначале в речи было очень много мусорных слов. Они и сейчас есть, но тогда был перебор. Получается, в потоке я не совсем фильтрую то, что говорю. Появляется куча дополнительных слов, которые не нужны.
Когда я читал первые транскрипты, поражался: как я вообще так раньше мог говорить?
Сейчас стараюсь формулировать мысли более внятно и разборчиво. Учусь более точно думать перед тем, как сказать, чтобы избегать словесного мусора.
В общем, получилось хорошее приложение для прокачивания навыков разговора. Можно отслеживать не только то, что ты говоришь, но и как ты это делаешь.
🔥12❤1
Из полезного, может кому пригодится.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
Бывает ситуация, что провайдер API передает неполные данные. Редактор (типа Kilocode) может неправильно видеть, сколько максимум токенов остается. Либо вообще неправильно считает и не показывает остаток.
В итоге всё упирается в ограничения, и редактор отказывается работать. У меня такое было с моделями Gemini Pro и Opus через моего поставщика API.
Решением было организовать всё через PHP-прокси. Внутри я исправил логику — теперь токены считаются вручную.
Также скрипт может подтягивать модели с OpenRouter и примерно подставлять стоимость, если ваш провайдер эти данные не предоставляет.
На GitHub выложил.
GitHub
GitHub - oiv-an/openai-compatible-proxy: Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет…
Этот скрипт представляет собой универсальный прокси-сервер для API, который позволяет перенаправлять запросы к различным AI сервисам с возможностью логирования, отслеживания использования и расчета...
🤔5
Сравниваю сейчас работу моделей Opus и . Это, конечно, небо и земля.
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
Последние два дня работал с Opus и GPT-5.2. Очень много. Прорабатывал большие блоки кода. Все мои идеи он реализовывал очень быстро. Понимал меня сразу, просто читая код. Правки были, но минимальные.
Сейчас работаю с GPT-5.2. И чёрт побери, какая же большая разница.
Да, он дешевле. Но если ему приходится трижды объяснять, что ты хочешь, а он трижды делает одно и то же и не понимает задачу — траты всё равно выходят большие.
Opus, скорее всего, по итогу выйдет дороже. Но чисто из-за того, что с ним ты успеваешь сделать очень много.
А если делать проект на GPT-5.2 со всеми правками, то пока толком объяснишь, что именно нужно — потратишь до хрена времени и устанешь. В итоге просто забьешь и скажешь: «Ну нахер, лучше сам сделаю».
🐳4👍3
Forwarded from Иван Олянский (Ivan)
Проект, над которым я работаю последние два месяца, называется LifeTrend.
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
Основная идея заключалась в том, чтобы начать отслеживать свое состояние и переложить это на трейдинговый график. Чтобы точно так же была цена и объем.
Вначале хотел отслеживать только эмоции и общее состояние. В качестве «объема» должны были выступать события дня. Бывает так, что событий мало. А бывает, что их прям овердохрена, либо происходит какое-то одно, но очень большое и серьезное. Собственно, это и считается объемом.
Я начал отслеживать состояние, но параметры быстро расширились:
1. Энергия. Ощущение от -5 до +5. Когда энергия бьет ключом, или когда ты лежишь пластом и вообще нахрен ничего делать не хочешь.
2. Эмоциональный фон. Потому что есть базовое состояние, а есть эмоция, которая пришла и ушла.
3. Продуктивность. Решил посмотреть, что влияет на эффективность. Когда я работаю хорошо, а когда вообще делать ничего не хочу, и с чем это связано.
4. Активность и самочувствие. Спорт и физические ощущения.
Последнее, что добавил на днях — симптомы и препараты, чтобы точно видеть, что на меня влияет. А также то, что больше всего приносит радость — для управления настроением.
Самое основное, что хотел понять — какие есть взаимосвязи?
Прошло почти два месяца, как я веду записи. Приложение присылает оповещение три раза в день: нужно просто проставить данные и сделать заметки.
Проект получился про глубокое исследование себя.
И мне нравятся показатели, которые я вижу.
@LifeTrendBot - Возможно нужен будет VPN
🔥6
Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
👍5
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков
🔥 Новое
• Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
• Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.
✨ Улучшения
• Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
• Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
• Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.
@LifeTrendBot
lifetrend.ivol.pro
🚀 Обновление: Конфиденциальность, GDPR и Структура графиков
🔥 Новое
• Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
• Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.
✨ Улучшения
• Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
• Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.
@LifeTrendBot
lifetrend.ivol.pro
Forwarded from Иван Олянский (Ivan)
LifeTrend, 7 лет выгорания и зачем мне столько данных
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
👍8
Цена автоматизации: когда n8n экономит время, а когда жрет его
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
👍9
Небольшой мануал, как я настраиваю окружение.
Самое первое — создаю файл
В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
Самое первое — создаю файл
AI_Instruction.md. Добавляю туда все пожелания по проекту и вообще суть того, что мы делаем.В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
👍8🐳3🔥2
TechnoBlog of Ivan Olyansky
3090 карта
nemotron-3-nano 13.07 токенов/сек 😭😢
qwen3-vl-30b 36.25 токенов/сек
gpt-oss-20b 140.82 токенов/сек 🔥
nemotron-3-nano (21гб) 26.04 токенов/сек
gemma-3-27b-it-abliterated 28.63 токенов/сек
glm-4.6v-flash 55.19 токенов/сек
devstral-small-2-2512 26.95 токенов/сек
qwen3-coder-30b 20.84 токенов/сек
qwen3-48b-a4b 34.09 токенов/сек
Какой вывод:
Если нужны только текстовые модели и не пугает сборка, то дешевле, конечно, собрать из множества карт из P102-100. Если деньги позволяют, то собирать то же самое, только карты использовать 3090. Ну а если деньги не проблема, то, конечно, рассмотреть карты 5090. Ну а если и тут деньги не проблема, то рассмотреть уже специально заточенные GPU-карты.
nemotron-3-nano 13.07 токенов/сек 😭😢
qwen3-vl-30b 36.25 токенов/сек
gpt-oss-20b 140.82 токенов/сек 🔥
nemotron-3-nano (21гб) 26.04 токенов/сек
gemma-3-27b-it-abliterated 28.63 токенов/сек
glm-4.6v-flash 55.19 токенов/сек
devstral-small-2-2512 26.95 токенов/сек
qwen3-coder-30b 20.84 токенов/сек
qwen3-48b-a4b 34.09 токенов/сек
Какой вывод:
Если нужны только текстовые модели и не пугает сборка, то дешевле, конечно, собрать из множества карт из P102-100. Если деньги позволяют, то собирать то же самое, только карты использовать 3090. Ну а если деньги не проблема, то, конечно, рассмотреть карты 5090. Ну а если и тут деньги не проблема, то рассмотреть уже специально заточенные GPU-карты.
🔥7
Как же меня бомбит от версии GPT-5.2.
Какая же она тупая. Вот реально. Либо она оттупела ещё сильнее, либо я не могу понять, чем они там в OpenAi вообще занимаются.
Даю одно и то же задание для Flash 3, для GPT и для Sonnet. В Sonnet немного дорого делать мелкие правки. Gemini перестал работать из-за провайдера. Пришлось работать с GPT. Ну какой же он тупой!
Самое правильное решение, которое принял — больше не использовать его. Парадокс: модель стоит дешевле, но по факту выходит значительно дороже. Приходится трижды переделывать за ней. Из-за косяков и ошибок постоянно нужно либо переделывать полностью, либо доделывать.
Пример: модель занималась переводом одной страницы. Пришлось всю страницу делать заново, потому что она полностью сократила всё, убрала оригинальные названия и заменила их на свои.
В общем, внимательно смотрите за тем, что она делает.
Какая же она тупая. Вот реально. Либо она оттупела ещё сильнее, либо я не могу понять, чем они там в OpenAi вообще занимаются.
Даю одно и то же задание для Flash 3, для GPT и для Sonnet. В Sonnet немного дорого делать мелкие правки. Gemini перестал работать из-за провайдера. Пришлось работать с GPT. Ну какой же он тупой!
Самое правильное решение, которое принял — больше не использовать его. Парадокс: модель стоит дешевле, но по факту выходит значительно дороже. Приходится трижды переделывать за ней. Из-за косяков и ошибок постоянно нужно либо переделывать полностью, либо доделывать.
Пример: модель занималась переводом одной страницы. Пришлось всю страницу делать заново, потому что она полностью сократила всё, убрала оригинальные названия и заменила их на свои.
В общем, внимательно смотрите за тем, что она делает.
🫡6👎1😱1
Если вам нужно передать в n8n изображение агенту, через Телеграм
То все очень просто:
1️⃣ Включить Download Images/Files в триггере Телеграм.
2️⃣ Прям перед агентом поставить Merge
3️⃣ И в агенте включить:
Automatically Passthrough Binary Images
То все очень просто:
1️⃣ Включить Download Images/Files в триггере Телеграм.
2️⃣ Прям перед агентом поставить Merge
3️⃣ И в агенте включить:
Automatically Passthrough Binary Images
👍8
Лайфхак: Управление серверами через IDE и AI
Небольшой лайфхак. Через IDE можно управлять сервером сразу по SSH.
Алгоритм простой:
1. Создаёте папку, открываете её в VS Code.
2. Создаёте файл
(Это если у вас включен вход по ключу).
Там же описываете разрешённые команды и действия. Можно указать правило: «Согласовывай со мной все команды, которые хочешь выполнить». Вы сами будете видеть, что собирается делать нейросеть.
Кстати, OpenSSH Client в Windows 10/11 доступен по умолчанию или ставится в пару кликов. После этого команда
Собственно, после подключения у вас есть инструмент управления.
В файле инструкции можно описать огромное количество серверов. Просто говорите нейросети: «Пройди по всем 10 серверам и установи то-то» или «проверь логи».
По факту, это заменяет очень долгую настройку в n8n. Тут нужна только одна строка для доступа и ваши пожелания, что нужно выполнить.
Небольшой лайфхак. Через IDE можно управлять сервером сразу по SSH.
Алгоритм простой:
1. Создаёте папку, открываете её в VS Code.
2. Создаёте файл
.md с инструкцией по подключению:ssh -i C:\path\to\private_key.pem user@hostname -p 22(Это если у вас включен вход по ключу).
Там же описываете разрешённые команды и действия. Можно указать правило: «Согласовывай со мной все команды, которые хочешь выполнить». Вы сами будете видеть, что собирается делать нейросеть.
Кстати, OpenSSH Client в Windows 10/11 доступен по умолчанию или ставится в пару кликов. После этого команда
ssh работает в терминале без дополнительных настроек.Собственно, после подключения у вас есть инструмент управления.
В файле инструкции можно описать огромное количество серверов. Просто говорите нейросети: «Пройди по всем 10 серверам и установи то-то» или «проверь логи».
По факту, это заменяет очень долгую настройку в n8n. Тут нужна только одна строка для доступа и ваши пожелания, что нужно выполнить.
👍8