Perplexity продолжает расстраивать.
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
Вижу, что они добавили кэширование для запросов, но работает оно у них странно. Принцип такой: вопрос немножко похож — значит, вернем то, что было в прошлом ответе.
Хотя я формулировкой спросил совершенно другое, то, что мне нужно. Но возвращается какой-то простой запрос, который вообще никаким образом не отвечает на мой вопрос.
Я прекрасно понимаю, что они делают. Предоставляют подписку за гроши, а сейчас занимаются полноценным уменьшением растрат, выдавая кэшированные запросы. То есть по факту отвечает не совсем нейросеть. Отвечает самая простая система, которая видит, что запрос примерно подходит по параметрам, и просто достает готовый ответ.
Раньше, когда я задавал вопрос, нейросеть старалась ответить именно на него. Я это видел. Точных попаданий было больше, а ситуаций, когда нужно было переспрашивать — меньше.
Сейчас мне нужно прямо делать глобальное уточнение. Плюс проблема с контекстом: в одном треде спрашиваю одно, потом уточняю, а Perplexity почему-то отвечает так, будто он даже и не в курсе про первый вопрос.
В общем, печально все это. Замечали такие проблемы?
UPD:
Радует одно, что если добавить точные уточнения все, он все еще выполняет то, что нужно. Но надолго ли?
👍5
Знаете, какое самое сильное отличие заметил у GPT-5.2 от Opus и Gemini?
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
Он, сука, не предлагает простые решения.
Ситуация: заливал проект на Git. Система обнаружила, что в папке с шаблонами остались ключи.
GPT в итоге потратил кучу токенов. Целый час, ЧАС Карал! Что-то пытался удалить из всех шаблонов. Придумывал какие-то вообще невообразимые решения, писал скрипты, пытался вычистить это всё. Потом подключался к гиту, проверял.
Потратил пи...ц сколько времени.
Хотя можно было просто сказать: эта папка никак не участвует в проекте. Давайте её исключим. И всё.
Собственно, вопрос так и решился.
😁8🔥1
🚀 Обновление: LifeTrend
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
Новый Дашборд, AI-ассистент и Трекинг снов
🔥 Новое
• Обновленный Дашборд: Главный экран полностью переработан. Теперь доступны 6 ключевых метрик (настроение, энергия, продуктивность, здоровье) и наглядные графики трендов.
• AI Ассистент: Добавлен отдельный раздел с умным помощником и настройками выбора моделей. (будет работать после 60 записей)
• Трекинг снов: В форме записи настроения появилось поле для фиксации снов.
• Продвинутая аналитика: Внедрены графики SMA (скользящие средние) и осцилляторы для детального анализа вашего состояния.
• Управление симптомами: Появился раздел для создания и отслеживания физических симптомов.
• Экспорт данных: В настройках добавлена возможность выгрузить всю историю записей в формате JSON.
✨ Улучшения
• Автосохранение: Черновики записей теперь сохраняются автоматически — данные не пропадут при случайном закрытии.
• История записей: В деталях дня теперь отображаются симптомы, добавлена возможность удалять ошибочные записи.
• Часовые пояса: Расширен список таймзон для более точной привязки времени записей.
• Эксперименты: Обновлен интерфейс для управления личными экспериментами.
@LifeTrendBot
lifetrend.ivol.pro
👍5
Please open Telegram to view this post
VIEW IN TELEGRAM
😱7💔1
🚀 Обновление: Унификация интерфейса и Детализация графиков
🔥 Новое
• Фильтры периодов: На аналитические графики добавлены кнопки быстрого выбора временного диапазона (1 неделя, 1 месяц, 1 год).
• Публичный Timeline: Для ленты событий реализована отдельная посадочная страница, доступная без авторизации.
✨ Улучшения
• Единый стиль: Интерфейс приложения унифицирован (SaaS Skin) — убран избыточный конфигуратор тем для визуальной стабильности.
• Лаборатория: В аналитике экспериментов появилась настройка «Зачет дня» — можно выбрать, считать успехом выполнение всех целей или любой одной.
• Отображение данных: Добавлены отступы по краям графиков, чтобы показатели не прилипали к границам шкалы.
@LifeTrendBot
lifetrend.ivol.pro
🚀 Обновление: Конфиденциальность, GDPR и Структура графиков
🔥 Новое
• Центр конфиденциальности: Добавлены официальные страницы Политики конфиденциальности и Cookie Policy.
• Управление данными: Внедрены инструменты согласия на обработку данных (GDPR) и баннер cookie для соответствия стандартам безопасности.
✨ Улучшения
• Визуализация экспериментов: График аналитики теперь разделен на три независимые секции (Счетчик, Значение, Успех) для более детального разбора прогресса.
• Доступность информации: Ссылки на правовые документы вынесены в подвал (футер) приложения и лендинга.
@LifeTrendBot
lifetrend.ivol.pro
Forwarded from Иван Олянский (Ivan)
LifeTrend, 7 лет выгорания и зачем мне столько данных
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
Год начался с апгрейда LifeTrend.
Изначально идея была безумной: конвертировать свое состояние в график для трейдинга, накинуть индикатор и предсказывать будущее. Но за два месяца проект трансформировался в полноценную лабораторию.
Что я отслеживаю сейчас:
1. Настроение и уровень энергии (субъективно).
2. Продуктивность и спорт.
3. Здоровье и качество сна.
4. Интенсивность событий (внешний хаос, на который я не влияю) и их эмоциональный окрас.
Философия «Для себя»
Все мои проекты — Sponli Космос Онлайн, «Книга Жизни», торговые боты — всегда создавались под мои личные боли. Sponli — чтобы видеть небо сквозь тучи. Индикаторы — чтобы обуздать эмоции в торговле.
Сейчас я закрываю старые проекты и сайты. Поддерживать их нецелесообразно. LifeTrend объединяет весь мой опыт и текущие интересы в одну систему.
Главный инсайт за 7 лет
Самый жирный плюс трекинга — ты видишь, где теряешь энергию.
Я проанализировал данные и понял: так, как последнюю неделю, я не чувствовал себя 7 лет. С того момента, как влез в крипту и майнинг. Трейдинг высасывал ресурс. Мой индикатор был написан на злости, в попытке убежать от эмоций через инструмент.
Да, на злости можно творить. Но двигаться на позитивной энергии — проще и эффективнее. Блин, это банально приятно — просто быть в хорошем настроении.
Вывод: Надо безжалостно убирать то, что жрет ресурс. Когда есть энергия — есть желание создавать.
Что дальше:
Скоро внедрю в LifeTrend AI-ассистента. Он будет анализировать записи, искать корреляции и давать советы. Даже неделя трекинга даст вам достаточно данных, чтобы понять, что нужно пофиксить в жизни.
@LifeTrendBot
https://lifetrend.ivol.pro
👍8
Цена автоматизации: когда n8n экономит время, а когда жрет его
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
Даже в самом начале постановки задачи можно предусмотреть момент: когда n8n сэкономит время, а когда начнет его жрать.
Самое первое, что нужно понять — какими объемами данных мы будем оперировать. Если пакет данных очень большой, сложности начнутся уже на этапе разработки.
У меня в трейдинговом проекте агент скачивает с сервера большие объемы информации — иногда это десятки мегабайт. И когда идет сложная структура, много узлов, где-то нужно добавить код, где-то обработать данные — всё начинает подтупливать.
Все данные, которые идут по узлам, накапливаются в памяти редактора. С каждым шагом интерфейс становится всё тяжелее. В итоге максимум можно сделать один прогон, а потом приходится перезагружать страницу, чтобы просто продолжить работу.
То же самое происходит, когда данных немного, но очень много узлов.
Достать из базы, обработать, где-то перевернуть, где-то заменить. В самом начале, на тестовых маленьких базах, всё работает нормально. Но со временем, когда начинаешь получать, скажем, 200 строк из таблицы, а внутри строк лежат весомые данные — всё начинает очень жестко тормозить.
Какой вывод?
Разрабатывать нужно сразу с прицелом на масштабирование:
1. Тяжелые блоки выносить в отдельные workflow (sub-workflows).
2. Или лучший вариант: отладили в n8n, проверили гипотезу, убедились, что всё работает замечательно — и переписали узкие места на чистый код.
n8n идеален для прототипа, но на больших объемах чистый код выигрывает.
👍9
Небольшой мануал, как я настраиваю окружение.
Самое первое — создаю файл
В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
Самое первое — создаю файл
AI_Instruction.md. Добавляю туда все пожелания по проекту и вообще суть того, что мы делаем.В этом файле прописываю технический регламент:
— Нужно ли делать тесты и когда (после каждого добавления или в конце)
— Нужно ли запускать build
— Нужен ли Git и контроль версий
У меня есть готовый шаблон, по которому я заполняю этот файл, но обычно он растет сам в зависимости от работы проекта.
Самое главное требование к AI:
Когда я ставлю задачу, модель должна сначала изучить код, понять контекст и текущую архитектуру. И на основании этого — предложить решение.
Не бросаться сразу в реализацию, а описать план:
1. Как это будет выглядеть
2. Как это будет работать
3. Какие файлы будут затронуты
Архитектура должна быть полностью согласована со мной до того, как начнется кодинг.
Почему так? С какой бы моделью я ни работал — даже Opus косячит. Если не контролировать, они начинают делать то, что я не просил, и постоянно что-то придумывают.
Поэтому добавляю в файл строчку: «Действовать строго по инструкции». Ничего своего не предлагать. Если есть идея лучше — вначале предложи, и только после согласования — делай.
👍8🐳3🔥2
TechnoBlog of Ivan Olyansky
3090 карта
nemotron-3-nano 13.07 токенов/сек 😭😢
qwen3-vl-30b 36.25 токенов/сек
gpt-oss-20b 140.82 токенов/сек 🔥
nemotron-3-nano (21гб) 26.04 токенов/сек
gemma-3-27b-it-abliterated 28.63 токенов/сек
glm-4.6v-flash 55.19 токенов/сек
devstral-small-2-2512 26.95 токенов/сек
qwen3-coder-30b 20.84 токенов/сек
qwen3-48b-a4b 34.09 токенов/сек
Какой вывод:
Если нужны только текстовые модели и не пугает сборка, то дешевле, конечно, собрать из множества карт из P102-100. Если деньги позволяют, то собирать то же самое, только карты использовать 3090. Ну а если деньги не проблема, то, конечно, рассмотреть карты 5090. Ну а если и тут деньги не проблема, то рассмотреть уже специально заточенные GPU-карты.
nemotron-3-nano 13.07 токенов/сек 😭😢
qwen3-vl-30b 36.25 токенов/сек
gpt-oss-20b 140.82 токенов/сек 🔥
nemotron-3-nano (21гб) 26.04 токенов/сек
gemma-3-27b-it-abliterated 28.63 токенов/сек
glm-4.6v-flash 55.19 токенов/сек
devstral-small-2-2512 26.95 токенов/сек
qwen3-coder-30b 20.84 токенов/сек
qwen3-48b-a4b 34.09 токенов/сек
Какой вывод:
Если нужны только текстовые модели и не пугает сборка, то дешевле, конечно, собрать из множества карт из P102-100. Если деньги позволяют, то собирать то же самое, только карты использовать 3090. Ну а если деньги не проблема, то, конечно, рассмотреть карты 5090. Ну а если и тут деньги не проблема, то рассмотреть уже специально заточенные GPU-карты.
🔥7
Как же меня бомбит от версии GPT-5.2.
Какая же она тупая. Вот реально. Либо она оттупела ещё сильнее, либо я не могу понять, чем они там в OpenAi вообще занимаются.
Даю одно и то же задание для Flash 3, для GPT и для Sonnet. В Sonnet немного дорого делать мелкие правки. Gemini перестал работать из-за провайдера. Пришлось работать с GPT. Ну какой же он тупой!
Самое правильное решение, которое принял — больше не использовать его. Парадокс: модель стоит дешевле, но по факту выходит значительно дороже. Приходится трижды переделывать за ней. Из-за косяков и ошибок постоянно нужно либо переделывать полностью, либо доделывать.
Пример: модель занималась переводом одной страницы. Пришлось всю страницу делать заново, потому что она полностью сократила всё, убрала оригинальные названия и заменила их на свои.
В общем, внимательно смотрите за тем, что она делает.
Какая же она тупая. Вот реально. Либо она оттупела ещё сильнее, либо я не могу понять, чем они там в OpenAi вообще занимаются.
Даю одно и то же задание для Flash 3, для GPT и для Sonnet. В Sonnet немного дорого делать мелкие правки. Gemini перестал работать из-за провайдера. Пришлось работать с GPT. Ну какой же он тупой!
Самое правильное решение, которое принял — больше не использовать его. Парадокс: модель стоит дешевле, но по факту выходит значительно дороже. Приходится трижды переделывать за ней. Из-за косяков и ошибок постоянно нужно либо переделывать полностью, либо доделывать.
Пример: модель занималась переводом одной страницы. Пришлось всю страницу делать заново, потому что она полностью сократила всё, убрала оригинальные названия и заменила их на свои.
В общем, внимательно смотрите за тем, что она делает.
🫡6👎1😱1
Если вам нужно передать в n8n изображение агенту, через Телеграм
То все очень просто:
1️⃣ Включить Download Images/Files в триггере Телеграм.
2️⃣ Прям перед агентом поставить Merge
3️⃣ И в агенте включить:
Automatically Passthrough Binary Images
То все очень просто:
1️⃣ Включить Download Images/Files в триггере Телеграм.
2️⃣ Прям перед агентом поставить Merge
3️⃣ И в агенте включить:
Automatically Passthrough Binary Images
👍8
Лайфхак: Управление серверами через IDE и AI
Небольшой лайфхак. Через IDE можно управлять сервером сразу по SSH.
Алгоритм простой:
1. Создаёте папку, открываете её в VS Code.
2. Создаёте файл
(Это если у вас включен вход по ключу).
Там же описываете разрешённые команды и действия. Можно указать правило: «Согласовывай со мной все команды, которые хочешь выполнить». Вы сами будете видеть, что собирается делать нейросеть.
Кстати, OpenSSH Client в Windows 10/11 доступен по умолчанию или ставится в пару кликов. После этого команда
Собственно, после подключения у вас есть инструмент управления.
В файле инструкции можно описать огромное количество серверов. Просто говорите нейросети: «Пройди по всем 10 серверам и установи то-то» или «проверь логи».
По факту, это заменяет очень долгую настройку в n8n. Тут нужна только одна строка для доступа и ваши пожелания, что нужно выполнить.
Небольшой лайфхак. Через IDE можно управлять сервером сразу по SSH.
Алгоритм простой:
1. Создаёте папку, открываете её в VS Code.
2. Создаёте файл
.md с инструкцией по подключению:ssh -i C:\path\to\private_key.pem user@hostname -p 22(Это если у вас включен вход по ключу).
Там же описываете разрешённые команды и действия. Можно указать правило: «Согласовывай со мной все команды, которые хочешь выполнить». Вы сами будете видеть, что собирается делать нейросеть.
Кстати, OpenSSH Client в Windows 10/11 доступен по умолчанию или ставится в пару кликов. После этого команда
ssh работает в терминале без дополнительных настроек.Собственно, после подключения у вас есть инструмент управления.
В файле инструкции можно описать огромное количество серверов. Просто говорите нейросети: «Пройди по всем 10 серверам и установи то-то» или «проверь логи».
По факту, это заменяет очень долгую настройку в n8n. Тут нужна только одна строка для доступа и ваши пожелания, что нужно выполнить.
👍8
Канал проекта
https://t.me/life_trend
Сюда выкладываю все обновления сайта. Свежие фичи, новые возможности и развитие платформы — всё самое актуальное живет здесь.
@LifeTrendBot
https://lifetrend.ivol.pro
https://t.me/life_trend
Сюда выкладываю все обновления сайта. Свежие фичи, новые возможности и развитие платформы — всё самое актуальное живет здесь.
@LifeTrendBot
https://lifetrend.ivol.pro
Telegram
LifeTrend
LifeTrend — дневник осознанности с AI
Отслеживаю своё состояние 3 раза в день. Графики, паттерны, инсайты. Эксперимент над собой в реальном времени.
https://lifetrend.ivol.pro
@LifeTrendBot
Отслеживаю своё состояние 3 раза в день. Графики, паттерны, инсайты. Эксперимент над собой в реальном времени.
https://lifetrend.ivol.pro
@LifeTrendBot
👍5
Вчера обнаружил xAI: Grok Code Fast 1 — оказывается, можно бесплатно программировать.
Через плагин KiloCode.
Работает не только в Visual Studio, но и в PHPStorm эта модель тоже появилась бесплатно. В списке есть и другие модели бесплатные:
MiniMax M2.1
Mistral Devstral 2
KAT-Coder-Pro V1
В данный момент — не знаю, сколько у них там эта акция продлится — но делать какие-то прям очень маленькие вещи делает. И работает хорошо, на удивление.
Я использовал Grok для мелких изменений по коду. Но сразу хочу предупредить насчет контекста.
Как только объем превысит 100 тысяч токенов, модель сразу же начнет тупить. На 120 тысячах у меня она вообще отказалась работать. Она уменьшает, сжимает токены, и делает это очень странно. В итоге забывает, что делала, и начинает творить просто какую-то лютую херню.
Поэтому следить нужно за количеством токенов. Но для очень простых вещей — что-то подсказать, найти, изменить — вообще отлично.
Через плагин KiloCode.
Работает не только в Visual Studio, но и в PHPStorm эта модель тоже появилась бесплатно. В списке есть и другие модели бесплатные:
MiniMax M2.1
Mistral Devstral 2
KAT-Coder-Pro V1
В данный момент — не знаю, сколько у них там эта акция продлится — но делать какие-то прям очень маленькие вещи делает. И работает хорошо, на удивление.
Я использовал Grok для мелких изменений по коду. Но сразу хочу предупредить насчет контекста.
Как только объем превысит 100 тысяч токенов, модель сразу же начнет тупить. На 120 тысячах у меня она вообще отказалась работать. Она уменьшает, сжимает токены, и делает это очень странно. В итоге забывает, что делала, и начинает творить просто какую-то лютую херню.
Поэтому следить нужно за количеством токенов. Но для очень простых вещей — что-то подсказать, найти, изменить — вообще отлично.
👍6🐳1
Forwarded from Иван Олянский (Ivan)
71 день как я веду записи в LifeTrend
И вот такие интересные мысли приходят в голову:
Если бы я начинал заново: главное, что нужно найти первым
https://note.ivol.pro/p/esli-by-a-nacinal-zanovo-glavnoe-cto-nuzno-najti-pervym-1768017369
И вот такие интересные мысли приходят в голову:
Если бы я начинал заново: главное, что нужно найти первым
https://note.ivol.pro/p/esli-by-a-nacinal-zanovo-glavnoe-cto-nuzno-najti-pervym-1768017369
👍4❤1