Ну вот и приплыли. Perplexity деградирует.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
🤔5
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Почти всю ночь тестировал модель GLM-4. Впечатления хорошие.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
👍2💩1
GitHub
GitHub - oiv-an/Voice
Contribute to oiv-an/Voice development by creating an account on GitHub.
Выпустил небольшое обновление VoiceCapture до версии 2.1.2. Добавил пару полезных улучшений, которые делают работу с программой еще удобнее:
Что нового в v2.1.3:
* Изменение размера окна: Теперь можно изменять размер главного окна — просто потяните за правый нижний угол. Особенно удобно, когда нужно работать с длинными текстами.
* Улучшенное логирование: Переработал систему логов. Теперь новые записи появляются сверху (не нужно прокручивать до конца), а файл автоматически очищается при достижении 1 МБ.
Что было в v2.1.1:
* Настраиваемый системный промпт: Добавил возможность редактировать системный промпт LLM прямо в настройках. Теперь можно гибко настраивать постобработку текста — задавать стиль, просить переводить и т.д. без изменения кода.
Обновление доступно для скачивания.
https://github.com/oiv-an/Voice/releases/tag/v2.1.3
Что нового в v2.1.3:
* Изменение размера окна: Теперь можно изменять размер главного окна — просто потяните за правый нижний угол. Особенно удобно, когда нужно работать с длинными текстами.
* Улучшенное логирование: Переработал систему логов. Теперь новые записи появляются сверху (не нужно прокручивать до конца), а файл автоматически очищается при достижении 1 МБ.
Что было в v2.1.1:
* Настраиваемый системный промпт: Добавил возможность редактировать системный промпт LLM прямо в настройках. Теперь можно гибко настраивать постобработку текста — задавать стиль, просить переводить и т.д. без изменения кода.
Обновление доступно для скачивания.
https://github.com/oiv-an/Voice/releases/tag/v2.1.3
🐳6💩1
Понадобилось получить рут-права на телефоне.
Вспомните, как это происходило раньше. Нужно было убить кучу времени: шерстить форумы, искать информацию под конкретную модель, разбираться с разблокировкой загрузчика. Всегда был риск ошибиться или случайно скачать не ту прошивку.
Как это работает сейчас?
Нейросеть сразу подсказывает алгоритм именно для этого устройства. Находит нужные файлы, говорит, как правильно подключить и что сделать. Процесс ускорился максимально.
Я потратил меньше часа. Раньше на это уходило часа четыре. И это при том, что я знаю матчасть и понимаю, как работает загрузчик. Но сам факт: тебе не нужно часами искать и перепроверять информацию, чтобы не превратить телефон в кирпич.
Всё стало значительно проще. Нейросети превратили рутину в волшебство.
Вспомните, как это происходило раньше. Нужно было убить кучу времени: шерстить форумы, искать информацию под конкретную модель, разбираться с разблокировкой загрузчика. Всегда был риск ошибиться или случайно скачать не ту прошивку.
Как это работает сейчас?
Нейросеть сразу подсказывает алгоритм именно для этого устройства. Находит нужные файлы, говорит, как правильно подключить и что сделать. Процесс ускорился максимально.
Я потратил меньше часа. Раньше на это уходило часа четыре. И это при том, что я знаю матчасть и понимаю, как работает загрузчик. Но сам факт: тебе не нужно часами искать и перепроверять информацию, чтобы не превратить телефон в кирпич.
Всё стало значительно проще. Нейросети превратили рутину в волшебство.
👍2
За 15 минут навёл порядок в OpenWebUI (и заархивировал 1000+ чатов)
Я долго искал нормальный способ быстро почистить историю в OpenWebUI. Перепробовал разные плагины, даже пытался написать свою функцию — но всё работало нестабильно или “как-то не так”, или не работала вообще.
В какой-то момент я уже почти смирился и подумал: “Ладно, прокликаю вручную”. А у меня там было больше тысячи чатов — это значит открыть меню у каждого, нажать “Архив”, и так сотни раз. Сомнительное удовольствие.
В итоге я сделал простую штуку: Tampermonkey-скрипт, который делает ровно то, что я бы делал руками — только быстро и без ошибок. Он проходит по левому сайдбару, открывает меню (три точки) у каждого чата и отправляет его в архив. У меня он буквально за ~15 минут прокликал и заархивировал всё.
Самое важное: это UI-автоматизация. Не нужно лезть в базу данных OpenWebUI, не нужно ковырять внутренности проекта, не нужно писать миграции или рисковать сломать инстанс. Просто “как пользователь”, но в автоматическом режиме.
Если у тебя тоже накопилась огромная история — забирай скрипт:
https://github.com/oiv-an/openwebui-auto-archive
Установка простая: ставишь Tampermonkey, вставляешь
Все это сделано потому, что в новом обновлении OpenWebUI очень медленная загрузка, потому что он как-то работает с историей всех чатов, еще что-то, и в итоге все грузится писец как долго.
Я долго искал нормальный способ быстро почистить историю в OpenWebUI. Перепробовал разные плагины, даже пытался написать свою функцию — но всё работало нестабильно или “как-то не так”, или не работала вообще.
В какой-то момент я уже почти смирился и подумал: “Ладно, прокликаю вручную”. А у меня там было больше тысячи чатов — это значит открыть меню у каждого, нажать “Архив”, и так сотни раз. Сомнительное удовольствие.
В итоге я сделал простую штуку: Tampermonkey-скрипт, который делает ровно то, что я бы делал руками — только быстро и без ошибок. Он проходит по левому сайдбару, открывает меню (три точки) у каждого чата и отправляет его в архив. У меня он буквально за ~15 минут прокликал и заархивировал всё.
Самое важное: это UI-автоматизация. Не нужно лезть в базу данных OpenWebUI, не нужно ковырять внутренности проекта, не нужно писать миграции или рисковать сломать инстанс. Просто “как пользователь”, но в автоматическом режиме.
Если у тебя тоже накопилась огромная история — забирай скрипт:
https://github.com/oiv-an/openwebui-auto-archive
Установка простая: ставишь Tampermonkey, вставляешь
index.js, в шапке меняешь @match на домен своего OpenWebUI — и запускаешь кнопкой на странице.Все это сделано потому, что в новом обновлении OpenWebUI очень медленная загрузка, потому что он как-то работает с историей всех чатов, еще что-то, и в итоге все грузится писец как долго.
GitHub
GitHub - oiv-an/openwebui-auto-archive: Tampermonkey-скрипт для **массовой архивации чатов** в OpenWebUI через UI: открывает меню…
Tampermonkey-скрипт для **массовой архивации чатов** в OpenWebUI через UI: открывает меню (три точки) у каждого чата и нажимает **«Архив»**. - oiv-an/openwebui-auto-archive
👍4🔥2💩1
Почему модели в подписках «тупеют»
Многие замечают деградацию качества ответов в популярных сервисах. Почему так происходит? Ответ кроется в классическом жизненном цикле любого бизнеса.
Когда продукт только создается, задача одна — сделать лучшее качество на рынке. Команда вкладывается в технологии, запускает массивную рекламу и завоевывает аудиторию. Продукт работает идеально, чтобы «подсадить» пользователя.
Но затем наступает период возврата инвестиций. К власти приходят люди, чья задача — не развитие технологий, а максимизация прибыли.
Если база пользователей огромна (как сейчас у ChatGPT или Perplexity), включается эффект инерции. Люди уже настроили процессы под этот инструмент. Даже если сервис станет чуть хуже или дороже, они не уйдут, потому что привыкли.
Начинается процесс, похожий на «шринкфляцию» в продуктовых магазинах. Это как с молоком: цена та же, но в пакете уже не литр, а 900 мл. Это экономия на масштабе.
В AI-сервисах происходит то же самое. Чтобы увеличить маржу, разработчики начинают «подкручивать гайки»: упрощают модель, урезают контекст, оптимизируют вычислительные мощности. Делают это осторожно, чтобы не вызвать массовый отток, но качество неизбежно падает.
Вывод:
Именно поэтому я работаю через API. Там мы получаем доступ к модели в её изначальном, «сыром» виде.
В веб-версиях идет оптимизация расходов на массового пользователя. В API, по крайней мере с новыми моделями, я такой деградации не замечал. Вы получаете ровно то, за что платите за каждый токен.
Многие замечают деградацию качества ответов в популярных сервисах. Почему так происходит? Ответ кроется в классическом жизненном цикле любого бизнеса.
Когда продукт только создается, задача одна — сделать лучшее качество на рынке. Команда вкладывается в технологии, запускает массивную рекламу и завоевывает аудиторию. Продукт работает идеально, чтобы «подсадить» пользователя.
Но затем наступает период возврата инвестиций. К власти приходят люди, чья задача — не развитие технологий, а максимизация прибыли.
Если база пользователей огромна (как сейчас у ChatGPT или Perplexity), включается эффект инерции. Люди уже настроили процессы под этот инструмент. Даже если сервис станет чуть хуже или дороже, они не уйдут, потому что привыкли.
Начинается процесс, похожий на «шринкфляцию» в продуктовых магазинах. Это как с молоком: цена та же, но в пакете уже не литр, а 900 мл. Это экономия на масштабе.
В AI-сервисах происходит то же самое. Чтобы увеличить маржу, разработчики начинают «подкручивать гайки»: упрощают модель, урезают контекст, оптимизируют вычислительные мощности. Делают это осторожно, чтобы не вызвать массовый отток, но качество неизбежно падает.
Вывод:
Именно поэтому я работаю через API. Там мы получаем доступ к модели в её изначальном, «сыром» виде.
В веб-версиях идет оптимизация расходов на массового пользователя. В API, по крайней мере с новыми моделями, я такой деградации не замечал. Вы получаете ровно то, за что платите за каждый токен.
👍8❤2💩2
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Как нейросети изменили мою культуру разработки
Раньше я часто пренебрегал правилами разработки. Писал сразу на чистовик, тесты не делал почти никогда. Главная задача была — ускорить процесс и получить готовый продукт. GitHub'ом пользовался редко, коммиты делал от случая к случаю.
С нейросетями всё изменилось. Теперь я соблюдаю все стандарты. Прошу нейросеть написать тесты, запустить их и выстроить структуру.
Отдельная история — это работа с Git. Настоящая золотая кнопка. Раньше я мог внести кучу правок, а потом сидел и вспоминал, что именно изменилось в файлах. Сейчас нейросеть анализирует код и моментально выдает подробное описание коммита. История изменений выглядит профессионально без моих усилий.
Ещё один важнейший пункт — безопасность. Смотрю сейчас на свои старые проекты и понимаю, что код был дырявым. Я тогда просто не видел проблем, а сейчас исправлять это руками нет времени. Нейросети проводят аудит и находят уязвимости за секунды.
По инструменту. Рекомендую GLM 4.6. Если зарегистрироваться именно по реферальной ссылке, через аккаунт github которому больше месяца, то дают 200$. Кому-то даже дали 225$, получается мощный бесплатный помощник. Модель идеально подходит для поиска багов, рефакторинга и мелких правок. (Я зарегистрировал на GitHub еще два аккаунта и оставил их на месяц. Как месяц прошел, получил еще 200$ для дальнейших разработок на каждый аккаунт.)
Вывод: теперь не нужно выбирать между скоростью и качеством. Делаю быстро, но сразу правильно.
Раньше я часто пренебрегал правилами разработки. Писал сразу на чистовик, тесты не делал почти никогда. Главная задача была — ускорить процесс и получить готовый продукт. GitHub'ом пользовался редко, коммиты делал от случая к случаю.
С нейросетями всё изменилось. Теперь я соблюдаю все стандарты. Прошу нейросеть написать тесты, запустить их и выстроить структуру.
Отдельная история — это работа с Git. Настоящая золотая кнопка. Раньше я мог внести кучу правок, а потом сидел и вспоминал, что именно изменилось в файлах. Сейчас нейросеть анализирует код и моментально выдает подробное описание коммита. История изменений выглядит профессионально без моих усилий.
Ещё один важнейший пункт — безопасность. Смотрю сейчас на свои старые проекты и понимаю, что код был дырявым. Я тогда просто не видел проблем, а сейчас исправлять это руками нет времени. Нейросети проводят аудит и находят уязвимости за секунды.
По инструменту. Рекомендую GLM 4.6. Если зарегистрироваться именно по реферальной ссылке, через аккаунт github которому больше месяца, то дают 200$. Кому-то даже дали 225$, получается мощный бесплатный помощник. Модель идеально подходит для поиска багов, рефакторинга и мелких правок. (Я зарегистрировал на GitHub еще два аккаунта и оставил их на месяц. Как месяц прошел, получил еще 200$ для дальнейших разработок на каждый аккаунт.)
Вывод: теперь не нужно выбирать между скоростью и качеством. Делаю быстро, но сразу правильно.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
🐳5
Сегодня всю ночь использовал GLM-6. Могу сравнить эту модель с GPT-5. Они примерно на одном уровне — и та, и та одинаково тупят.
Но общее впечатление от модели, блин, хорошее. Когда пробовал первый раз (вероятно, это была GLM-4.5), она меня никак не впечатлила. Но сейчас действительно вижу хороший прогресс.
Модель идеально подходит для поиска и исправления небольших изменений. Если делать с ней что-то большое, она всё равно ведет себя иногда не совсем адекватно. Хотя за 5 часов работы ошиблась только один раз — скобку не там добавила.
Самое главное — она сама пишет тесты и документацию. Я не добавлял никаких пользовательских промтов. Модель сама после каждой итерации старается сделать отладку, написать тест и исполнить его. Это прям заточено для разработки.
Использую её, потому что она есть по факту на халяву. Хочу полностью испытать эту модель.
Кстати, через Agent Router я смог запустить и GPT-5.2, и Claude Sonnet 4.5 (20250929). Но все эти модели почему-то отказались работать в Kilocode. Просто пишется текст, не исполняется тул. Непонятно почему.
Тут самый главный вопрос. Как живут эти китайцы, которые так щедро раздают деньги?
Но общее впечатление от модели, блин, хорошее. Когда пробовал первый раз (вероятно, это была GLM-4.5), она меня никак не впечатлила. Но сейчас действительно вижу хороший прогресс.
Модель идеально подходит для поиска и исправления небольших изменений. Если делать с ней что-то большое, она всё равно ведет себя иногда не совсем адекватно. Хотя за 5 часов работы ошиблась только один раз — скобку не там добавила.
Самое главное — она сама пишет тесты и документацию. Я не добавлял никаких пользовательских промтов. Модель сама после каждой итерации старается сделать отладку, написать тест и исполнить его. Это прям заточено для разработки.
Использую её, потому что она есть по факту на халяву. Хочу полностью испытать эту модель.
Кстати, через Agent Router я смог запустить и GPT-5.2, и Claude Sonnet 4.5 (20250929). Но все эти модели почему-то отказались работать в Kilocode. Просто пишется текст, не исполняется тул. Непонятно почему.
Тут самый главный вопрос. Как живут эти китайцы, которые так щедро раздают деньги?
👍4
TechnoBlog of Ivan Olyansky
3 карты p102-100 - одна х1 pci mixtral:latest 26,6 гб = 19.99 т/с qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 21,28 т/с не влезла вся в память) 4 карты p102-100 3 из них в райзерах х1 qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 26.2 т/с qwen3:32b-q8_0…
qwen3:30b-a3b-thinking-2507-q8_0 30,3GB 40.33 т/с
qwen3:32b-q8_0 32.7GB 7.88 т/с
qwen3:30b-a3b-q8_0 31GB 40.86 т/с
Llama-3.3-70B-Instruct-GGUF:Q3_K_M 32ГБ 5.51 т/с
gpt-oss:20b 53.95 т/с
Стоит пока 5 карт, на одну не хватило питания. потребление 700 -800W в пике видел
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥3
gpt-oss:120b 61Gb 10 т/с
⚠️ 🙂↔️
UPD
Добавил еще одну карту - 12.64 т/с
UPD2
Работать практически невозможно. Если давать какой-то долгий запрос или ждать сразу какой-то большой ответ, то все ок. Но если выполнять в режиме чата, то модель максимально долго отвечает.
UPD3
провел многократные тесты с разными моделями и посмотрел по скорости, по качеству, как работают ну все, есть один бесспорный лидер nemotron-3-nano:latest для быстрых задач.
qwen3:30b-a3b-thinking-2507-q8_0 для сложных задач
UPD qwen3:30b-a3b-thinking-2507-q8_0 энергопотребление 470W с розетки .
⚠️ 🙂↔️
UPD
Добавил еще одну карту - 12.64 т/с
UPD2
Работать практически невозможно. Если давать какой-то долгий запрос или ждать сразу какой-то большой ответ, то все ок. Но если выполнять в режиме чата, то модель максимально долго отвечает.
UPD3
провел многократные тесты с разными моделями и посмотрел по скорости, по качеству, как работают ну все, есть один бесспорный лидер nemotron-3-nano:latest для быстрых задач.
qwen3:30b-a3b-thinking-2507-q8_0 для сложных задач
UPD qwen3:30b-a3b-thinking-2507-q8_0 энергопотребление 470W с розетки .
👍6❤1
А вы знали, что сейчас дефицит очень дешевых видеокарт? Разбирают их, как пирожки. Понять не могу, для чего только.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
🤔3
Почему можно не бояться Вайб-кодеров
За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.
Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.
Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.
Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.
Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.
Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.
По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
За последние несколько месяцев я очень много программирую с нейросетями. Мой опыт в разработке — более 15 лет. Я понимаю, как нужно строить архитектуру, как должны выглядеть проекты, и сам могу найти ошибку или написать код.
Наблюдение такое: мелкие проекты и доработки нейросеть делает вообще очень легко. Средние — тоже хорошо. Но когда доходит до сложностей, даже самые умные модели заходят в дебри и начинают творить какую-то херню.
Поправить это — огромное количество итераций, даже на топовых моделях. Плюс в разработке контекст всегда большой, порядка 100–200 тысяч токенов в одном запросе. В начале, когда нейросеть только строит проект, денег уходит немного. Но когда начинаешь разбираться с ошибками, появляется такая жопа. Для решения одной проблемы может уйти очень много денег.
Люди, которые сейчас бросаются в вайб-кодинг, все равно не могут конкурировать с человеком, у которого есть большой опыт. Я вижу, что сейчас появляется на Гитхабе и какие проекты создают — разница очевидна.
Возможно, мы придем к тому, что нейросеть будет писать всё сама, как реально крутой программист. Но стоить такая нейросеть будет точно так же, как живой специалист. С точки зрения бизнеса: какой смысл давать это бесплатно, если можно получать деньги? Пример Google: раньше всё было бесплатно, а потом хренак — всё срезали или занизили лимиты в 10 раз.
Поэтому программистов не заменят. Самый оптимальный вариант будущего — это нанять программиста, который умеет работать с нейросетями.
По факту, вы берете на работу мидла, у которого в подчинении 10, 20, 30 джунов. Он знает, как им ставить задачи и каким моделям что доверять. Прослойка «Программист» останется в любом случае.
👍7
Протестировал новый Flash 3 от Gemini.
Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.
Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.
Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.
Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
Я нашел нового фаворита, который отлично подходит для доработки достаточно сложного кода.
Сейчас он у меня в React: хорошо разобрался в проекте, понимает файлы, понимает, что нужно делать. Каких-то серьезных косяков за ним пока не замечено.
Я бы его поставил в одну колонку с GPT 5.2. Но Flash работает значительно быстрее.
Впечатления от этой модели клёвые. Стоит дешево и выполняет серьезные задачи.
❤7
https://github.com/oiv-an/Voice/releases/tag/v2.2.4
## История изменений (Changelog)
### v2.2.4
* **Сохранение размера окна:** Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записываются в `config.yaml` и применяются при перезапуске.
### v2.2.3
* **Фильтрация галлюцинаций LLM:** Теперь фразы-заглушки вроде «Продолжение следует...» или «Субтитры сделал DimaTorzok», которые иногда генерируют модели на пустом вводе, полностью игнорируются. Они больше не попадают в буфер обмена и не вставляются в текст.
### v2.2.2
* **Пустой ввод / заглушка:** Если распознавание вернуло пустой текст — показывается «Продолжение следует...».
GitHub
Release VoiceCapture 2.2.4 · oiv-an/Voice
История изменений (Changelog)
v2.2.4
Сохранение размера окна: Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записыв...
v2.2.4
Сохранение размера окна: Реализовано автоматическое сохранение размеров главного окна. При изменении размера (через уголок внизу справа) новые габариты записыв...
👍2
Эммм. А Вотсапу конец?
Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)
agentrouter - тоже все 🫠😪
Не долго музыка играла
Заблочили и ничего не сказали даже? Или я что-то пропустил?
Сообщения не приходят, все заработало только с впн)
agentrouter - тоже все 🫠😪
Не долго музыка играла
🔥5
Сократилось время на разработку.
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
Раньше, когда приходила идея — сделать бота или какую-то фичу — это занимало кучу времени. Даже если есть наработки и готовые шаблоны в коде. Всё равно нужно развернуть на сервере, поставить, настроить загрузку. Чтобы просто запустить что-то, приходилось тратить часы.
Пока разворачиваешь всё это 3-4 часа, запал пропадает. Думаешь: «Ладно, потом, что-нибудь другое придумаю». А на самом деле идея могла быть действительно классной.
Сейчас время от идеи до готового продукта — минимально.
Благодаря нейросетям я могу развернуть базу буквально за 15 минут. Нужно только открыть, описать структуру и сказать: «Создай проект, сделай заготовку, чтобы сразу был готов Docker, чтобы был готов деплой». Всё готово за считанные минуты.
И теперь, когда приходит идея, мысли меняются. Я больше не думаю о том, сколько я буду это разрабатывать. Я думаю: «А действительно ли это то, что я хочу?»
UPD:
Больше нет оправданий, чтобы не делать😁
👏7🐳6
Agentrouter ОЖИЛ) Интересно, откуда у них столько денег или какой у них план, что так щедро раздают деньги на баланс.
❤1
Статистика использования на OpenRouter.
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
Посмотреть свою можно тут
https://openrouter.ai/wrapped/2025?t=2
🤯4🔥3