Небольшой отзыв на модель от Сбера GigaAM-v3 (e2e_rnnt) для распознавания коротких фраз. Вердикт: я от неё отказываюсь.
Скажу грубо, но честно — говнище полное. Во-первых, она ни хрена не понимает сленг: слова типа «промт», английские выражения, названия студий — всё лепит кириллицей. Пытается писать по-русски вообще всё: говоришь ей про модели, а она выдаёт «Джемини 3 ПРО».
Короче, использовать это максимально неудобно, поэтому в приложении я просто переключил всё обратно на Groq. Не знаю, какие они там использовали метрики и где заявлено, что распознавание русского стало лучше. Может, для литературного или древнерусского — да. Но для технического языка — пользоваться невозможно.
Собственно, всё время я практически не печатаю, а пользуюсь своей программой: зажал и говорю. Когда переключаю всё на API, чтобы Whisper распознавал, вообще всё идеально. Либо, когда говорю долго — больше 25 секунд, автоматически всё пересылается в GROQ, и тоже всегда распознавание хорошее. Но нужно, бывает, иногда — там косяки, их тоже легко поправить. А когда распознаёт Сбер, проще переписать заново.
Скажу грубо, но честно — говнище полное. Во-первых, она ни хрена не понимает сленг: слова типа «промт», английские выражения, названия студий — всё лепит кириллицей. Пытается писать по-русски вообще всё: говоришь ей про модели, а она выдаёт «Джемини 3 ПРО».
Короче, использовать это максимально неудобно, поэтому в приложении я просто переключил всё обратно на Groq. Не знаю, какие они там использовали метрики и где заявлено, что распознавание русского стало лучше. Может, для литературного или древнерусского — да. Но для технического языка — пользоваться невозможно.
Собственно, всё время я практически не печатаю, а пользуюсь своей программой: зажал и говорю. Когда переключаю всё на API, чтобы Whisper распознавал, вообще всё идеально. Либо, когда говорю долго — больше 25 секунд, автоматически всё пересылается в GROQ, и тоже всегда распознавание хорошее. Но нужно, бывает, иногда — там косяки, их тоже легко поправить. А когда распознаёт Сбер, проще переписать заново.
😁8
GitHub
Release VoiceCapture 2.0 Lite (Portable) · oiv-an/Voice
🪶 VoiceCapture 2.0 Lite
Мы выпустили специальную облегченную версию приложения!
Особенности:
Полностью портативная: Работает из одного EXE-файла, не требует установки.
Ультра-легкая: Удалены все т...
Мы выпустили специальную облегченную версию приложения!
Особенности:
Полностью портативная: Работает из одного EXE-файла, не требует установки.
Ультра-легкая: Удалены все т...
https://github.com/oiv-an/Voice/releases/tag/v2.0.0-lite
Сделал портативную версию, которая работает только через API.
Запускаете exe-файл, вводите свои ключи — и всё работает сразу.
Сделал портативную версию, которая работает только через API.
Запускаете exe-файл, вводите свои ключи — и всё работает сразу.
🔥2
Инструмент для расфокусировки
В работе часто использую технику Pomodoro. С рабочими отрезками всё понятно, но критически важно правильно проводить и 5 минут отдыха.
Чтобы мозг действительно перезагрузился, нужно убрать смысловую нагрузку. Я открываю эту страницу, когда срабатывает таймер на перерыв. Это помогает просто позалипать в экран, отвлечься от кода и переключить внимание.
Ссылки:
* time.ivol.pro/workflow.html - визуализация.
* time.ivol.pro - сам таймер.
Простой способ визуально разгрузиться перед следующим рабочим спринтом.
В работе часто использую технику Pomodoro. С рабочими отрезками всё понятно, но критически важно правильно проводить и 5 минут отдыха.
Чтобы мозг действительно перезагрузился, нужно убрать смысловую нагрузку. Я открываю эту страницу, когда срабатывает таймер на перерыв. Это помогает просто позалипать в экран, отвлечься от кода и переключить внимание.
Ссылки:
* time.ivol.pro/workflow.html - визуализация.
* time.ivol.pro - сам таймер.
Простой способ визуально разгрузиться перед следующим рабочим спринтом.
🔥1
Как начать программировать с AI бесплатно
Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений.
Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации через GitHub по реферальной ссылке.
Ссылка для регистрации:
https://agentrouter.org/register?aff=DduP
Нюанс: На платформе заявлено много моделей, но стабильно работают преимущественно китайские.
Как настроить рабочее место:
1. Регистрируетесь по ссылке, получаете API-ключ.
2. Устанавливаете редактор кода VS Code (если еще нет).
3. Ставите плагин KiloCode.
4. Прописываете ключ и выбираете модель GLM-4.6.
Модель работает прилично, мелкие и средние задачи решает уверенно. 200 долларов на балансе хватит на огромное количество тестов. Рекомендую попробовать, пока возможность открыта.
А ещё небольшой лайфхак: создайте сейчас ещё два аккаунта на Гитхабе и просто подождите месяц. Если их акция не закончится — а скорее всего, она не закончится — то сможете получить ещё по 200 с каждого аккаунта и разрабатывать дальше.
Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений.
Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации через GitHub по реферальной ссылке.
Ссылка для регистрации:
https://agentrouter.org/register?aff=DduP
Нюанс: На платформе заявлено много моделей, но стабильно работают преимущественно китайские.
Как настроить рабочее место:
1. Регистрируетесь по ссылке, получаете API-ключ.
2. Устанавливаете редактор кода VS Code (если еще нет).
3. Ставите плагин KiloCode.
4. Прописываете ключ и выбираете модель GLM-4.6.
Модель работает прилично, мелкие и средние задачи решает уверенно. 200 долларов на балансе хватит на огромное количество тестов. Рекомендую попробовать, пока возможность открыта.
А ещё небольшой лайфхак: создайте сейчас ещё два аккаунта на Гитхабе и просто подождите месяц. Если их акция не закончится — а скорее всего, она не закончится — то сможете получить ещё по 200 с каждого аккаунта и разрабатывать дальше.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
🤝9❤1
Эволюция программирования: как изменился мой подход за год
Вспоминаю, как полтора года назад я только начинал полноценно внедрять нейросети в работу. Процесс был примитивным: отправлял промпт, получал блок кода, копировал в редактор.
Прорывом тогда стала Claude 3.5 Sonnet. Когда она вышла, это произвело фурор. Модель отлично следовала инструкциям и резко повысила качество анализа в моем трейдинг-проекте. На тот момент — пушка. Но ограничения были заметны: на больших кусках кода она начинала «тупить» и терять контекст.
Что мы имеем сейчас, спустя всего год?
Инструментарий вырос колоссально:
— Opus 4.5 — шикарен для сложных задач.
— Gemini 3 Pro — пишет код на высочайшем уровне.
— Sonnet 4.5 — держит планку качества.
— Плюс огромное количество дешевых моделей, которые уже догнали прошлогодних лидеров.
Я практически перестал писать код руками.
Моя роль трансформировалась: теперь я занимаюсь архитектурой. Я ставлю задачу, прошу предложить варианты реализации и контролирую процесс. Нейросеть пишет, я проверяю.
Парадокс, но за последние три месяца мой навык программирования вырос сильнее, чем при самостоятельной работе. Почему?
Потому что я вижу, как задачу решают разные модели. Одна проблема — четыре варианта решения. Это как иметь в штате четырех сеньоров, которые постоянно показывают тебе «best practices».
Взгляд в будущее
Ждем GPT-5.2, которая должна показать еще более сильные результаты. Прогноз простой: через год нейросети будут не просто писать функции, а реализовывать и обслуживать сложные приложения целиком. Самостоятельный деплой, тесты, проверка на ошибки, настройка Docker-ов — всё это уйдет к AI.
Порог входа в создание проектов сейчас низок как никогда. Раньше настройка среды и развертывание занимали часы. Теперь даже Git можно доверить нейросети (раньше я работал локально, теперь понял всю прелесть делегирования этого процесса).
Как сейчас учиться программированию?
Забудьте про курсы. Те деньги, которые вы хотели отдать за обучение, лучше потратить на подписки или API-токены.
Лучший способ обучения сегодня:
1. Делать свои пет-проекты (Pet projects).
2. Брать открытый код с GitHub и просить нейросеть объяснить, как и почему это так написано.
3. Постоянно пробовать разные модели и сравнивать их решения.
Vibe-coding (программирование в потоке с AI) развивает навыки быстрее любой теории. Если хотите научиться — просто начните делать это с нейросетями.
Вспоминаю, как полтора года назад я только начинал полноценно внедрять нейросети в работу. Процесс был примитивным: отправлял промпт, получал блок кода, копировал в редактор.
Прорывом тогда стала Claude 3.5 Sonnet. Когда она вышла, это произвело фурор. Модель отлично следовала инструкциям и резко повысила качество анализа в моем трейдинг-проекте. На тот момент — пушка. Но ограничения были заметны: на больших кусках кода она начинала «тупить» и терять контекст.
Что мы имеем сейчас, спустя всего год?
Инструментарий вырос колоссально:
— Opus 4.5 — шикарен для сложных задач.
— Gemini 3 Pro — пишет код на высочайшем уровне.
— Sonnet 4.5 — держит планку качества.
— Плюс огромное количество дешевых моделей, которые уже догнали прошлогодних лидеров.
Я практически перестал писать код руками.
Моя роль трансформировалась: теперь я занимаюсь архитектурой. Я ставлю задачу, прошу предложить варианты реализации и контролирую процесс. Нейросеть пишет, я проверяю.
Парадокс, но за последние три месяца мой навык программирования вырос сильнее, чем при самостоятельной работе. Почему?
Потому что я вижу, как задачу решают разные модели. Одна проблема — четыре варианта решения. Это как иметь в штате четырех сеньоров, которые постоянно показывают тебе «best practices».
Взгляд в будущее
Ждем GPT-5.2, которая должна показать еще более сильные результаты. Прогноз простой: через год нейросети будут не просто писать функции, а реализовывать и обслуживать сложные приложения целиком. Самостоятельный деплой, тесты, проверка на ошибки, настройка Docker-ов — всё это уйдет к AI.
Порог входа в создание проектов сейчас низок как никогда. Раньше настройка среды и развертывание занимали часы. Теперь даже Git можно доверить нейросети (раньше я работал локально, теперь понял всю прелесть делегирования этого процесса).
Как сейчас учиться программированию?
Забудьте про курсы. Те деньги, которые вы хотели отдать за обучение, лучше потратить на подписки или API-токены.
Лучший способ обучения сегодня:
1. Делать свои пет-проекты (Pet projects).
2. Брать открытый код с GitHub и просить нейросеть объяснить, как и почему это так написано.
3. Постоянно пробовать разные модели и сравнивать их решения.
Vibe-coding (программирование в потоке с AI) развивает навыки быстрее любой теории. Если хотите научиться — просто начните делать это с нейросетями.
👍10🐳2
Ну вот и приплыли. Perplexity деградирует.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
🤔5
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Почти всю ночь тестировал модель GLM-4. Впечатления хорошие.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
👍2💩1
GitHub
GitHub - oiv-an/Voice
Contribute to oiv-an/Voice development by creating an account on GitHub.
Выпустил небольшое обновление VoiceCapture до версии 2.1.2. Добавил пару полезных улучшений, которые делают работу с программой еще удобнее:
Что нового в v2.1.3:
* Изменение размера окна: Теперь можно изменять размер главного окна — просто потяните за правый нижний угол. Особенно удобно, когда нужно работать с длинными текстами.
* Улучшенное логирование: Переработал систему логов. Теперь новые записи появляются сверху (не нужно прокручивать до конца), а файл автоматически очищается при достижении 1 МБ.
Что было в v2.1.1:
* Настраиваемый системный промпт: Добавил возможность редактировать системный промпт LLM прямо в настройках. Теперь можно гибко настраивать постобработку текста — задавать стиль, просить переводить и т.д. без изменения кода.
Обновление доступно для скачивания.
https://github.com/oiv-an/Voice/releases/tag/v2.1.3
Что нового в v2.1.3:
* Изменение размера окна: Теперь можно изменять размер главного окна — просто потяните за правый нижний угол. Особенно удобно, когда нужно работать с длинными текстами.
* Улучшенное логирование: Переработал систему логов. Теперь новые записи появляются сверху (не нужно прокручивать до конца), а файл автоматически очищается при достижении 1 МБ.
Что было в v2.1.1:
* Настраиваемый системный промпт: Добавил возможность редактировать системный промпт LLM прямо в настройках. Теперь можно гибко настраивать постобработку текста — задавать стиль, просить переводить и т.д. без изменения кода.
Обновление доступно для скачивания.
https://github.com/oiv-an/Voice/releases/tag/v2.1.3
🐳6💩1
Понадобилось получить рут-права на телефоне.
Вспомните, как это происходило раньше. Нужно было убить кучу времени: шерстить форумы, искать информацию под конкретную модель, разбираться с разблокировкой загрузчика. Всегда был риск ошибиться или случайно скачать не ту прошивку.
Как это работает сейчас?
Нейросеть сразу подсказывает алгоритм именно для этого устройства. Находит нужные файлы, говорит, как правильно подключить и что сделать. Процесс ускорился максимально.
Я потратил меньше часа. Раньше на это уходило часа четыре. И это при том, что я знаю матчасть и понимаю, как работает загрузчик. Но сам факт: тебе не нужно часами искать и перепроверять информацию, чтобы не превратить телефон в кирпич.
Всё стало значительно проще. Нейросети превратили рутину в волшебство.
Вспомните, как это происходило раньше. Нужно было убить кучу времени: шерстить форумы, искать информацию под конкретную модель, разбираться с разблокировкой загрузчика. Всегда был риск ошибиться или случайно скачать не ту прошивку.
Как это работает сейчас?
Нейросеть сразу подсказывает алгоритм именно для этого устройства. Находит нужные файлы, говорит, как правильно подключить и что сделать. Процесс ускорился максимально.
Я потратил меньше часа. Раньше на это уходило часа четыре. И это при том, что я знаю матчасть и понимаю, как работает загрузчик. Но сам факт: тебе не нужно часами искать и перепроверять информацию, чтобы не превратить телефон в кирпич.
Всё стало значительно проще. Нейросети превратили рутину в волшебство.
👍2
За 15 минут навёл порядок в OpenWebUI (и заархивировал 1000+ чатов)
Я долго искал нормальный способ быстро почистить историю в OpenWebUI. Перепробовал разные плагины, даже пытался написать свою функцию — но всё работало нестабильно или “как-то не так”, или не работала вообще.
В какой-то момент я уже почти смирился и подумал: “Ладно, прокликаю вручную”. А у меня там было больше тысячи чатов — это значит открыть меню у каждого, нажать “Архив”, и так сотни раз. Сомнительное удовольствие.
В итоге я сделал простую штуку: Tampermonkey-скрипт, который делает ровно то, что я бы делал руками — только быстро и без ошибок. Он проходит по левому сайдбару, открывает меню (три точки) у каждого чата и отправляет его в архив. У меня он буквально за ~15 минут прокликал и заархивировал всё.
Самое важное: это UI-автоматизация. Не нужно лезть в базу данных OpenWebUI, не нужно ковырять внутренности проекта, не нужно писать миграции или рисковать сломать инстанс. Просто “как пользователь”, но в автоматическом режиме.
Если у тебя тоже накопилась огромная история — забирай скрипт:
https://github.com/oiv-an/openwebui-auto-archive
Установка простая: ставишь Tampermonkey, вставляешь
Все это сделано потому, что в новом обновлении OpenWebUI очень медленная загрузка, потому что он как-то работает с историей всех чатов, еще что-то, и в итоге все грузится писец как долго.
Я долго искал нормальный способ быстро почистить историю в OpenWebUI. Перепробовал разные плагины, даже пытался написать свою функцию — но всё работало нестабильно или “как-то не так”, или не работала вообще.
В какой-то момент я уже почти смирился и подумал: “Ладно, прокликаю вручную”. А у меня там было больше тысячи чатов — это значит открыть меню у каждого, нажать “Архив”, и так сотни раз. Сомнительное удовольствие.
В итоге я сделал простую штуку: Tampermonkey-скрипт, который делает ровно то, что я бы делал руками — только быстро и без ошибок. Он проходит по левому сайдбару, открывает меню (три точки) у каждого чата и отправляет его в архив. У меня он буквально за ~15 минут прокликал и заархивировал всё.
Самое важное: это UI-автоматизация. Не нужно лезть в базу данных OpenWebUI, не нужно ковырять внутренности проекта, не нужно писать миграции или рисковать сломать инстанс. Просто “как пользователь”, но в автоматическом режиме.
Если у тебя тоже накопилась огромная история — забирай скрипт:
https://github.com/oiv-an/openwebui-auto-archive
Установка простая: ставишь Tampermonkey, вставляешь
index.js, в шапке меняешь @match на домен своего OpenWebUI — и запускаешь кнопкой на странице.Все это сделано потому, что в новом обновлении OpenWebUI очень медленная загрузка, потому что он как-то работает с историей всех чатов, еще что-то, и в итоге все грузится писец как долго.
GitHub
GitHub - oiv-an/openwebui-auto-archive: Tampermonkey-скрипт для **массовой архивации чатов** в OpenWebUI через UI: открывает меню…
Tampermonkey-скрипт для **массовой архивации чатов** в OpenWebUI через UI: открывает меню (три точки) у каждого чата и нажимает **«Архив»**. - oiv-an/openwebui-auto-archive
👍4🔥2💩1
Почему модели в подписках «тупеют»
Многие замечают деградацию качества ответов в популярных сервисах. Почему так происходит? Ответ кроется в классическом жизненном цикле любого бизнеса.
Когда продукт только создается, задача одна — сделать лучшее качество на рынке. Команда вкладывается в технологии, запускает массивную рекламу и завоевывает аудиторию. Продукт работает идеально, чтобы «подсадить» пользователя.
Но затем наступает период возврата инвестиций. К власти приходят люди, чья задача — не развитие технологий, а максимизация прибыли.
Если база пользователей огромна (как сейчас у ChatGPT или Perplexity), включается эффект инерции. Люди уже настроили процессы под этот инструмент. Даже если сервис станет чуть хуже или дороже, они не уйдут, потому что привыкли.
Начинается процесс, похожий на «шринкфляцию» в продуктовых магазинах. Это как с молоком: цена та же, но в пакете уже не литр, а 900 мл. Это экономия на масштабе.
В AI-сервисах происходит то же самое. Чтобы увеличить маржу, разработчики начинают «подкручивать гайки»: упрощают модель, урезают контекст, оптимизируют вычислительные мощности. Делают это осторожно, чтобы не вызвать массовый отток, но качество неизбежно падает.
Вывод:
Именно поэтому я работаю через API. Там мы получаем доступ к модели в её изначальном, «сыром» виде.
В веб-версиях идет оптимизация расходов на массового пользователя. В API, по крайней мере с новыми моделями, я такой деградации не замечал. Вы получаете ровно то, за что платите за каждый токен.
Многие замечают деградацию качества ответов в популярных сервисах. Почему так происходит? Ответ кроется в классическом жизненном цикле любого бизнеса.
Когда продукт только создается, задача одна — сделать лучшее качество на рынке. Команда вкладывается в технологии, запускает массивную рекламу и завоевывает аудиторию. Продукт работает идеально, чтобы «подсадить» пользователя.
Но затем наступает период возврата инвестиций. К власти приходят люди, чья задача — не развитие технологий, а максимизация прибыли.
Если база пользователей огромна (как сейчас у ChatGPT или Perplexity), включается эффект инерции. Люди уже настроили процессы под этот инструмент. Даже если сервис станет чуть хуже или дороже, они не уйдут, потому что привыкли.
Начинается процесс, похожий на «шринкфляцию» в продуктовых магазинах. Это как с молоком: цена та же, но в пакете уже не литр, а 900 мл. Это экономия на масштабе.
В AI-сервисах происходит то же самое. Чтобы увеличить маржу, разработчики начинают «подкручивать гайки»: упрощают модель, урезают контекст, оптимизируют вычислительные мощности. Делают это осторожно, чтобы не вызвать массовый отток, но качество неизбежно падает.
Вывод:
Именно поэтому я работаю через API. Там мы получаем доступ к модели в её изначальном, «сыром» виде.
В веб-версиях идет оптимизация расходов на массового пользователя. В API, по крайней мере с новыми моделями, я такой деградации не замечал. Вы получаете ровно то, за что платите за каждый токен.
👍8❤2💩2
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Как нейросети изменили мою культуру разработки
Раньше я часто пренебрегал правилами разработки. Писал сразу на чистовик, тесты не делал почти никогда. Главная задача была — ускорить процесс и получить готовый продукт. GitHub'ом пользовался редко, коммиты делал от случая к случаю.
С нейросетями всё изменилось. Теперь я соблюдаю все стандарты. Прошу нейросеть написать тесты, запустить их и выстроить структуру.
Отдельная история — это работа с Git. Настоящая золотая кнопка. Раньше я мог внести кучу правок, а потом сидел и вспоминал, что именно изменилось в файлах. Сейчас нейросеть анализирует код и моментально выдает подробное описание коммита. История изменений выглядит профессионально без моих усилий.
Ещё один важнейший пункт — безопасность. Смотрю сейчас на свои старые проекты и понимаю, что код был дырявым. Я тогда просто не видел проблем, а сейчас исправлять это руками нет времени. Нейросети проводят аудит и находят уязвимости за секунды.
По инструменту. Рекомендую GLM 4.6. Если зарегистрироваться именно по реферальной ссылке, через аккаунт github которому больше месяца, то дают 200$. Кому-то даже дали 225$, получается мощный бесплатный помощник. Модель идеально подходит для поиска багов, рефакторинга и мелких правок. (Я зарегистрировал на GitHub еще два аккаунта и оставил их на месяц. Как месяц прошел, получил еще 200$ для дальнейших разработок на каждый аккаунт.)
Вывод: теперь не нужно выбирать между скоростью и качеством. Делаю быстро, но сразу правильно.
Раньше я часто пренебрегал правилами разработки. Писал сразу на чистовик, тесты не делал почти никогда. Главная задача была — ускорить процесс и получить готовый продукт. GitHub'ом пользовался редко, коммиты делал от случая к случаю.
С нейросетями всё изменилось. Теперь я соблюдаю все стандарты. Прошу нейросеть написать тесты, запустить их и выстроить структуру.
Отдельная история — это работа с Git. Настоящая золотая кнопка. Раньше я мог внести кучу правок, а потом сидел и вспоминал, что именно изменилось в файлах. Сейчас нейросеть анализирует код и моментально выдает подробное описание коммита. История изменений выглядит профессионально без моих усилий.
Ещё один важнейший пункт — безопасность. Смотрю сейчас на свои старые проекты и понимаю, что код был дырявым. Я тогда просто не видел проблем, а сейчас исправлять это руками нет времени. Нейросети проводят аудит и находят уязвимости за секунды.
По инструменту. Рекомендую GLM 4.6. Если зарегистрироваться именно по реферальной ссылке, через аккаунт github которому больше месяца, то дают 200$. Кому-то даже дали 225$, получается мощный бесплатный помощник. Модель идеально подходит для поиска багов, рефакторинга и мелких правок. (Я зарегистрировал на GitHub еще два аккаунта и оставил их на месяц. Как месяц прошел, получил еще 200$ для дальнейших разработок на каждый аккаунт.)
Вывод: теперь не нужно выбирать между скоростью и качеством. Делаю быстро, но сразу правильно.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
🐳5
Сегодня всю ночь использовал GLM-6. Могу сравнить эту модель с GPT-5. Они примерно на одном уровне — и та, и та одинаково тупят.
Но общее впечатление от модели, блин, хорошее. Когда пробовал первый раз (вероятно, это была GLM-4.5), она меня никак не впечатлила. Но сейчас действительно вижу хороший прогресс.
Модель идеально подходит для поиска и исправления небольших изменений. Если делать с ней что-то большое, она всё равно ведет себя иногда не совсем адекватно. Хотя за 5 часов работы ошиблась только один раз — скобку не там добавила.
Самое главное — она сама пишет тесты и документацию. Я не добавлял никаких пользовательских промтов. Модель сама после каждой итерации старается сделать отладку, написать тест и исполнить его. Это прям заточено для разработки.
Использую её, потому что она есть по факту на халяву. Хочу полностью испытать эту модель.
Кстати, через Agent Router я смог запустить и GPT-5.2, и Claude Sonnet 4.5 (20250929). Но все эти модели почему-то отказались работать в Kilocode. Просто пишется текст, не исполняется тул. Непонятно почему.
Тут самый главный вопрос. Как живут эти китайцы, которые так щедро раздают деньги?
Но общее впечатление от модели, блин, хорошее. Когда пробовал первый раз (вероятно, это была GLM-4.5), она меня никак не впечатлила. Но сейчас действительно вижу хороший прогресс.
Модель идеально подходит для поиска и исправления небольших изменений. Если делать с ней что-то большое, она всё равно ведет себя иногда не совсем адекватно. Хотя за 5 часов работы ошиблась только один раз — скобку не там добавила.
Самое главное — она сама пишет тесты и документацию. Я не добавлял никаких пользовательских промтов. Модель сама после каждой итерации старается сделать отладку, написать тест и исполнить его. Это прям заточено для разработки.
Использую её, потому что она есть по факту на халяву. Хочу полностью испытать эту модель.
Кстати, через Agent Router я смог запустить и GPT-5.2, и Claude Sonnet 4.5 (20250929). Но все эти модели почему-то отказались работать в Kilocode. Просто пишется текст, не исполняется тул. Непонятно почему.
Тут самый главный вопрос. Как живут эти китайцы, которые так щедро раздают деньги?
👍4
TechnoBlog of Ivan Olyansky
3 карты p102-100 - одна х1 pci mixtral:latest 26,6 гб = 19.99 т/с qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 21,28 т/с не влезла вся в память) 4 карты p102-100 3 из них в райзерах х1 qwen3:30b-a3b-thinking-2507-q8_0 30,3ГБ = 26.2 т/с qwen3:32b-q8_0…
qwen3:30b-a3b-thinking-2507-q8_0 30,3GB 40.33 т/с
qwen3:32b-q8_0 32.7GB 7.88 т/с
qwen3:30b-a3b-q8_0 31GB 40.86 т/с
Llama-3.3-70B-Instruct-GGUF:Q3_K_M 32ГБ 5.51 т/с
gpt-oss:20b 53.95 т/с
Стоит пока 5 карт, на одну не хватило питания. потребление 700 -800W в пике видел
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥3
gpt-oss:120b 61Gb 10 т/с
⚠️ 🙂↔️
UPD
Добавил еще одну карту - 12.64 т/с
UPD2
Работать практически невозможно. Если давать какой-то долгий запрос или ждать сразу какой-то большой ответ, то все ок. Но если выполнять в режиме чата, то модель максимально долго отвечает.
UPD3
провел многократные тесты с разными моделями и посмотрел по скорости, по качеству, как работают ну все, есть один бесспорный лидер nemotron-3-nano:latest для быстрых задач.
qwen3:30b-a3b-thinking-2507-q8_0 для сложных задач
UPD qwen3:30b-a3b-thinking-2507-q8_0 энергопотребление 470W с розетки .
⚠️ 🙂↔️
UPD
Добавил еще одну карту - 12.64 т/с
UPD2
Работать практически невозможно. Если давать какой-то долгий запрос или ждать сразу какой-то большой ответ, то все ок. Но если выполнять в режиме чата, то модель максимально долго отвечает.
UPD3
провел многократные тесты с разными моделями и посмотрел по скорости, по качеству, как работают ну все, есть один бесспорный лидер nemotron-3-nano:latest для быстрых задач.
qwen3:30b-a3b-thinking-2507-q8_0 для сложных задач
UPD qwen3:30b-a3b-thinking-2507-q8_0 энергопотребление 470W с розетки .
👍6❤1
А вы знали, что сейчас дефицит очень дешевых видеокарт? Разбирают их, как пирожки. Понять не могу, для чего только.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
Мне нужна была видеокарта-заглушка. Которую можно подключать — и она сразу работает с BIOS.
В итоге стал смотреть — всё скупили. Везде, где нормальная цена и карта не совсем подубитая — они просто все зарезервированы.
Еле нашел подходящую на Авито.
🤔3