Минусы n8n: честный взгляд спустя полгода.
Я часто пишу, что это прямо волшебный инструмент, который максимально ускоряет разработку. Но за полгода плотной практики и создания кучи разных ботов я вижу и проблемы.
1. Тормоза UI на "тяжелых" данных
UI начинает жестко тормозить на больших данных. Если вы подгружаете что-то весомое (порядка 3–4 мегабайт), работать становится невозможно. Отлаживать такую программу — боль. У меня компьютер далеко не тупенький, мощный, но даже он подтормаживает.
2. Эффект "Спагетти"
Когда структура разрастается, и вы добавляете кучу модулей, всё превращается в кашу. Огромное количество связей, что-то куда-то летит, заходит-выходит — отлаживать это максимально сложно. Чем больше вы начинаете "городить" и менять логику, тем сложнее это потом поддерживать.
3. Риск обновлений
С одной стороны, круто. Но с другой — постоянный риск. Всё может поломаться очень быстро. У меня, например, 4 дня не сохранялись воркфлоу просто потому, что выкатили кривой апдейт. Так можно положить много проектов.
4. Потеря контекста (Scope)
Бесит, что некоторые ноды теряют контекст. Данные, которые были доступны "до", вдруг становятся недоступны "после". Приходится городить огород из лишних соединительных линий (Merge node), чтобы прокинуть данные дальше. И из-за этого опять получается спагетти.
Я часто пишу, что это прямо волшебный инструмент, который максимально ускоряет разработку. Но за полгода плотной практики и создания кучи разных ботов я вижу и проблемы.
1. Тормоза UI на "тяжелых" данных
UI начинает жестко тормозить на больших данных. Если вы подгружаете что-то весомое (порядка 3–4 мегабайт), работать становится невозможно. Отлаживать такую программу — боль. У меня компьютер далеко не тупенький, мощный, но даже он подтормаживает.
2. Эффект "Спагетти"
Когда структура разрастается, и вы добавляете кучу модулей, всё превращается в кашу. Огромное количество связей, что-то куда-то летит, заходит-выходит — отлаживать это максимально сложно. Чем больше вы начинаете "городить" и менять логику, тем сложнее это потом поддерживать.
3. Риск обновлений
С одной стороны, круто. Но с другой — постоянный риск. Всё может поломаться очень быстро. У меня, например, 4 дня не сохранялись воркфлоу просто потому, что выкатили кривой апдейт. Так можно положить много проектов.
4. Потеря контекста (Scope)
Бесит, что некоторые ноды теряют контекст. Данные, которые были доступны "до", вдруг становятся недоступны "после". Приходится городить огород из лишних соединительных линий (Merge node), чтобы прокинуть данные дальше. И из-за этого опять получается спагетти.
🤔1
Сижу, тестирую сервис по распознаванию. Сделал своё приложение, чтобы не вводить руками, а сразу зажал клавишу и говоришь, чтобы всё было локально через GigaAM, потому что у них классная моделька. И добавил Grok и OpenAI. И сижу, тестирую, как проверяется распознавание через OpenAI.
Вверху — это текст, который распознался, а внизу — это текст корректировки.
Вверху — это текст, который распознался, а внизу — это текст корректировки.
Модели Сбера, которые протестил:
v2_ctc - распознает просто пустой текст без пунктуации - если есть постпроцессинг, то нормально, но все же нужно провеять) а то смысл может потерять.
и GigaAM-v3 e2e_rnnt - пока тестирую.
Из проблем:
У меня на ПК - Проще использовать грок, потому что скорость распознавания через грок очень быстро всё происходит, а через GigaAM-v3 приходится ждать, 1-2 сек
v2_ctc - распознает просто пустой текст без пунктуации - если есть постпроцессинг, то нормально, но все же нужно провеять) а то смысл может потерять.
и GigaAM-v3 e2e_rnnt - пока тестирую.
Из проблем:
У меня на ПК - Проще использовать грок, потому что скорость распознавания через грок очень быстро всё происходит, а через GigaAM-v3 приходится ждать, 1-2 сек
Коротко о попытке запустить GigaAM-3.0 от Сбера: не увенчалась успехом.
Я устал бороться с конфликтами зависимостей и несовместимостью пакетов.
В итоге пришел к простой и рабочей схеме:
• Короткие аудиофайлы (до 30 секунд): обрабатывает light-версия от Сбера. Она работает.
• Всё, что длиннее: отправляю в Groq, где для распознавания используется модель
Результат быстрый и предсказуемый. Прагматизм победил желание всё делать локально.
если что проект тут https://github.com/oiv-an/Voice
Я устал бороться с конфликтами зависимостей и несовместимостью пакетов.
В итоге пришел к простой и рабочей схеме:
• Короткие аудиофайлы (до 30 секунд): обрабатывает light-версия от Сбера. Она работает.
• Всё, что длиннее: отправляю в Groq, где для распознавания используется модель
whisper-large-v3.Результат быстрый и предсказуемый. Прагматизм победил желание всё делать локально.
если что проект тут https://github.com/oiv-an/Voice
GitHub
GitHub - oiv-an/Voice
Contribute to oiv-an/Voice development by creating an account on GitHub.
🐳3
Работа с Gemini 3 Pro - это кайф.
Подключил его к своему коду, и он сходу сделал то, с чем GPT-5.1 вообще не справлялся. Я три ночи пытался объяснить GPT, что мне нужно по визуалу: как подвинуть иконки, что поправить в окне. Бесполезно.
Gemini понял меня сразу и реализовал всё в коде. Да, какие-то вещи ему всё ещё нужно доносить более внятно, но разница в качестве просто огромная.
Смотрю на три ночи, потраченные на GPT-5.1, и не понимаю: зачем я это делал?
Какой итог? Разработка сложных приложений становится проще, и порог входа, естественно, снижается. Но для тех, кто давно занимается программированием, понимает архитектуру и шарит - для них нейросети открывают безграничные возможности для реализации любой идеи.
Как я уже писал ранее, скоро можно будет запустить стартап через один сервис: описываешь словами, как это должно работать, и на выходе получаешь MVP. Нейросети, которые есть сейчас, уже на это способны. Внедрение займёт два-три месяца, и такие сервисы появятся вот вот...
Подключил его к своему коду, и он сходу сделал то, с чем GPT-5.1 вообще не справлялся. Я три ночи пытался объяснить GPT, что мне нужно по визуалу: как подвинуть иконки, что поправить в окне. Бесполезно.
Gemini понял меня сразу и реализовал всё в коде. Да, какие-то вещи ему всё ещё нужно доносить более внятно, но разница в качестве просто огромная.
Смотрю на три ночи, потраченные на GPT-5.1, и не понимаю: зачем я это делал?
Какой итог? Разработка сложных приложений становится проще, и порог входа, естественно, снижается. Но для тех, кто давно занимается программированием, понимает архитектуру и шарит - для них нейросети открывают безграничные возможности для реализации любой идеи.
Как я уже писал ранее, скоро можно будет запустить стартап через один сервис: описываешь словами, как это должно работать, и на выходе получаешь MVP. Нейросети, которые есть сейчас, уже на это способны. Внедрение займёт два-три месяца, и такие сервисы появятся вот вот...
👍6🆒1
Прогноз: AI-инженер в каждом устройстве через 5 лет
Смотрю на свежую таблицу AI-моделей — их становится так много, что уже сложно уследить. Все хотят на этот рынок. Меня это заставило задуматься, а что нас ждёт в перспективе 3–5 лет?
Прогноз: AI-инженер в каждом устройстве через 5 лет
Модели удваивают интеллект примерно каждые 7 месяцев. Простая арифметика: через 5 лет мы получим системы, которые будут не просто в 5-7 раз умнее, а на порядок эффективнее и компактнее.
Прогноз: AI-инженер в каждом устройстве через 5 лет
К чему это приведёт? Мой прогноз: AI переедет из облака на наши устройства.
Проще всего это представить как персонального инженера для каждой железки.
* Компьютер будет сам себя настраивать. Он будет знать, какие у него компоненты, и круглосуточно выжимать из них максимум, подкручивая параметры в реальном времени.
* Автомобиль — та же история. Бортовой AI не только отследит состояние всех систем, но и сам поставит диагноз для сервисного центра: что сломалось и почему.
Это полностью меняет сервисный подход.
Специалисты по первичной диагностике и базовой настройке попросту станут не нужны. Если устройство вышло из строя, его нужно будет просто подключить к терминалу — нейросеть сама проведёт анализ, и выдаст отчёт.
Мы движемся к миру, где техника сама о себе заботится. Нам останется только её использовать.
Смотрю на свежую таблицу AI-моделей — их становится так много, что уже сложно уследить. Все хотят на этот рынок. Меня это заставило задуматься, а что нас ждёт в перспективе 3–5 лет?
Прогноз: AI-инженер в каждом устройстве через 5 лет
Модели удваивают интеллект примерно каждые 7 месяцев. Простая арифметика: через 5 лет мы получим системы, которые будут не просто в 5-7 раз умнее, а на порядок эффективнее и компактнее.
Прогноз: AI-инженер в каждом устройстве через 5 лет
К чему это приведёт? Мой прогноз: AI переедет из облака на наши устройства.
Проще всего это представить как персонального инженера для каждой железки.
* Компьютер будет сам себя настраивать. Он будет знать, какие у него компоненты, и круглосуточно выжимать из них максимум, подкручивая параметры в реальном времени.
* Автомобиль — та же история. Бортовой AI не только отследит состояние всех систем, но и сам поставит диагноз для сервисного центра: что сломалось и почему.
Это полностью меняет сервисный подход.
Специалисты по первичной диагностике и базовой настройке попросту станут не нужны. Если устройство вышло из строя, его нужно будет просто подключить к терминалу — нейросеть сама проведёт анализ, и выдаст отчёт.
Мы движемся к миру, где техника сама о себе заботится. Нам останется только её использовать.
👍6👎1🤔1
Вечная проблема: поймать идею и не потерять фокус
У меня постоянно так: работаешь над задачей, и тут в голову врывается идея. И разрываешься - бросить всё, чтобы записать, или рискнуть её забыть?
Чтобы решить это для себя, я добавил в свой Voice простую фичу - Список идей.
Теперь, когда меня осеняет, я просто дожимаю Alt во время распознавания, и мысль тут же улетает в отдельный список идей. Фокус не теряется, работа идёт дальше.
Это мой личный опенсорс-проект, который я делаю в первую очередь для себя. Если вам знакома эта боль - забирайте и пользуйтесь.
Ссылка на GitHub: https://github.com/oiv-an/Voice
У меня постоянно так: работаешь над задачей, и тут в голову врывается идея. И разрываешься - бросить всё, чтобы записать, или рискнуть её забыть?
Чтобы решить это для себя, я добавил в свой Voice простую фичу - Список идей.
Теперь, когда меня осеняет, я просто дожимаю Alt во время распознавания, и мысль тут же улетает в отдельный список идей. Фокус не теряется, работа идёт дальше.
Это мой личный опенсорс-проект, который я делаю в первую очередь для себя. Если вам знакома эта боль - забирайте и пользуйтесь.
Ссылка на GitHub: https://github.com/oiv-an/Voice
GitHub
GitHub - oiv-an/Voice
Contribute to oiv-an/Voice development by creating an account on GitHub.
👍3
Forwarded from Иван Олянский (Ivan)
Разработка ПО с нейросетями: пошаговый алгоритм и выбор моделей
Собрал рабочий пайплайн (план) для создания приложений. От настройки среды до финальной сборки.
1. Подготовка среды
База — VS Code. Бесплатный, быстрый, открывается моментально. Использую его для всего: от прошивок микроконтроллеров до верстки и работы с Markdown.
(Примечание: Для крупных проектов на Symfony 7 я по-прежнему держу купленный PHPStorm с плагинами, но для текущих задач VS Code выигрывает скоростью). На самом деле подписка закончится, перейду полностью на VS Code
Настройка AI-ассистента:
1. Устанавливаем плагин Kilo Code.
2. Настраиваем подключение через OpenRouter.
3. Пополняем баланс OpenRouter и начинаем работу прямо в IDE.
2. Этапы разработки и смена моделей
Секрет эффективности — в переключении между моделями под разные задачи. Это экономит бюджет и повышает качество кода.
Шаг 1: Архитектура (Opus 4.5)
Включаем режим архитектора. Создаем новый проект и выбираем модель Claude Opus 4.5.
Она идеальна для планирования, хотя и дорога для написания всего кода. (очень дорогая, вот прям очень, можно через подписку Claude)
Запрос: "Я не программист, но хочу создать [описание идеи]. Нужна архитектура приложения и ТЗ для разработки, чтобы передать дальше в работу в ИИ. Создай файл
Когда нейросеть поймет задачу, создаст файл
Шаг 2: Скелет приложения (Gemini 3 Pro Preview)
Для работы с файловой структурой переключаемся на Gemini 3 Pro Preview. (или если проект не сложный то GPT-5.1 codex
Задача: "Изучи architecture.md и создай скелет приложения".
Gemini отлично справляется с созданием папок и пустых файлов. Она не пишет код внутри, она строит каркас. Это делегирование: сложную логику берет на себя Opus, структуру — Gemini.
Шаг 3: Написание кода (Grok 4 Fast Code)
Самая объемная часть работы. Переключаемся на быструю и экономную модель — Grok 4 Fast Code или GPT-5.1
Просим изучить проект и заполнить созданные файлы кодом согласно документации.
Шаг 4: Сборка и отладка (Gemini 3 Pro Preview)
Снова возвращаемся к Gemini. Просим проверить весь код, исправить ошибки и запустить проект.
3. Альтернатива для быстрых решений
Описанный выше метод подходит для сложной, кастомной разработки. Если задача проще и больше веб приложение то идите сразу в Google, он предлагает инструменты "всё в одном", где не нужно жонглировать моделями:
1. Google AI Studio (Apps): aistudio.google.com/app/apps — описываете идею, получаете результат.
2. Firebase Studio: studio.firebase.google.com — для быстрой сборки бэкенда и приложений.
Вывод: Сложные проекты требуют контроля архитектуры и разделения труда между моделями. Для простых задач используйте готовые студии от Google.
UPD: есть еще IDE Antigravity от Google, но у меня не запустилась.
Собрал рабочий пайплайн (план) для создания приложений. От настройки среды до финальной сборки.
1. Подготовка среды
База — VS Code. Бесплатный, быстрый, открывается моментально. Использую его для всего: от прошивок микроконтроллеров до верстки и работы с Markdown.
(Примечание: Для крупных проектов на Symfony 7 я по-прежнему держу купленный PHPStorm с плагинами, но для текущих задач VS Code выигрывает скоростью). На самом деле подписка закончится, перейду полностью на VS Code
Настройка AI-ассистента:
1. Устанавливаем плагин Kilo Code.
2. Настраиваем подключение через OpenRouter.
3. Пополняем баланс OpenRouter и начинаем работу прямо в IDE.
2. Этапы разработки и смена моделей
Секрет эффективности — в переключении между моделями под разные задачи. Это экономит бюджет и повышает качество кода.
Шаг 1: Архитектура (Opus 4.5)
Включаем режим архитектора. Создаем новый проект и выбираем модель Claude Opus 4.5.
Она идеальна для планирования, хотя и дорога для написания всего кода. (очень дорогая, вот прям очень, можно через подписку Claude)
Запрос: "Я не программист, но хочу создать [описание идеи]. Нужна архитектура приложения и ТЗ для разработки, чтобы передать дальше в работу в ИИ. Создай файл
architecture.md ".Когда нейросеть поймет задачу, создаст файл
architecture.md. В нем должна быть подробно описана структура проекта, модули и логика.Шаг 2: Скелет приложения (Gemini 3 Pro Preview)
Для работы с файловой структурой переключаемся на Gemini 3 Pro Preview. (или если проект не сложный то GPT-5.1 codex
Задача: "Изучи architecture.md и создай скелет приложения".
Gemini отлично справляется с созданием папок и пустых файлов. Она не пишет код внутри, она строит каркас. Это делегирование: сложную логику берет на себя Opus, структуру — Gemini.
Шаг 3: Написание кода (Grok 4 Fast Code)
Самая объемная часть работы. Переключаемся на быструю и экономную модель — Grok 4 Fast Code или GPT-5.1
Просим изучить проект и заполнить созданные файлы кодом согласно документации.
Шаг 4: Сборка и отладка (Gemini 3 Pro Preview)
Снова возвращаемся к Gemini. Просим проверить весь код, исправить ошибки и запустить проект.
3. Альтернатива для быстрых решений
Описанный выше метод подходит для сложной, кастомной разработки. Если задача проще и больше веб приложение то идите сразу в Google, он предлагает инструменты "всё в одном", где не нужно жонглировать моделями:
1. Google AI Studio (Apps): aistudio.google.com/app/apps — описываете идею, получаете результат.
2. Firebase Studio: studio.firebase.google.com — для быстрой сборки бэкенда и приложений.
Вывод: Сложные проекты требуют контроля архитектуры и разделения труда между моделями. Для простых задач используйте готовые студии от Google.
UPD: есть еще IDE Antigravity от Google, но у меня не запустилась.
🐳5👍4
Небольшой отзыв на модель от Сбера GigaAM-v3 (e2e_rnnt) для распознавания коротких фраз. Вердикт: я от неё отказываюсь.
Скажу грубо, но честно — говнище полное. Во-первых, она ни хрена не понимает сленг: слова типа «промт», английские выражения, названия студий — всё лепит кириллицей. Пытается писать по-русски вообще всё: говоришь ей про модели, а она выдаёт «Джемини 3 ПРО».
Короче, использовать это максимально неудобно, поэтому в приложении я просто переключил всё обратно на Groq. Не знаю, какие они там использовали метрики и где заявлено, что распознавание русского стало лучше. Может, для литературного или древнерусского — да. Но для технического языка — пользоваться невозможно.
Собственно, всё время я практически не печатаю, а пользуюсь своей программой: зажал и говорю. Когда переключаю всё на API, чтобы Whisper распознавал, вообще всё идеально. Либо, когда говорю долго — больше 25 секунд, автоматически всё пересылается в GROQ, и тоже всегда распознавание хорошее. Но нужно, бывает, иногда — там косяки, их тоже легко поправить. А когда распознаёт Сбер, проще переписать заново.
Скажу грубо, но честно — говнище полное. Во-первых, она ни хрена не понимает сленг: слова типа «промт», английские выражения, названия студий — всё лепит кириллицей. Пытается писать по-русски вообще всё: говоришь ей про модели, а она выдаёт «Джемини 3 ПРО».
Короче, использовать это максимально неудобно, поэтому в приложении я просто переключил всё обратно на Groq. Не знаю, какие они там использовали метрики и где заявлено, что распознавание русского стало лучше. Может, для литературного или древнерусского — да. Но для технического языка — пользоваться невозможно.
Собственно, всё время я практически не печатаю, а пользуюсь своей программой: зажал и говорю. Когда переключаю всё на API, чтобы Whisper распознавал, вообще всё идеально. Либо, когда говорю долго — больше 25 секунд, автоматически всё пересылается в GROQ, и тоже всегда распознавание хорошее. Но нужно, бывает, иногда — там косяки, их тоже легко поправить. А когда распознаёт Сбер, проще переписать заново.
😁8
GitHub
Release VoiceCapture 2.0 Lite (Portable) · oiv-an/Voice
🪶 VoiceCapture 2.0 Lite
Мы выпустили специальную облегченную версию приложения!
Особенности:
Полностью портативная: Работает из одного EXE-файла, не требует установки.
Ультра-легкая: Удалены все т...
Мы выпустили специальную облегченную версию приложения!
Особенности:
Полностью портативная: Работает из одного EXE-файла, не требует установки.
Ультра-легкая: Удалены все т...
https://github.com/oiv-an/Voice/releases/tag/v2.0.0-lite
Сделал портативную версию, которая работает только через API.
Запускаете exe-файл, вводите свои ключи — и всё работает сразу.
Сделал портативную версию, которая работает только через API.
Запускаете exe-файл, вводите свои ключи — и всё работает сразу.
🔥2
Инструмент для расфокусировки
В работе часто использую технику Pomodoro. С рабочими отрезками всё понятно, но критически важно правильно проводить и 5 минут отдыха.
Чтобы мозг действительно перезагрузился, нужно убрать смысловую нагрузку. Я открываю эту страницу, когда срабатывает таймер на перерыв. Это помогает просто позалипать в экран, отвлечься от кода и переключить внимание.
Ссылки:
* time.ivol.pro/workflow.html - визуализация.
* time.ivol.pro - сам таймер.
Простой способ визуально разгрузиться перед следующим рабочим спринтом.
В работе часто использую технику Pomodoro. С рабочими отрезками всё понятно, но критически важно правильно проводить и 5 минут отдыха.
Чтобы мозг действительно перезагрузился, нужно убрать смысловую нагрузку. Я открываю эту страницу, когда срабатывает таймер на перерыв. Это помогает просто позалипать в экран, отвлечься от кода и переключить внимание.
Ссылки:
* time.ivol.pro/workflow.html - визуализация.
* time.ivol.pro - сам таймер.
Простой способ визуально разгрузиться перед следующим рабочим спринтом.
🔥1
Как начать программировать с AI бесплатно
Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений.
Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации через GitHub по реферальной ссылке.
Ссылка для регистрации:
https://agentrouter.org/register?aff=DduP
Нюанс: На платформе заявлено много моделей, но стабильно работают преимущественно китайские.
Как настроить рабочее место:
1. Регистрируетесь по ссылке, получаете API-ключ.
2. Устанавливаете редактор кода VS Code (если еще нет).
3. Ставите плагин KiloCode.
4. Прописываете ключ и выбираете модель GLM-4.6.
Модель работает прилично, мелкие и средние задачи решает уверенно. 200 долларов на балансе хватит на огромное количество тестов. Рекомендую попробовать, пока возможность открыта.
А ещё небольшой лайфхак: создайте сейчас ещё два аккаунта на Гитхабе и просто подождите месяц. Если их акция не закончится — а скорее всего, она не закончится — то сможете получить ещё по 200 с каждого аккаунта и разрабатывать дальше.
Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений.
Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации через GitHub по реферальной ссылке.
Ссылка для регистрации:
https://agentrouter.org/register?aff=DduP
Нюанс: На платформе заявлено много моделей, но стабильно работают преимущественно китайские.
Как настроить рабочее место:
1. Регистрируетесь по ссылке, получаете API-ключ.
2. Устанавливаете редактор кода VS Code (если еще нет).
3. Ставите плагин KiloCode.
4. Прописываете ключ и выбираете модель GLM-4.6.
Модель работает прилично, мелкие и средние задачи решает уверенно. 200 долларов на балансе хватит на огромное количество тестов. Рекомендую попробовать, пока возможность открыта.
А ещё небольшой лайфхак: создайте сейчас ещё два аккаунта на Гитхабе и просто подождите месяц. Если их акция не закончится — а скорее всего, она не закончится — то сможете получить ещё по 200 с каждого аккаунта и разрабатывать дальше.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
🤝9❤1
Эволюция программирования: как изменился мой подход за год
Вспоминаю, как полтора года назад я только начинал полноценно внедрять нейросети в работу. Процесс был примитивным: отправлял промпт, получал блок кода, копировал в редактор.
Прорывом тогда стала Claude 3.5 Sonnet. Когда она вышла, это произвело фурор. Модель отлично следовала инструкциям и резко повысила качество анализа в моем трейдинг-проекте. На тот момент — пушка. Но ограничения были заметны: на больших кусках кода она начинала «тупить» и терять контекст.
Что мы имеем сейчас, спустя всего год?
Инструментарий вырос колоссально:
— Opus 4.5 — шикарен для сложных задач.
— Gemini 3 Pro — пишет код на высочайшем уровне.
— Sonnet 4.5 — держит планку качества.
— Плюс огромное количество дешевых моделей, которые уже догнали прошлогодних лидеров.
Я практически перестал писать код руками.
Моя роль трансформировалась: теперь я занимаюсь архитектурой. Я ставлю задачу, прошу предложить варианты реализации и контролирую процесс. Нейросеть пишет, я проверяю.
Парадокс, но за последние три месяца мой навык программирования вырос сильнее, чем при самостоятельной работе. Почему?
Потому что я вижу, как задачу решают разные модели. Одна проблема — четыре варианта решения. Это как иметь в штате четырех сеньоров, которые постоянно показывают тебе «best practices».
Взгляд в будущее
Ждем GPT-5.2, которая должна показать еще более сильные результаты. Прогноз простой: через год нейросети будут не просто писать функции, а реализовывать и обслуживать сложные приложения целиком. Самостоятельный деплой, тесты, проверка на ошибки, настройка Docker-ов — всё это уйдет к AI.
Порог входа в создание проектов сейчас низок как никогда. Раньше настройка среды и развертывание занимали часы. Теперь даже Git можно доверить нейросети (раньше я работал локально, теперь понял всю прелесть делегирования этого процесса).
Как сейчас учиться программированию?
Забудьте про курсы. Те деньги, которые вы хотели отдать за обучение, лучше потратить на подписки или API-токены.
Лучший способ обучения сегодня:
1. Делать свои пет-проекты (Pet projects).
2. Брать открытый код с GitHub и просить нейросеть объяснить, как и почему это так написано.
3. Постоянно пробовать разные модели и сравнивать их решения.
Vibe-coding (программирование в потоке с AI) развивает навыки быстрее любой теории. Если хотите научиться — просто начните делать это с нейросетями.
Вспоминаю, как полтора года назад я только начинал полноценно внедрять нейросети в работу. Процесс был примитивным: отправлял промпт, получал блок кода, копировал в редактор.
Прорывом тогда стала Claude 3.5 Sonnet. Когда она вышла, это произвело фурор. Модель отлично следовала инструкциям и резко повысила качество анализа в моем трейдинг-проекте. На тот момент — пушка. Но ограничения были заметны: на больших кусках кода она начинала «тупить» и терять контекст.
Что мы имеем сейчас, спустя всего год?
Инструментарий вырос колоссально:
— Opus 4.5 — шикарен для сложных задач.
— Gemini 3 Pro — пишет код на высочайшем уровне.
— Sonnet 4.5 — держит планку качества.
— Плюс огромное количество дешевых моделей, которые уже догнали прошлогодних лидеров.
Я практически перестал писать код руками.
Моя роль трансформировалась: теперь я занимаюсь архитектурой. Я ставлю задачу, прошу предложить варианты реализации и контролирую процесс. Нейросеть пишет, я проверяю.
Парадокс, но за последние три месяца мой навык программирования вырос сильнее, чем при самостоятельной работе. Почему?
Потому что я вижу, как задачу решают разные модели. Одна проблема — четыре варианта решения. Это как иметь в штате четырех сеньоров, которые постоянно показывают тебе «best practices».
Взгляд в будущее
Ждем GPT-5.2, которая должна показать еще более сильные результаты. Прогноз простой: через год нейросети будут не просто писать функции, а реализовывать и обслуживать сложные приложения целиком. Самостоятельный деплой, тесты, проверка на ошибки, настройка Docker-ов — всё это уйдет к AI.
Порог входа в создание проектов сейчас низок как никогда. Раньше настройка среды и развертывание занимали часы. Теперь даже Git можно доверить нейросети (раньше я работал локально, теперь понял всю прелесть делегирования этого процесса).
Как сейчас учиться программированию?
Забудьте про курсы. Те деньги, которые вы хотели отдать за обучение, лучше потратить на подписки или API-токены.
Лучший способ обучения сегодня:
1. Делать свои пет-проекты (Pet projects).
2. Брать открытый код с GitHub и просить нейросеть объяснить, как и почему это так написано.
3. Постоянно пробовать разные модели и сравнивать их решения.
Vibe-coding (программирование в потоке с AI) развивает навыки быстрее любой теории. Если хотите научиться — просто начните делать это с нейросетями.
👍10🐳2
Ну вот и приплыли. Perplexity деградирует.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
Заметил неприятную тенденцию: сервис перестаёт отвечать на вопросы, которые касаются анализа кода или настроек, если видит в этом намёк на «нелегальную деятельность» или обход ограничений. Раньше модель просто помогала, теперь — читает нотации и отказывается работать.
Качество ответов упало везде, даже в Labs. Раньше этот режим выдавал отличные, глубокие результаты. Сейчас даже там модель часто отказывается выполнять команды. Очевидно, разработчики закручивают гайки и перегружают системный промпт ограничениями.
Простой тест. Берём Gemini 3 Pro через «чистый» API и спрашиваем, как настроить прокси. Ответ моментальный и по делу. Задаём тот же вопрос той же модели, но внутри Perplexity — получаем отказ: «Извините, я не буду подсказывать способы обхода».
Есть гипотеза, что дополнительным триггером служит российский IP. Надо будет проверить через зарубежный адрес.
Но вывод неутешительный: Perplexity идёт по пути деградации, превращаясь из инструмента исследования в цензора.
🤔5
TechnoBlog of Ivan Olyansky
Как начать программировать с AI бесплатно Есть модель GLM-4.6, которая показывает хорошие результаты в задачах по программированию. Сейчас к ней можно получить доступ без вложений. Китайская платформа AgentRouter начисляет 200 долларов на баланс при регистрации…
Почти всю ночь тестировал модель GLM-4. Впечатления хорошие.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
Подключил её через Agent Router в связке с KiloCode в VS Code. Работает реально шустро. Отлично понимает русский язык и пишет чистый JavaScript. Для микромодулей и небольших проектов — вполне рабочий вариант. В режиме Ask можно спокойно обсудить архитектуру, попросить пример кода или загрузить свой кусок на разбор.
Единственное — действительно сложные задачи она пока не тянет.
Но есть жирный минус, о котором нужно знать. При работе через Agent Router весь трафик идет через их серверы. Организация видит всё: ваши запросы, код, ключи. Насколько китайцы будут использовать ваши наработки — вопрос открытый, но данные точно оседают у них.
Неспроста это сделано бесплатно. Учитывайте риски при работе с приватным кодом.
agentrouter.org
Agent Router
Claude Code, OpenAI Codex, Gemini Cli 公益站
👍2💩1