⚙️ Стартуем!
В 2025 году вышло больше фундаментальных AI-моделей, чем за все предыдущие годы вместе взятые. GPT-5, Claude Opus 4.6, Gemini 3.1 и каждая с принципиально разной архитектурой, логикой работы с контекстом и поведением в коде.
Я работаю с этим какое-то время. Два года назад модель через Cursor похоронила мне проект в Unreal Engine, всё работало настолько непредсказуемо, что в итоге я вытаскивал контент из проекта по кускам, без возможности запуска. Сегодня те же задачи решаются скриптами, которые часто работают с первого запуска.
Недавно параллельно экспериментировал с видеогенерацией, делал рилсы в Instagram. За два месяца 8 миллионов просмотров и плюс 3500 подписчиков с отметки 680, которые до этого очень долго набирал через собственные 3D-проекты.
Потом стало понятно, что это цифровой шум. Алгоритм распределил контент широко, но аудитория, которая осталась, досмотрела и вернулась или твоя целевая аудитория это совсем другая история. Просмотры и рост аудитории измеряют разные вещи.
Это и стал главный вопрос: что именно влияет на то, что аудитория остаётся и растёт? Какие сигналы в данных это показывают? Как из этого собрать систему, которая даёт конкретному автору конкретные выводы которые дадут примерное понимание что делать под его аудиторию и цель без общих советов, одинаковых для всех.
Стало интересно разобраться, как это работает на уровне данных. Возможно ли собрать аналитическую систему, которая по поведению аудитории, динамике и контексту подсказывает автору конкретные выводы и следующие шаги. Буду разбираться и делиться тем, что выясняется по ходу.
В 2025 году вышло больше фундаментальных AI-моделей, чем за все предыдущие годы вместе взятые. GPT-5, Claude Opus 4.6, Gemini 3.1 и каждая с принципиально разной архитектурой, логикой работы с контекстом и поведением в коде.
Я работаю с этим какое-то время. Два года назад модель через Cursor похоронила мне проект в Unreal Engine, всё работало настолько непредсказуемо, что в итоге я вытаскивал контент из проекта по кускам, без возможности запуска. Сегодня те же задачи решаются скриптами, которые часто работают с первого запуска.
Недавно параллельно экспериментировал с видеогенерацией, делал рилсы в Instagram. За два месяца 8 миллионов просмотров и плюс 3500 подписчиков с отметки 680, которые до этого очень долго набирал через собственные 3D-проекты.
Потом стало понятно, что это цифровой шум. Алгоритм распределил контент широко, но аудитория, которая осталась, досмотрела и вернулась или твоя целевая аудитория это совсем другая история. Просмотры и рост аудитории измеряют разные вещи.
Это и стал главный вопрос: что именно влияет на то, что аудитория остаётся и растёт? Какие сигналы в данных это показывают? Как из этого собрать систему, которая даёт конкретному автору конкретные выводы которые дадут примерное понимание что делать под его аудиторию и цель без общих советов, одинаковых для всех.
Стало интересно разобраться, как это работает на уровне данных. Возможно ли собрать аналитическую систему, которая по поведению аудитории, динамике и контексту подсказывает автору конкретные выводы и следующие шаги. Буду разбираться и делиться тем, что выясняется по ходу.
❤3
За последний год у меня сильно поменялся способ работы с моделями.
Раньше в основном воспринимал их как чат: спросил, получил ответ, пошел дальше. Для быстрых задач это часто удобно. Но когда задача длинная и все держится на контексте, в таком режиме быстро начинаются сбои.
Я это хорошо запомнил еще по истории с Unreal Engine. Тогда модель через Cursor в итоге просто утащила проект куда-то не туда. Все стало слишком хаотичным, и вместо нормальной работы я потом по кускам вытаскивал то, что еще можно было сохранить.
Сейчас пока только учусь работать с этим лучше, но один практический сдвиг есть.
Намного больше пользы появляется, когда модель живет внутри собранной среды. Где есть IDE, структура файлов, правила, ограничения, понимание контекста и привычка проверять результат, а не надеяться, что оно само получилось правильно.
Для меня это пока один из самых полезных выводов.
Помимо того какую модель юзаешь, многое зависит от того, какую среду ты для нее собрал.
Чем дальше работаю с моделями, тем сильнее ощущение, что они похожи на инструмент в руках художника.
Приходит аналогия с художником где художник может сделать сильную работу почти на чем угодно и с любыми инструментами, потому что у него глаз наметан и есть понимание, что и как он вообще хочет получить.
Раньше в основном воспринимал их как чат: спросил, получил ответ, пошел дальше. Для быстрых задач это часто удобно. Но когда задача длинная и все держится на контексте, в таком режиме быстро начинаются сбои.
Я это хорошо запомнил еще по истории с Unreal Engine. Тогда модель через Cursor в итоге просто утащила проект куда-то не туда. Все стало слишком хаотичным, и вместо нормальной работы я потом по кускам вытаскивал то, что еще можно было сохранить.
Сейчас пока только учусь работать с этим лучше, но один практический сдвиг есть.
Намного больше пользы появляется, когда модель живет внутри собранной среды. Где есть IDE, структура файлов, правила, ограничения, понимание контекста и привычка проверять результат, а не надеяться, что оно само получилось правильно.
Для меня это пока один из самых полезных выводов.
Помимо того какую модель юзаешь, многое зависит от того, какую среду ты для нее собрал.
Чем дальше работаю с моделями, тем сильнее ощущение, что они похожи на инструмент в руках художника.
Приходит аналогия с художником где художник может сделать сильную работу почти на чем угодно и с любыми инструментами, потому что у него глаз наметан и есть понимание, что и как он вообще хочет получить.
❤1
Сначала я пошёл в Telegram-бота. Это был самый быстрый способ протестировать логику и механику.
Почти сразу пришлось лезть в Instagram API. Там с самого начала пошла отдельная ебля: доступы, ограничения, Facebook Developer и ощущение, что ты ещё не собираешь продукт, а уже продираешься через чужую систему.
Бот дал первую рабочую форму. Потом появились данные, гипотезы и следующий шаг. В этот момент формат стал тесным. В чате всё распадалось на отдельные сообщения.
Из-за этого я полез в Mini App.
Там вылез следующий порог: экраны, кнопки, переходы, состояния. Я и так кодил на ходу, а тут пришлось ещё и это разбирать почти с нуля.
Потом выяснилось, что одного Mini App мало. Его надо нормально открывать снаружи. И тут полезли URL, туннели и весь внешний запуск.
Сначала я сидел на ngrok и cloudflared. Для первых тестов это работало. Для нормальной работы — нет. Адрес всё время менялся, Telegram приходилось каждый раз догонять новым URL, и вся конструкция оставалась времянкой.
Потом я купил домен и думал, что почти закрыл вопрос.
Не закрыл.
Потом был хостинг,
В итоге я арендовал VPS. После этого у проекта появился постоянный внешний адрес,
Вот это я и хочу дальше показывать: сам путь. Где я врезался в новую стену, что приходилось понимать уже по ходу и как из этого постепенно собирается.
Почти сразу пришлось лезть в Instagram API. Там с самого начала пошла отдельная ебля: доступы, ограничения, Facebook Developer и ощущение, что ты ещё не собираешь продукт, а уже продираешься через чужую систему.
Бот дал первую рабочую форму. Потом появились данные, гипотезы и следующий шаг. В этот момент формат стал тесным. В чате всё распадалось на отдельные сообщения.
Из-за этого я полез в Mini App.
Там вылез следующий порог: экраны, кнопки, переходы, состояния. Я и так кодил на ходу, а тут пришлось ещё и это разбирать почти с нуля.
Потом выяснилось, что одного Mini App мало. Его надо нормально открывать снаружи. И тут полезли URL, туннели и весь внешний запуск.
Сначала я сидел на ngrok и cloudflared. Для первых тестов это работало. Для нормальной работы — нет. Адрес всё время менялся, Telegram приходилось каждый раз догонять новым URL, и вся конструкция оставалась времянкой.
Потом я купил домен и думал, что почти закрыл вопрос.
Не закрыл.
Потом был хостинг,
403, странное поведение, и только там я понял, что сам до конца не различал домен, хостинг и сервер.В итоге я арендовал VPS. После этого у проекта появился постоянный внешний адрес,
https и первая нормальная точка опоры.Вот это я и хочу дальше показывать: сам путь. Где я врезался в новую стену, что приходилось понимать уже по ходу и как из этого постепенно собирается.
❤1🤔1
До какого-то момента я просто открывал чат, писал задачу и ехал дальше. Для коротких кусков это работает. Но когда проект становится больше, этот режим быстро кончается. Весь контекст в один чат не закинешь. Новая сессия ничего не помнит, новая модель тоже. И каждый раз ты заново объясняешь, что уже собрано, где сломано и на чём вы остановились.
В какой-то момент я ушёл из чата в IDE.
Туда, где нейронка видит проект целиком: файлы, структуру, куски кода, текущие документы, но этого тоже мало.
Если внутри проекта нет порядка, она так же будет плавать между кусками и каждый раз собирать свою версию происходящего. Поэтому я начал строить вокруг проекта отдельный слой контекста. Где-то лежит, что уже работает где-то, что сейчас в разборе, какие были решения и почему именно такие. Где-то, что нужно проверить после следующей правки и тд.
После каждой нормальной сессии я отдельно прошу нейронку зафиксировать результат. Что поменяли. Что не добили. Что сломалось по дороге. Что делать следующим заходом. Она записывает это в файлы проекта.
И в следующий раз я могу открыть новый чат, взять другую модель и не начинать всё с нуля.
Уже потом я узнал, что у этого вообще есть название:
spec-driven development.
По сути это работа через спецификации и живой контекст вокруг проекта. Нейронке делегируется не только код, но и работа внутри структуры, которую ты для неё выстроил и постоянно обновляешь.
Для меня здесь главный вывод такой: тут нужны отдельные навыки. Нужно уметь собирать вокруг проекта целый оркестр: спецификации, контекст, фиксацию решений, состояние системы, следующие шаги.
И если нейронка в какой-то момент начинает плавать, очень часто не ее вина. Тут уже вопрос в том, насколько хорошо ты вообще построил для неё рабочую среду.
В какой-то момент я ушёл из чата в IDE.
Туда, где нейронка видит проект целиком: файлы, структуру, куски кода, текущие документы, но этого тоже мало.
Если внутри проекта нет порядка, она так же будет плавать между кусками и каждый раз собирать свою версию происходящего. Поэтому я начал строить вокруг проекта отдельный слой контекста. Где-то лежит, что уже работает где-то, что сейчас в разборе, какие были решения и почему именно такие. Где-то, что нужно проверить после следующей правки и тд.
После каждой нормальной сессии я отдельно прошу нейронку зафиксировать результат. Что поменяли. Что не добили. Что сломалось по дороге. Что делать следующим заходом. Она записывает это в файлы проекта.
И в следующий раз я могу открыть новый чат, взять другую модель и не начинать всё с нуля.
Уже потом я узнал, что у этого вообще есть название:
spec-driven development.
По сути это работа через спецификации и живой контекст вокруг проекта. Нейронке делегируется не только код, но и работа внутри структуры, которую ты для неё выстроил и постоянно обновляешь.
Для меня здесь главный вывод такой: тут нужны отдельные навыки. Нужно уметь собирать вокруг проекта целый оркестр: спецификации, контекст, фиксацию решений, состояние системы, следующие шаги.
И если нейронка в какой-то момент начинает плавать, очень часто не ее вина. Тут уже вопрос в том, насколько хорошо ты вообще построил для неё рабочую среду.
❤1🔥1