Как нагенерить за 60 секунд. В Сиденском.
Коль скоро Seedance доступен только для компаний, сделал вот такую коллабу с INCYMO.AI - у них уже есть Сиденский для своего сервиса генерации и аналитики рекламных креативов. Попросил их сделать промокод на месяц бесплатной подписки на сервис.
Надо зайти сюда: https://incymo.ai/app/, пропустить начальный экран, залогиниться гуглом или мейлом, и слева жать на Video.
Чтобы генерить, надо сделать бесплатную подписку в меню справа -> Subscription и ниже ввести промокод Metaverse. Никаких карточек вводить не надо.
Получите кредитов на 60 секунд генерации в Сиденском, и 95 секунд генерации в Seedeace 2.0 Fast. Немного, но мы же тут про бесплатные генерации, так?
Можете добавлять референсные кадры, генерить их прямо на платформе, а также экстендить видео и пр.
А дальше я должен рассказать про сам сервис.
Чтобы удобно и быстро генерировать рекламные ролики на основе данных конкурентов, INCYMO.AI добавили Spy Service сразу в платформу - можно отбирать видео и обучать на них систему под свои задачи.
1. Выбираешь/подгружаешь ролики конкурентов/свои
2. Получаешь отчет и сценарии
3. Выбираешь модель (лучше Sora 2 для роликов с текстом и тем более на русском даже Seedance 2 не справляется) и получаешь ролик
При этом понравившийся ролик можно улучшить сразу из платформы при помощи маркетплейса дизайнеров. За 20 баксов можно получить такой результат (приложил), доплатив побольше - получите полный фарш. При этом дизайнера подберут за вас, останется только дать правки (до 3х итераций) и забрать результат.
А сейчас ловите промокод на месяц бесплатного спай сервиса, аналитику и генерации полноценных видео из одного окна с выбором топовых рыночных моделей! НО он активен до конца воскресенья, так что торопитесь!
Ссылка на платформу: https://incymo.ai/app/
Промокод (вводить на странице subscription): Metaverse
Для получения максимального результата советую забукать демо с основательницей - она проведет по платформе до классных результатов и добавит доп кредиты, если потребуется:
https://meetings.hubspot.com/anna-zdorenko
Чтобы сервис не рухнул, пока работают первые 150 регистраций.
@cgevent
Коль скоро Seedance доступен только для компаний, сделал вот такую коллабу с INCYMO.AI - у них уже есть Сиденский для своего сервиса генерации и аналитики рекламных креативов. Попросил их сделать промокод на месяц бесплатной подписки на сервис.
Надо зайти сюда: https://incymo.ai/app/, пропустить начальный экран, залогиниться гуглом или мейлом, и слева жать на Video.
Чтобы генерить, надо сделать бесплатную подписку в меню справа -> Subscription и ниже ввести промокод Metaverse. Никаких карточек вводить не надо.
Получите кредитов на 60 секунд генерации в Сиденском, и 95 секунд генерации в Seedeace 2.0 Fast. Немного, но мы же тут про бесплатные генерации, так?
Можете добавлять референсные кадры, генерить их прямо на платформе, а также экстендить видео и пр.
А дальше я должен рассказать про сам сервис.
Чтобы удобно и быстро генерировать рекламные ролики на основе данных конкурентов, INCYMO.AI добавили Spy Service сразу в платформу - можно отбирать видео и обучать на них систему под свои задачи.
1. Выбираешь/подгружаешь ролики конкурентов/свои
2. Получаешь отчет и сценарии
3. Выбираешь модель (лучше Sora 2 для роликов с текстом и тем более на русском даже Seedance 2 не справляется) и получаешь ролик
При этом понравившийся ролик можно улучшить сразу из платформы при помощи маркетплейса дизайнеров. За 20 баксов можно получить такой результат (приложил), доплатив побольше - получите полный фарш. При этом дизайнера подберут за вас, останется только дать правки (до 3х итераций) и забрать результат.
А сейчас ловите промокод на месяц бесплатного спай сервиса, аналитику и генерации полноценных видео из одного окна с выбором топовых рыночных моделей! НО он активен до конца воскресенья, так что торопитесь!
Ссылка на платформу: https://incymo.ai/app/
Промокод (вводить на странице subscription): Metaverse
Для получения максимального результата советую забукать демо с основательницей - она проведет по платформе до классных результатов и добавит доп кредиты, если потребуется:
https://meetings.hubspot.com/anna-zdorenko
Чтобы сервис не рухнул, пока работают первые 150 регистраций.
@cgevent
1❤27😁17👎12🔥4👍1
NFX
AI Zen
Top founders in Silicon Valley are unlocking a new mindset with Claude Opus 4.6. We call it AI Zen — a new way to build and think with AI.
ИИ-Дзен
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.
Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.
https://www.nfx.com/post/ai-zen
Ниже выжимка на русском:
Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.
Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.
Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.
Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.
Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.
@cgevent
👍27👎16❤7😁6🙏6😱1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
Владимир Маяковский - Письмо Татьяне Яковлевой.
Автор: Артем
Видео сделано в сентябре 2025.
Хронометраж в этот раз получился почти 5 минут.
Изображения: миджорни, банана, сидрим 4.
Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.
Ну и суно конечно.
В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.
Время около 70 часов.
@cgevent
1👎90🔥25👍12❤3😱3
GPT-Image-2
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
10🔥81❤13👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
🔥22👍7❤4👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
642❤526🔥132👍73😱5🙏2
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
X (formerly Twitter)
OpenClaw🦞 (@openclaw) on X
OpenClaw 2026.4.5 🦞
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🔥48❤17👍8
Суета вокруг Сидэнского.
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
👎14❤6😁2
Удалятор объектов от Нетфликс
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
👍17❤7🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
👎48😁12❤5
Media is too big
VIEW IN TELEGRAM
AI UV
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
🔥19👍8❤4