Метаверсище и ИИще
49.8K subscribers
6.19K photos
4.79K videos
48 files
7.13K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Как нагенерить за 60 секунд. В Сиденском.

Коль скоро Seedance доступен только для компаний, сделал вот такую коллабу с INCYMO.AI - у них уже есть Сиденский для своего сервиса генерации и аналитики рекламных креативов. Попросил их сделать промокод на месяц бесплатной подписки на сервис.

Надо
зайти сюда: https://incymo.ai/app/, пропустить начальный экран, залогиниться гуглом или мейлом, и слева жать на Video.

Чтобы генерить, надо сделать бесплатную подписку в меню справа -> Subscription и ниже ввести промокод Metaverse. Никаких карточек вводить не надо.

Получите кредитов на 60 секунд генерации в Сиденском, и 95 секунд генерации в Seedeace 2.0 Fast. Немного, но мы же тут про бесплатные генерации, так?

Можете добавлять референсные кадры, генерить их прямо на платформе, а также экстендить видео и пр.

А дальше я должен рассказать про сам сервис.

Чтобы удобно и быстро генерировать рекламные ролики на основе данных конкурентов, INCYMO.AI добавили Spy Service сразу в платформу - можно отбирать видео и обучать на них систему под свои задачи.

1. Выбираешь/подгружаешь ролики конкурентов/свои
2. Получаешь отчет и сценарии
3. Выбираешь модель (лучше Sora 2 для роликов с текстом и тем более на русском даже Seedance 2 не справляется) и получаешь ролик

При этом понравившийся ролик можно улучшить сразу из платформы при помощи маркетплейса дизайнеров. За 20 баксов можно получить такой результат (приложил), доплатив побольше - получите полный фарш. При этом дизайнера подберут за вас, останется только дать правки (до 3х итераций) и забрать результат.

А сейчас ловите промокод на месяц бесплатного спай сервиса, аналитику и генерации полноценных видео из одного окна с выбором топовых рыночных моделей! НО он активен до конца воскресенья, так что торопитесь!

Ссылка на платформу: https://incymo.ai/app/
Промокод (вводить на странице subscription): Metaverse


Для получения максимального результата советую забукать демо с основательницей - она проведет по платформе до классных результатов и добавит доп кредиты, если потребуется:
https://meetings.hubspot.com/anna-zdorenko

Чтобы сервис не рухнул, пока работают первые 150 регистраций.

@cgevent
127😁17👎12🔥4👍1
ИИ-Дзен

Это не исследование от Стэнфорда или британских учоных, это частное наблюдение.

Но мне оно нравится тем, что возвращает меня к мысли о том, что восстание машин будет не снаружи - они просто залезут к нам в голову.

https://www.nfx.com/post/ai-zen

Ниже выжимка на русском:

Статья AI Zen - это не столько анализ технологий, сколько попытка психологически успокоить людей, которых новые модели начали выбивать из привычной картины мира. Автор утверждает, что после релиза новых ИИ-моделей в феврале 2026 года многие умные, амбициозные люди впервые по-настоящему почувствовали себя заменимыми: раньше ИИ казался просто продвинутым инструментом, а теперь начинает ощущаться как версия тебя самого, только быстрее, яснее и местами умнее.

Отсюда и метафора “AI Zen”. Автор сравнивает нынешний момент с дзен-практикой и состоянием “zen sickness” - болезненной дезориентацией, которая возникает, когда у человека рушится старое ощущение себя и мира. По его мысли, именно это сейчас и происходит с людьми, столкнувшимися с ИИ нового уровня: ломается эго-конструкция, в которой твой интеллект был главным активом и источником контроля.

Дальше автор предлагает не бороться с этим сдвигом, а принять его. Его рецепт довольно простой: больше взаимодействовать с ИИ, перестать цепляться за старую идентичность, меньше паниковать и учиться “flow and adaptability” - гибкости, текучести, готовности быстро перестраиваться. Он прямо говорит, что будущее становится менее предсказуемым, а потому выигрывать будут не самые самоуверенные, а самые адаптивные.

Чтобы усилить пафос, автор сравнивает нынешний AI-сдвиг с эффектом атомной бомбы после Второй мировой: человечество вдруг осознало, что мир стал радикально другим, а старые правила больше не гарантируют безопасности и понятности. Но вместо doom-настроения автор продавливает довольно типичную для VC-мира мантру: не ной, адаптируйся.

Если совсем по сути, AI Zen - это текст о том, что ИИ уже начинает бить не только по профессиям, но и по человеческому самовосприятию. И ответ автор видит не в сопротивлении, а в капитуляции части старого эго: меньше держаться за статус “я умный и потому незаменимый”, больше учиться жить рядом с машинами, которые всё чаще делают когнитивную работу лучше людей. Звучит как бы мудро, но между строк читается и другое: нас аккуратно приучают к новой норме, где психологическая адаптация к собственной частичной ненужности подаётся как почти духовная практика.

@cgevent
👍27👎167😁6🙏6😱1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Владимир Маяковский - Письмо Татьяне Яковлевой.

Автор: Артем

Видео сделано в сентябре 2025.

Хронометраж в этот раз получился почти 5 минут.

Изображения: миджорни, банана, сидрим 4.

Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.

Ну и суно конечно.

В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.

Время около 70 часов.

@cgevent
1👎90🔥25👍123😱3
GPT-Image-2

На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.

Скорее всего это новая версия генератора картинок от OpenAI.

Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).

Похоже что для иллюстративной графики это прорыв.

Есть версии, что:

> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials

Но это не так важно пока.

Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?

Нанабанана нервно генерит и закуривает овальные сигареты...

@cgevent
10🔥8113👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.

Но это не срабатывает, картинка остаётся 3:2.

Забавно, приложение уже обновили, а модель нет.

Зато можно посмотреть какие разрешения будут в новой gpt-image-2.

@cgevent
🔥22👍74👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.

Ваш Нейродед.

@cgevent
642526🔥132👍73😱5🙏2
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.

Коротко по апдейту:

- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков

Самое интересное - это их dreaming.

По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).

Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.

Второй важный момент - ставка на multi-provider:

OpenClaw подключает всё:

- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)

Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.

И это напрямую связано с тем, что произошло дальше.

Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.

Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.

Они прямо пишут:

- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)

И финальный месседж:
"нас отключили - мы пошли дальше"

В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.

И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.

Тред
🔥4817👍8
Суета вокруг Сидэнского.

Что-то происходит:

На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.

На https://fal.ai/explore/seedance-20
Все ссылки выдают 404

Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?

Я пробил по твиттору - дата регистрации аккаунта - март 2026.

Пробуйте на свой страх и риск.

P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".

Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.

@cgevent
👎146😁2
Удалятор объектов от Нетфликс

Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.

Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID

Есть код:
https://github.com/Netflix/void-model

Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.

@cgevent
👍177🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.

Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.

В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества

Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.

Скидка 40% действует 48 часов.

Пройти курс на Stepik
👎48😁125
Media is too big
VIEW IN TELEGRAM
AI UV

Для трехмерщиков.


Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.

Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.

Кода нет, но обещан.

https://meshtailor.github.io/

P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.

@cgevent
🔥19👍84