Метаверсище и ИИще
49.8K subscribers
6.19K photos
4.79K videos
48 files
7.13K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Владимир Маяковский - Письмо Татьяне Яковлевой.

Автор: Артем

Видео сделано в сентябре 2025.

Хронометраж в этот раз получился почти 5 минут.

Изображения: миджорни, банана, сидрим 4.

Видео стандартный набор: почти все клинг (перестал немного шакалить руки, может обновился), также вео3, сиденс, хайлуо и ранвей для липсинга.

Ну и суно конечно.

В клинге ушло 15000 кредитов, суно 3000, креа 70% от максималки. Ранвей безлимит, мидж безлимит.

Время около 70 часов.

@cgevent
1👎90🔥25👍123😱3
GPT-Image-2

На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.

Скорее всего это новая версия генератора картинок от OpenAI.

Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).

Похоже что для иллюстративной графики это прорыв.

Есть версии, что:

> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials

Но это не так важно пока.

Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?

Нанабанана нервно генерит и закуривает овальные сигареты...

@cgevent
10🔥8113👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.

Но это не срабатывает, картинка остаётся 3:2.

Забавно, приложение уже обновили, а модель нет.

Зато можно посмотреть какие разрешения будут в новой gpt-image-2.

@cgevent
🔥22👍74👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.

Ваш Нейродед.

@cgevent
642526🔥132👍73😱5🙏2
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.

Коротко по апдейту:

- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков

Самое интересное - это их dreaming.

По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).

Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.

Второй важный момент - ставка на multi-provider:

OpenClaw подключает всё:

- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)

Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.

И это напрямую связано с тем, что произошло дальше.

Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.

Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.

Они прямо пишут:

- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)

И финальный месседж:
"нас отключили - мы пошли дальше"

В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.

И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.

Тред
🔥4817👍8
Суета вокруг Сидэнского.

Что-то происходит:

На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.

На https://fal.ai/explore/seedance-20
Все ссылки выдают 404

Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?

Я пробил по твиттору - дата регистрации аккаунта - март 2026.

Пробуйте на свой страх и риск.

P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".

Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.

@cgevent
👎146😁2
Удалятор объектов от Нетфликс

Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.

Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID

Есть код:
https://github.com/Netflix/void-model

Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.

@cgevent
👍177🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.

Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.

В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества

Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.

Скидка 40% действует 48 часов.

Пройти курс на Stepik
👎48😁125
Media is too big
VIEW IN TELEGRAM
AI UV

Для трехмерщиков.


Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.

Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.

Кода нет, но обещан.

https://meshtailor.github.io/

P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.

@cgevent
🔥19👍84
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Имиджевый видеоролик для автомобиля Torres от бренда KGM

Автор: Никита Степанов (@neekiro)

Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.

Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.

Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.

Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.

Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.

Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.

Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.

Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.

Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.

Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.

Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.

Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.

Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.

Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.

@cgevent
👍96👎5217🔥17😁9
Как вырастить B2B SaaS с $0 до $2M выручки без инвестиций?

Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.

Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.

Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.

Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.

Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.

Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP

Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться

Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.

Минутка рекламы:

Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.

⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.

@cgevent
👎46👍8😁51
Слева GPT-Image-2, справа новый Grok Imagine в режиме Quality.

Грок немного мылит иконки и приподнаврал с формой. Зато он правильно пишет про количество внешних дисплеев. GPT наврал про два, их три. Но картинка просто огонь.

Тут можно бесконечно искать блох (которые можно поправить промптом), и я сейчас не про это.

Я про тот путь, который мы проделали за два года. Казалось бы, шесть пальцев сложно победить, в датасетах нет разметки для количества пальцев - победили. Казалось, что мелкий текст сложно поправить, его мало в датасетах - поправили. Ну и самое главное - модели перестали быть просто генераторами - они стали рассуждаторами и поискаторами - для этой картинки был вот такой тупейший промпт (тупейший для нас, отличный для отдела маркетинга):
"make an advertisement for the M4 Pro Mac mini."

Всё.

Модель сама лезет в интернет, изучает не только тексты и контексты, но и визуалы, никаких лор, подсказок, картинок. Сама с собой что-то обсуждает, потом бахает результат.

Еще раз, блох вы всегда найдете, просто вам будет все сложнее это делать, пальцы и текст тоже были блохами, теперь вы ищете насекомых в иконках и зрачках.

Поглядите на промпт, вспомните профессию "промт-инженер", инфоцыганщину и курсы по промптингу, промпт-энхансеры, промпт-гайды.

Модель будет понимать вас с полуслова. Но эти пол-слова вам придется из себя выдавить. И чем более креативными будут эти пол-слова, тем больше у вас будет шансов на рынке. Умение вязать лыко и облекать мысли в слова - это вторая часть балета. Первая - умение эти мысли порождать в голове.

Но эту часть у вас частично отбили соцсети, частично она генетически обусловлена, частично формируется в раннем детстве. Но ничего, инфоцыгане уже вовсю преподают "креативное мышление".

Эк меня занесло, начинал про gpt-image-2..

@cgevent
70🔥33👍11😁7👎2🙏2