Метаверсище и ИИще
49.9K subscribers
6.21K photos
4.81K videos
48 files
7.16K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
GPT-Image-2

На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.

Скорее всего это новая версия генератора картинок от OpenAI.

Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).

Похоже что для иллюстративной графики это прорыв.

Есть версии, что:

> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials

Но это не так важно пока.

Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?

Нанабанана нервно генерит и закуривает овальные сигареты...

@cgevent
10🔥8113👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.

Но это не срабатывает, картинка остаётся 3:2.

Забавно, приложение уже обновили, а модель нет.

Зато можно посмотреть какие разрешения будут в новой gpt-image-2.

@cgevent
🔥22👍74👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.

Ваш Нейродед.

@cgevent
648532🔥132👍73😱5🙏3
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.

Коротко по апдейту:

- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков

Самое интересное - это их dreaming.

По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).

Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.

Второй важный момент - ставка на multi-provider:

OpenClaw подключает всё:

- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)

Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.

И это напрямую связано с тем, что произошло дальше.

Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.

Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.

Они прямо пишут:

- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)

И финальный месседж:
"нас отключили - мы пошли дальше"

В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.

И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.

Тред
🔥4817👍8
Суета вокруг Сидэнского.

Что-то происходит:

На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.

На https://fal.ai/explore/seedance-20
Все ссылки выдают 404

Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?

Я пробил по твиттору - дата регистрации аккаунта - март 2026.

Пробуйте на свой страх и риск.

P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".

Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.

@cgevent
👎146😁2
Удалятор объектов от Нетфликс

Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.

Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID

Есть код:
https://github.com/Netflix/void-model

Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.

@cgevent
👍177🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.

Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.

В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества

Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.

Скидка 40% действует 48 часов.

Пройти курс на Stepik
👎49😁125
Media is too big
VIEW IN TELEGRAM
AI UV

Для трехмерщиков.


Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.

Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.

Кода нет, но обещан.

https://meshtailor.github.io/

P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.

@cgevent
🔥19👍84
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Имиджевый видеоролик для автомобиля Torres от бренда KGM

Автор: Никита Степанов (@neekiro)

Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.

Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.

Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.

Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.

Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.

Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.

Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.

Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.

Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.

Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.

Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.

Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.

Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.

Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.

@cgevent
👍96👎5217🔥17😁9
Как вырастить B2B SaaS с $0 до $2M выручки без инвестиций?

Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.

Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.

Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.

Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.

Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.

Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP

Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться

Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.

Минутка рекламы:

Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.

⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.

@cgevent
👎47👍8😁51
Слева GPT-Image-2, справа новый Grok Imagine в режиме Quality.

Грок немного мылит иконки и приподнаврал с формой. Зато он правильно пишет про количество внешних дисплеев. GPT наврал про два, их три. Но картинка просто огонь.

Тут можно бесконечно искать блох (которые можно поправить промптом), и я сейчас не про это.

Я про тот путь, который мы проделали за два года. Казалось бы, шесть пальцев сложно победить, в датасетах нет разметки для количества пальцев - победили. Казалось, что мелкий текст сложно поправить, его мало в датасетах - поправили. Ну и самое главное - модели перестали быть просто генераторами - они стали рассуждаторами и поискаторами - для этой картинки был вот такой тупейший промпт (тупейший для нас, отличный для отдела маркетинга):
"make an advertisement for the M4 Pro Mac mini."

Всё.

Модель сама лезет в интернет, изучает не только тексты и контексты, но и визуалы, никаких лор, подсказок, картинок. Сама с собой что-то обсуждает, потом бахает результат.

Еще раз, блох вы всегда найдете, просто вам будет все сложнее это делать, пальцы и текст тоже были блохами, теперь вы ищете насекомых в иконках и зрачках.

Поглядите на промпт, вспомните профессию "промт-инженер", инфоцыганщину и курсы по промптингу, промпт-энхансеры, промпт-гайды.

Модель будет понимать вас с полуслова. Но эти пол-слова вам придется из себя выдавить. И чем более креативными будут эти пол-слова, тем больше у вас будет шансов на рынке. Умение вязать лыко и облекать мысли в слова - это вторая часть балета. Первая - умение эти мысли порождать в голове.

Но эту часть у вас частично отбили соцсети, частично она генетически обусловлена, частично формируется в раннем детстве. Но ничего, инфоцыгане уже вовсю преподают "креативное мышление".

Эк меня занесло, начинал про gpt-image-2..

@cgevent
71🔥33👍11😁7👎2🙏2
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Новость дня – опенсорс от Милы Йовович 🤔

github.com/milla-jovovich/mempalace

К такому вас жизнь однозначно не готовила, но да: это ссылка на проект Милы Йовович. Она внезапно переквалифицировалась в вайбкодера и совместно с Беном Сигманом релизнула MemPalace – инструмент для управления памятью ИИ.

Заявляется, что система выбивает 100% на LongMemEval. Это абсолютная SOTA, если что: ни одна модель или агент в истории такую метрику не пробивал.

Лицензия MIT. Код, кстати, довольно простой. Фишка в том, что система извлекает из ваших разговоров важные знания и факты, а затем организует их в иерархическую структуру, внутри которой живет семантический поиск.

Идея взята из дневней методологии запоминания «Дворец памяти» (отсюда, собственно, и название). Киллер-фича: AAAK compression (assumed‑and‑auto‑known‑knowledge), с помощью которого можно уложить всю эту базу знаний в 120 токенов контекста.

У Милы Йовович уже 6к звезд на гитхабе. А у вас сколько, коллеги? 😐
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥140😱3717😁16
This media is not supported in your browser
VIEW IN TELEGRAM
sync-3 - претензия на лучший липсинк на рынке.

Сначала о хорошем. Можно загружать свои голоса и аудиофайлы, система сожрет и залипсинкает губы.
Главное - модель является language agnostic - ей все равно на каком языке входное аудио.

Теперь о плохом.
Это конски дорого. Если брать на fal, то будет 8 долларов за минуту:
https://fal.ai/models/fal-ai/sync-lipsync/v3

Если брать у них на сайте, то там вообще мутная схема: подписка ПЛЮС списания за использование, на итоге примерно также как на Фал. Стыдливо пишут цены в "центах за кадр(!)". Бесплатных планов нет.
https://sync.so/sync-3

В твитторе они признают, что их сегмент - это B2B и энтерпрайз, и что рекламное агентство заплатит 8 долларов за минуту локализации и не чихнет. Но тогда их тарифный план "Хобби" выглядит странно. Для домашних экспериментов это очень дорого.

Впрочем, надо еще поглядеть на качество за пределами рекламных роликов.

Update: Вынесу из коментов: "Юзаю их в рекламном агентстве, лучшее что есть на рынке у них)) просто генерирую видос без звука с мимикой и ставлю свой язык ( любой) и могу сразу на 5-10 языках делать видосы , прям очень хорошо"

@cgevent
25👍13😱3🔥2👎1
Пронеропрожарку

Есть гипотеза (не моя), что работы из Нейропрожарки набирают так много дизлайков в первые минуты, потому что их ставят сторонники удаления Нейропрожарки из канала. Если вдруг это так, то не делайте этого, пожалуйста. Это неуважительно к труду админа и труду нейропрожариваемых. Просто скипните пост, это несложно. Он всегда последний по будням. Если гипотеза неверна, просто проигнорьте этот пост.
Нейропрожарка стала довольно культовым явлением (судя по отзывам, которые я получаю), поэтому я позволю себе продолжать.

@cgevent
12👍173👎5526🔥10😁9🙏5
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Новая нормальность
Эпизод 00
История одной обложки

Автор: Ai Механика @mechanicsfilms_ai

"У нас правило: каждый месяц студия делает свой "творческий" проект" - фраза одного креативного продюсера из Нью-Йорка, которую я прочитал лет 15 назад. И вот я помню ее до сих пор. Потому что с годами выяснилось, что это единственный действенный метод, который может спасти вас от "выгорания", если вы работает в сфере рекламного продакшена.

Очевидно, что подобный ролик мы бы никогда не сняли традиционными методами камера+CG. Я даже не хочу прикидывать смету, во сколько бы нам это обошлось. Это миллионы. И проект бы просто лег "в стол", как и многие другие "творческие" проекты. Слава нейронкам, теперь можно делать хоть по 10 творческих проектов каждый месяц. И не "выгорать".

Вдохновением для нулевого эпизода сериала послужила реальная обложка журнала New-Yorker за октябрь 2017 года. Автор обложки R.Kikuo Johnson. Эпизоды в этом сериале будут короткими, а юмор черным.

Картинки: Nano banana PRO, Higgsfield Angles
Видео: Kling 2.1, Kling 2.6, Kling 3.0, Seedance 1.0
Музыка: SUNO
Монтаж Premiere Pro
Цветокоррекция: Davinci Resolve

По времени примерно 3 недели. В перерывах между основными проектами.

Агентство и продакшн: Ai Механика
Креативный продюсер и режиссер: Алексей Карпов
Ai артист: Павел Аушев
Монтаж: Павел Аушев


@cgevent
51👍99👎81🔥18😁53😱1
Счастливая лошадь.

Я вчера с интересом следил за интригой, связанной с появлением новой видеомодели под названием HappyHorse.
Упоминания о ней появились еще 2 апреля, но вчера она вдруг обошла Seedance 2.0 на Арене в пользовательских оценках.

Принес вам несколько примеров и речерч от деда. Пишут, что хороша в мультишотах.

На мой замыленный глаз, ей довольно далеко до Сидэнского, поэтому все вопли о том, что это убийца Seedance мы пропускаем.

Но все спекулируют о том, ЧЬЯ же это модель. Спойлер: ниже расскажу что знаю.

Твитторские двигают две версии: что это новый Minimax или что это WAN 2.7 прикрутили по АПИ.

Нет.

Далее, иронии добавляет то, что в сети появилось полно фейковых сайтов типа:
happyhorses.io
http://happyhorse-ai.com
http://happy-horse.net
http://happyhorseai.net

И вот уже интернетик перепечатывает информацию оттуда про количество параметров и архитектуру.
Но.
Этой информации нет нигде, кроме как на этих фейковых сайтах.
Ссылки на гитхаб и хаггинг оттуда битые, сайты левые.

Что же это за модель?

Скорее всего это Алибаба: В составе Alibaba есть шесть основных подразделений, среди которых Qwen, Wan и Zimage - все они являются частью лаборатории Tongyi Lab, входящей в состав Alibaba Cloud, их взаимоотношения в некотором роде напоминают отношения между Amazon и AWS.

Мой ресерч говорит, что модель происходит из лаборатории Future Life Lab компании Taobao (Alibaba Group)
Проект был создан внутри подразделения ATH-AI (инновационное направление) и сейчас уже выделен в отдельную структуру.

И да, есть информация, что это будет опенсорснуто.

Вторая, менее убедительная версия, что это новый daVinci-MagiHuman или её коммерчески/прикладно оптимизированная производная. Но она не проходит проверку, потому что основана на сравнении характеристик MagiHuman и данных с фейковых сайтов.

Так что я думаю, что это Алибаба с новой моделью.

Про опенсорсность будет ждать новостей.

Пока все.

P.S.
Судя по китайским ну очень неофициальным источникам:

Тип модели: открытая мультимодальная модель для текст→видео, изображение→видео и аудио.
Схема инференса: single Transformer Transfusion, без CFG.
Шаги инференса: 8.
Видео: 720p, 24 кадра/с, длина 5 секунд.
Аудио: SFX, ambience и narration.
Языки: китайский, английский, японский, корейский, немецкий, французский.
Опенсорсность: якобы должны открыть базовую модель, distilled-версию, апскейлер и код инференса.

@cgevent
26🔥13👍6👎3