GPT-Image-2
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
На арене появились и исчезли три новые модели: maskingtape, packingtape, gaffertape.
Скорее всего это новая версия генератора картинок от OpenAI.
Модели дико прошарены в world knowledge(поглядите на анатомию) и также дико прошарены в самые мелкие тексты (скрины Ютюб и кода сгенерированы).
Похоже что для иллюстративной графики это прорыв.
Есть версии, что:
> maskingtape-alpha = segmentation + inpainting focus
> gaffertape-alpha = production-ready (gaffer = film production)
> packingtape-alpha = shipping/texture/materials
Но это не так важно пока.
Важно, что под капотом не старая 4о, а одна из новых моделей. Интересно какая?
Нанабанана нервно генерит и закуривает овальные сигареты...
@cgevent
10🔥81❤13👍8👎3😁1
У меня на телефоне в приложении chatgpt появилась опция Change Aspect Ratio.
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
Надо кликнуть на сгенеренную картинку и выбрать Еdit.
Но это не срабатывает, картинка остаётся 3:2.
Забавно, приложение уже обновили, а модель нет.
Зато можно посмотреть какие разрешения будут в новой gpt-image-2.
@cgevent
🔥22👍7❤4👎3
Тут в воскресенье случился мой день рождения, и даже юбилей. В этой связи я позволил себе не писать новости, а предаться размышлениям о том, что вообще происходит. Нашел фотку из прошлой жизни, где я занимаюсь ровно тем же самым - кто знает, тот поймет откуда это. Время было беззаботное и веселое. Теперь вместо кресел - подписчики, а вместо выступлений - посты.
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
Также на этой неделе случился юбилей у канала, я как-то упустил, что в нем теперь 50 000+ подписчиков. Цифра круглая и хороша тем, что мне точно психологически больше не надо. Я теперь могу, раздуваясь от гордости, небрежно бросать через плечо: я тут блоггир с аудиторией в полсотни тыщ. Надо сказать, что я никогда не гнался за этими смешными цифрами, ни разу не закупал аудиторию, не давал рекламу канала, не участвовал в каких-то неведомых папках и коллабах. Все органика и ваши кожаные репосты.
Канал отлично соответствует моей нарциссической травме - что может быть лучше, чем с умным видом говорить разные вещи на широкую аудиторию. Я и CG EVENT когда-то затеял по этой же причине. Покуражиться с микрофоном на сцене, а то слух есть, а спеть прямо не могу. И вот в зале сидит 800 чел, а ты такой - ну, за аниматоров!
Теперь вы - мой зал, который терпит эти странные шутки и тосты за кожаных. Вам всем большое спасибо за это.
Можете поздравить меня Донатом или криптой, но это необязательно в наше нежирное время.
Можете наговорить хорошего в коментах (можно даже по делу), или нагенерить что-то смешное. Будет приятно.
Ваш Нейродед.
@cgevent
648❤532🔥132👍73😱5🙏3
Forwarded from Derp Learning
OpenClaw выпустили 2026.4.5 - и это уже не просто обвязка для моделей, а какой-то комбайн всего подряд.
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
Коротко по апдейту:
- появилась генерация видео и музыки прямо из коробки
- завезли /dreaming - механизм "переваривания" контекста в долговременную память
- сделали более внятный прогресс задач
- улучшили переиспользование кэша промптов
- интерфейс и документация расширили поддержку языков
Самое интересное - это их dreaming.
По сути, это попытка сделать у модели аналог memory consolidation:
она не просто держит контекст, а "перекладывает" важные сигналы из краткосрочной памяти в долгосрочную, разбивая процесс на фазы (light / deep / REM).
Если это реально работает, то это шаг в сторону более "постоянных" агентных систем, а не одноразовых запусков.
Второй важный момент - ставка на multi-provider:
OpenClaw подключает всё:
- картинки (Comfy, fal, OpenAI и др.)
- музыку
- видео (там вообще половина рынка)
Это уже не "обёртка над одной моделью", а слой, который абстрагирует провайдеров.
И это напрямую связано с тем, что произошло дальше.
Anthropic изменили правила:
Claude-подписки больше не покрывают такие внешние инструменты -> нужен отдельный usage.
Реакция OpenClaw максимально прагматичная:
ок, значит меньше зависимости от одного провайдера.
Они прямо пишут:
- используйте API
- или идите к альтернативам (OpenAI, Qwen, MiniMax, Kimi, GLM)
И финальный месседж:
"нас отключили - мы пошли дальше"
В целом, тренд понятен:
инструменты уходят от привязки к одной модели и становятся слоем оркестрации над многими.
И в этой логике OpenClaw выглядит не как pet-проект, а как ранний прототип того, как будут выглядеть AI-стэки дальше.
Тред
X (formerly Twitter)
OpenClaw🦞 (@openclaw) on X
OpenClaw 2026.4.5 🦞
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🎬 Built-in video + music generation
🧠 /dreaming is now real
🔀 Structured task progress
⚡ Better prompt-cache reuse
🌍 Control UI + Docs now speak 12 more languages
Anthropic cut us off. GPT-5.4 got better. We moved on. https://t.co/T3LaSJYOvU
🔥48❤17👍8
Суета вокруг Сидэнского.
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
Что-то происходит:
На https://kie.ai/seedance-2-0 пишут:
This service has been temporarily taken offline.
На https://fal.ai/explore/seedance-20
Все ссылки выдают 404
Зато появлись многочисленные компании перепродавайки. Похоже, что покупают доступ как компания и продают наружу.
Вот тут дают 200 кредитов бесплатно (в неделю!), при этом Сиденс-видео стоит 18 кредитов.
https://www.flova.ai/
При этом пишут "Обновите до Pro, чтобы разблокировать генерацию реальных людей" - это как?
Я пробил по твиттору - дата регистрации аккаунта - март 2026.
Пробуйте на свой страх и риск.
P.S. Зарегался гуглом. Сгенерил видос (сбросил в коменты). Списали где-то 170 кредитов (за музыку, раскадровки и сам видос). Там все увешано ассистентами-агентами, не нашел способа сказать "просто сгенери по промпту".
Также нет понимания того, что это точно Сидэнс или мне Клинга подсунули.
@cgevent
👎14❤6😁2
Удалятор объектов от Нетфликс
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
Напишу, чуть подробнее заголовков - очень интересная работа.
Тут не просто удаление объектов с видео (что уже круто), но еще и генерация нового видео с учетом того, что физически произойдет, если убрать объекты из кадра.
Поглядите видео - если убрать вторую машину, то авария не происходит, если убрать две доминошки посередине, то последняя не падает.
Выглядит просто как магия.
Но.
В процессе участвует Промпт. Он-то и описывает, что надо сделать. Так что это скорее видеогенератор с рефами и промптом. Но смотрится все равно убойно.
Также в процессе участвует quadmask - это отдельное видео в оттенках серого, где значение каждого пикселя кодирует роль, которую играет данная область в физике процесса. По счастию, это видео генерится под капотом автоматически с помощью VLM, но вы можете генерить его сами на стороне и подавать на вход.
Более того, даже есть демо, можете сами попробовать:
https://huggingface.co/spaces/sam-motamed/VOID
Есть код:
https://github.com/Netflix/void-model
Судя по качеству примеров, я не уверен, что это прям композное решение, которое используют внутри Нетфликс. Хотя может быть у них внутри есть хайрезная и еще более умная версия.
@cgevent
👍17❤7🔥6👎1
На Stepik вышел курс: Vibecoding — Claude Code, Codex, Cursor и coding agents в 2026.
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
Хотите работать с Claude Code, Codex и Cursor так, чтобы coding agents действительно тащили заметную часть разработки: фичи, отладку, тесты, рефакторинг, MVP и многошаговые задачи? Этот курс — про современный vibecoding workflow и agentic development в 2026.
В программе:
— Claude Code, Codex, Cursor
— agent mode и многошаговые задачи
— работа с кодовой базой
— subagents, hooks, skills
— MCP и внешние инструменты
— ревью кода, изменения и контроль качества
Подойдёт всем, кто регулярно работает с кодом: разработчикам, ML-инженерам, дата-сайентистам, аналитикам, automation-специалистам и техническим фаундерам.
Скидка 40% действует 48 часов.
Пройти курс на Stepik
👎49😁12❤5
Media is too big
VIEW IN TELEGRAM
AI UV
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
Для трехмерщиков.
Я видел подобную работу в 2018 году у Автодеска. Они взяли миллион UV-разверток с турбосквида для персонажа в T-позе. И натренировали нейронку генерить похожие развертки для моделей без UV. Насколько я помню, там были именно персонажи. По каким-то причинам эту работу убрали из упоминания.
Здесь немного другой подход, но идея та же. Взять много уже готовых разверток от реальных художников и научить нейронку генерить швы (Seams) на UV-картах. Тут они замахиваются прям на произвольные классы объектов, еще и в лоу-поли, что круто, но верится с трудом. В любом случае, это простой и красивый подход, и я не понимаю, почему никто не занимается AI UV, ведь данных полно. Вероятно проблема в абсолютно произвольной топологии полигональных объектов.
Кода нет, но обещан.
https://meshtailor.github.io/
P.S. А ведь были времена, когда голову персонажа лепили в NURBS. Патчевое сплайновое моделирование. АдЪ.
@cgevent
🔥19👍8❤4
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Имиджевый видеоролик для автомобиля Torres от бренда KGM
Автор: Никита Степанов (@neekiro)
Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.
Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.
Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.
Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.
Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.
Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.
Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.
Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.
Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.
Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.
Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.
Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.
Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.
Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.
@cgevent
Имиджевый видеоролик для автомобиля Torres от бренда KGM
Автор: Никита Степанов (@neekiro)
Производство: Креативная CG и AI студия YŪGA VISION
Команда: Руслан KlipSpringer (@klip_springer) — режиссёр, Александр Поздняков (@SkarHeavy) — дженералист. Сценарий и идеи штурмили вместе.
Сделали этот ролик на хакатоне Skillout за 24 часа по реальному брифу KGM Torres.
Подход: Сразу решили не делать очередное нейро-мясо. На таких движухах легко уйти в безумие ради безумия. Нам было интереснее проверить: можно ли втроём за сутки собрать не набор генераций, а рабочий рекламный ролик.
Бриф: Многие воспринимают KGM как “какой-то новый бренд”, хотя это корейская история (SsangYong). Плюс нужно было попасть в понятную ЦА: взрослый уверенный мужик, семьянин, которому нужна машина и для города, и для активных хобби.
Идея: Мы построили ролик на закольцованной фразе “как обычно”. В этом и был весь прикол: для героя “обычно” – это не рутина, а его нормальная форма жизни, где город легко перетекает в песок, снег, горы и ощущение внутренней свободы.
Такой ход помог нам сразу закрыть и образ ЦА, и характер автомобиля, а ГЗК и титры закрылы бренд-задачу.
Отдельно важной для нас стала сцена с льдиной. Именно она задала ролику нужный тон: не AI-цирк и не стерильная автормекла, а взрослый, спокойный, чуть хулиганский юмор.
Главный спор внутри: ребята хотели больше безумия и мяса. Я всё время возвращал нас к брифу, хоть это, возможно, причина, почему мы не выиграли)). Победил ролик более безумный по эмоции. Но я рад, что у нас продукт не приклеен к креативу, а находится в центре. И я бы всё равно снова выбрал этот путь.
Что сработало по пайплайну: лучше всего у нас зашли Kling 3, Kling 3 Omni и Nano Banana Pro.
• Kling 3 сильно выручал через first frame / last frame.
• Omni помогал там, где нужно было сложнее управлять сценой и подсовывать промежуточные состояния кадра.
• Мультишот в Kling неожиданно оказался суперполезным: в дедлайне 24 часа он ускорял монтаж и иногда сам подкидывал хорошие постановочные решения.
• Стилшоты делали в Nano Banana Pro.
• Для консистентности в NBP собирали реф-листы с разными ракурсами, а в Kling использовали Element.
Больше всего плыли колёса. Именно они сожрали больше всего итераций, и не всё мы успели довести до идеала.
Прочие инструменты: музыку брали с Artlist, липсинк делали в PixVerse.
ChatGPT использовали как внешний фильтр: не уехали ли мы слишком далеко от брифа.
Где зафейлили: заранее не подготовили идеальный голос под автомобильную рекламу. Голос отца потом пришлось докручивать нейросетями, а голос девочки вообще записывали почти в полевых условиях - попросили одну из организаторов наговорить реплику на iPhone, а дальше уже вытягивали обработкой. Хороший урок на будущее.
Сон: спали мы за всё это примерно полтора часа. Последние 5–6 часов был уже чистый гринд.
Результат: по фидбеку от KGM ролик был у них в топе при финальном выборе, хоть и не взял 1 место. Для нас это всё равно важный кейс, который потом помог оптимизировать пайплайн на реальных коммерческих проектах.
Главный вывод: как кто-то сказал: “вход в генерацию падает, а вход в профессию растёт”. Красиво нагенерить сейчас могут многие. А вот придумать идею, удержать бриф, собрать режиссуру, не превратить ролик в AI-винегрет и за сутки довести продукт до центра истории — это уже реальная работа.
@cgevent
👍96👎52❤17🔥17😁9
Как вырастить B2B SaaS с $0 до $2M выручки без инвестиций?
Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.
Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.
Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.
Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.
Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.
Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP
Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться
Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.
Минутка рекламы:
Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.
⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.
@cgevent
Недавно узнал историю 4dev.com из первых рук, от сооснователя Димы Кочнева. Просто разговорились на одном из хабов. Знакомы давно, но общаемся реже, чем хочется.
Напомню, что 4dev.com — это платформа для автоматизации выплат удалённым сотрудникам и фрилансерам по всему миру. Дима рассказал, как запускать B2B SaaS с нуля, расти x10 и не сжечь деньги на старте.
Как появилась идея
Во время работы в Skyeng Дима столкнулся с проблемой: с ростом команды выплаты, акты и ручные переводы перестали масштабироваться. В какой-то момент только документооборотом занимались десятки людей. Тогда внутри компании появился сервис для автоматизации выплат — а позже из этого выросла идея отдельного продукта.
Как нашли модель, которая взлетела
Стартап сразу строили с кофаундером: Дима взял на себя продажи и стратегию, партнёр — продукт и операционку. MVP собрали быстро, чтобы проверить спрос, и уже первые founder-led продажи принесли около 30 клиентов. Этого хватило, чтобы выйти в плюс и дальше расти без инвестиций.
Как случился рост
После полного фокуса на 4dev.com компания выросла с $100K до $1M ARR, а ещё через несколько месяцев — до $2M. Основой стали личные продажи, нетворк, рекомендации и постоянная работа фаундеров с клиентами.
Что сработало
— глубокое понимание проблемы
— быстрый запуск MVP
— продажи с первого дня
— сильная вовлечённость фаундеров
— качественный сервис
— хорошее понимание ICP
Что легко зафейлить
— строить продукт без первых продаж
— делать “ещё одно такое же решение”
— запускать всё в одиночку и распыляться
Сейчас 4dev.com помогает компаниям платить командам в 150+ стран, автоматизировать документооборот и проводить выплаты в 30+ валютах, включая USDT.
Минутка рекламы:
Если у вас распределённая команда и вы устали от ручных выплат — 4dev.com закрывает этот вопрос, а закрывающие документы, которые платформа создает автоматически, соотвествуют междунароным требованиям.
⭐️ Записаться на бесплатную консультацию — их команда разбирает конкретно ваш кейс и помогает найти лучшие пути решения.
@cgevent
👎47👍8😁5❤1
Слева GPT-Image-2, справа новый Grok Imagine в режиме Quality.
Грок немного мылит иконки и приподнаврал с формой. Зато он правильно пишет про количество внешних дисплеев. GPT наврал про два, их три. Но картинка просто огонь.
Тут можно бесконечно искать блох (которые можно поправить промптом), и я сейчас не про это.
Я про тот путь, который мы проделали за два года. Казалось бы, шесть пальцев сложно победить, в датасетах нет разметки для количества пальцев - победили. Казалось, что мелкий текст сложно поправить, его мало в датасетах - поправили. Ну и самое главное - модели перестали быть просто генераторами - они стали рассуждаторами и поискаторами - для этой картинки был вот такой тупейший промпт (тупейший для нас, отличный для отдела маркетинга):
"make an advertisement for the M4 Pro Mac mini."
Всё.
Модель сама лезет в интернет, изучает не только тексты и контексты, но и визуалы, никаких лор, подсказок, картинок. Сама с собой что-то обсуждает, потом бахает результат.
Еще раз, блох вы всегда найдете, просто вам будет все сложнее это делать, пальцы и текст тоже были блохами, теперь вы ищете насекомых в иконках и зрачках.
Поглядите на промпт, вспомните профессию "промт-инженер", инфоцыганщину и курсы по промптингу, промпт-энхансеры, промпт-гайды.
Модель будет понимать вас с полуслова. Но эти пол-слова вам придется из себя выдавить. И чем более креативными будут эти пол-слова, тем больше у вас будет шансов на рынке. Умение вязать лыко и облекать мысли в слова - это вторая часть балета. Первая - умение эти мысли порождать в голове.
Но эту часть у вас частично отбили соцсети, частично она генетически обусловлена, частично формируется в раннем детстве. Но ничего, инфоцыгане уже вовсю преподают "креативное мышление".
Эк меня занесло, начинал про gpt-image-2..
@cgevent
Грок немного мылит иконки и приподнаврал с формой. Зато он правильно пишет про количество внешних дисплеев. GPT наврал про два, их три. Но картинка просто огонь.
Тут можно бесконечно искать блох (которые можно поправить промптом), и я сейчас не про это.
Я про тот путь, который мы проделали за два года. Казалось бы, шесть пальцев сложно победить, в датасетах нет разметки для количества пальцев - победили. Казалось, что мелкий текст сложно поправить, его мало в датасетах - поправили. Ну и самое главное - модели перестали быть просто генераторами - они стали рассуждаторами и поискаторами - для этой картинки был вот такой тупейший промпт (тупейший для нас, отличный для отдела маркетинга):
"make an advertisement for the M4 Pro Mac mini."
Всё.
Модель сама лезет в интернет, изучает не только тексты и контексты, но и визуалы, никаких лор, подсказок, картинок. Сама с собой что-то обсуждает, потом бахает результат.
Еще раз, блох вы всегда найдете, просто вам будет все сложнее это делать, пальцы и текст тоже были блохами, теперь вы ищете насекомых в иконках и зрачках.
Поглядите на промпт, вспомните профессию "промт-инженер", инфоцыганщину и курсы по промптингу, промпт-энхансеры, промпт-гайды.
Модель будет понимать вас с полуслова. Но эти пол-слова вам придется из себя выдавить. И чем более креативными будут эти пол-слова, тем больше у вас будет шансов на рынке. Умение вязать лыко и облекать мысли в слова - это вторая часть балета. Первая - умение эти мысли порождать в голове.
Но эту часть у вас частично отбили соцсети, частично она генетически обусловлена, частично формируется в раннем детстве. Но ничего, инфоцыгане уже вовсю преподают "креативное мышление".
@cgevent
❤71🔥33👍11😁7👎2🙏2
Forwarded from Data Secrets
This media is not supported in your browser
VIEW IN TELEGRAM
Новость дня – опенсорс от Милы Йовович 🤔
github.com/milla-jovovich/mempalace
К такому вас жизнь однозначно не готовила, но да: это ссылка на проект Милы Йовович. Она внезапно переквалифицировалась в вайбкодера и совместно с Беном Сигманом релизнула MemPalace – инструмент для управления памятью ИИ.
Заявляется, что система выбивает 100% на LongMemEval. Это абсолютная SOTA, если что: ни одна модель или агент в истории такую метрику не пробивал.
Лицензия MIT. Код, кстати, довольно простой. Фишка в том, что система извлекает из ваших разговоров важные знания и факты, а затем организует их в иерархическую структуру, внутри которой живет семантический поиск.
Идея взята из дневней методологии запоминания «Дворец памяти» (отсюда, собственно, и название). Киллер-фича: AAAK compression (assumed‑and‑auto‑known‑knowledge), с помощью которого можно уложить всю эту базу знаний в 120 токенов контекста.
У Милы Йовович уже 6к звезд на гитхабе. А у вас сколько, коллеги?😐
github.com/milla-jovovich/mempalace
К такому вас жизнь однозначно не готовила, но да: это ссылка на проект Милы Йовович. Она внезапно переквалифицировалась в вайбкодера и совместно с Беном Сигманом релизнула MemPalace – инструмент для управления памятью ИИ.
Заявляется, что система выбивает 100% на LongMemEval. Это абсолютная SOTA, если что: ни одна модель или агент в истории такую метрику не пробивал.
Лицензия MIT. Код, кстати, довольно простой. Фишка в том, что система извлекает из ваших разговоров важные знания и факты, а затем организует их в иерархическую структуру, внутри которой живет семантический поиск.
Идея взята из дневней методологии запоминания «Дворец памяти» (отсюда, собственно, и название). Киллер-фича: AAAK compression (assumed‑and‑auto‑known‑knowledge), с помощью которого можно уложить всю эту базу знаний в 120 токенов контекста.
У Милы Йовович уже 6к звезд на гитхабе. А у вас сколько, коллеги?
Please open Telegram to view this post
VIEW IN TELEGRAM
5🔥140😱37❤17😁16
This media is not supported in your browser
VIEW IN TELEGRAM
sync-3 - претензия на лучший липсинк на рынке.
Сначала о хорошем. Можно загружать свои голоса и аудиофайлы, система сожрет и залипсинкает губы.
Главное - модель является language agnostic - ей все равно на каком языке входное аудио.
Теперь о плохом.
Это конски дорого. Если брать на fal, то будет 8 долларов за минуту:
https://fal.ai/models/fal-ai/sync-lipsync/v3
Если брать у них на сайте, то там вообще мутная схема: подписка ПЛЮС списания за использование, на итоге примерно также как на Фал. Стыдливо пишут цены в "центах за кадр(!)". Бесплатных планов нет.
https://sync.so/sync-3
В твитторе они признают, что их сегмент - это B2B и энтерпрайз, и что рекламное агентство заплатит 8 долларов за минуту локализации и не чихнет. Но тогда их тарифный план "Хобби" выглядит странно. Для домашних экспериментов это очень дорого.
Впрочем, надо еще поглядеть на качество за пределами рекламных роликов.
Update: Вынесу из коментов: "Юзаю их в рекламном агентстве, лучшее что есть на рынке у них)) просто генерирую видос без звука с мимикой и ставлю свой язык ( любой) и могу сразу на 5-10 языках делать видосы , прям очень хорошо"
@cgevent
Сначала о хорошем. Можно загружать свои голоса и аудиофайлы, система сожрет и залипсинкает губы.
Главное - модель является language agnostic - ей все равно на каком языке входное аудио.
Теперь о плохом.
Это конски дорого. Если брать на fal, то будет 8 долларов за минуту:
https://fal.ai/models/fal-ai/sync-lipsync/v3
Если брать у них на сайте, то там вообще мутная схема: подписка ПЛЮС списания за использование, на итоге примерно также как на Фал. Стыдливо пишут цены в "центах за кадр(!)". Бесплатных планов нет.
https://sync.so/sync-3
В твитторе они признают, что их сегмент - это B2B и энтерпрайз, и что рекламное агентство заплатит 8 долларов за минуту локализации и не чихнет. Но тогда их тарифный план "Хобби" выглядит странно. Для домашних экспериментов это очень дорого.
Впрочем, надо еще поглядеть на качество за пределами рекламных роликов.
Update: Вынесу из коментов: "Юзаю их в рекламном агентстве, лучшее что есть на рынке у них)) просто генерирую видос без звука с мимикой и ставлю свой язык ( любой) и могу сразу на 5-10 языках делать видосы , прям очень хорошо"
@cgevent
❤25👍13😱3🔥2👎1
Пронеропрожарку
Есть гипотеза (не моя), что работы из Нейропрожарки набирают так много дизлайков в первые минуты, потому что их ставят сторонники удаления Нейропрожарки из канала. Если вдруг это так, то не делайте этого, пожалуйста. Это неуважительно к труду админа и труду нейропрожариваемых. Просто скипните пост, это несложно. Он всегда последний по будням. Если гипотеза неверна, просто проигнорьте этот пост.
Нейропрожарка стала довольно культовым явлением (судя по отзывам, которые я получаю), поэтому я позволю себе продолжать.
@cgevent
Есть гипотеза (не моя), что работы из Нейропрожарки набирают так много дизлайков в первые минуты, потому что их ставят сторонники удаления Нейропрожарки из канала. Если вдруг это так, то не делайте этого, пожалуйста. Это неуважительно к труду админа и труду нейропрожариваемых. Просто скипните пост, это несложно. Он всегда последний по будням. Если гипотеза неверна, просто проигнорьте этот пост.
Нейропрожарка стала довольно культовым явлением (судя по отзывам, которые я получаю), поэтому я позволю себе продолжать.
@cgevent
12👍173👎55❤26🔥10😁9🙏5
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Новая нормальность
Эпизод 00
История одной обложки
Автор: Ai Механика @mechanicsfilms_ai
"У нас правило: каждый месяц студия делает свой "творческий" проект" - фраза одного креативного продюсера из Нью-Йорка, которую я прочитал лет 15 назад. И вот я помню ее до сих пор. Потому что с годами выяснилось, что это единственный действенный метод, который может спасти вас от "выгорания", если вы работает в сфере рекламного продакшена.
Очевидно, что подобный ролик мы бы никогда не сняли традиционными методами камера+CG. Я даже не хочу прикидывать смету, во сколько бы нам это обошлось. Это миллионы. И проект бы просто лег "в стол", как и многие другие "творческие" проекты. Слава нейронкам, теперь можно делать хоть по 10 творческих проектов каждый месяц. И не "выгорать".
Вдохновением для нулевого эпизода сериала послужила реальная обложка журнала New-Yorker за октябрь 2017 года. Автор обложки R.Kikuo Johnson. Эпизоды в этом сериале будут короткими, а юмор черным.
Картинки: Nano banana PRO, Higgsfield Angles
Видео: Kling 2.1, Kling 2.6, Kling 3.0, Seedance 1.0
Музыка: SUNO
Монтаж Premiere Pro
Цветокоррекция: Davinci Resolve
По времени примерно 3 недели. В перерывах между основными проектами.
Агентство и продакшн: Ai Механика
Креативный продюсер и режиссер: Алексей Карпов
Ai артист: Павел Аушев
Монтаж: Павел Аушев
@cgevent
Новая нормальность
Эпизод 00
История одной обложки
Автор: Ai Механика @mechanicsfilms_ai
"У нас правило: каждый месяц студия делает свой "творческий" проект" - фраза одного креативного продюсера из Нью-Йорка, которую я прочитал лет 15 назад. И вот я помню ее до сих пор. Потому что с годами выяснилось, что это единственный действенный метод, который может спасти вас от "выгорания", если вы работает в сфере рекламного продакшена.
Очевидно, что подобный ролик мы бы никогда не сняли традиционными методами камера+CG. Я даже не хочу прикидывать смету, во сколько бы нам это обошлось. Это миллионы. И проект бы просто лег "в стол", как и многие другие "творческие" проекты. Слава нейронкам, теперь можно делать хоть по 10 творческих проектов каждый месяц. И не "выгорать".
Вдохновением для нулевого эпизода сериала послужила реальная обложка журнала New-Yorker за октябрь 2017 года. Автор обложки R.Kikuo Johnson. Эпизоды в этом сериале будут короткими, а юмор черным.
Картинки: Nano banana PRO, Higgsfield Angles
Видео: Kling 2.1, Kling 2.6, Kling 3.0, Seedance 1.0
Музыка: SUNO
Монтаж Premiere Pro
Цветокоррекция: Davinci Resolve
По времени примерно 3 недели. В перерывах между основными проектами.
Агентство и продакшн: Ai Механика
Креативный продюсер и режиссер: Алексей Карпов
Ai артист: Павел Аушев
Монтаж: Павел Аушев
@cgevent
51👍99👎81🔥18😁5❤3😱1
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Счастливая лошадь.
Я вчера с интересом следил за интригой, связанной с появлением новой видеомодели под названием HappyHorse.
Упоминания о ней появились еще 2 апреля, но вчера она вдруг обошла Seedance 2.0 на Арене в пользовательских оценках.
Принес вам несколько примеров и речерч от деда. Пишут, что хороша в мультишотах.
На мой замыленный глаз, ей довольно далеко до Сидэнского, поэтому все вопли о том, что это убийца Seedance мы пропускаем.
Но все спекулируют о том, ЧЬЯ же это модель. Спойлер: ниже расскажу что знаю.
Твитторские двигают две версии: что это новый Minimax или что это WAN 2.7 прикрутили по АПИ.
Нет.
Далее, иронии добавляет то, что в сети появилось полно фейковых сайтов типа:
happyhorses.io
http://happyhorse-ai.com
http://happy-horse.net
http://happyhorseai.net
И вот уже интернетик перепечатывает информацию оттуда про количество параметров и архитектуру.
Но.
Этой информации нет нигде, кроме как на этих фейковых сайтах.
Ссылки на гитхаб и хаггинг оттуда битые, сайты левые.
Что же это за модель?
Скорее всего это Алибаба: В составе Alibaba есть шесть основных подразделений, среди которых Qwen, Wan и Zimage - все они являются частью лаборатории Tongyi Lab, входящей в состав Alibaba Cloud, их взаимоотношения в некотором роде напоминают отношения между Amazon и AWS.
Мой ресерч говорит, что модель происходит из лаборатории Future Life Lab компании Taobao (Alibaba Group)
Проект был создан внутри подразделения ATH-AI (инновационное направление) и сейчас уже выделен в отдельную структуру.
И да, есть информация, что это будет опенсорснуто.
Вторая, менее убедительная версия, что это новый daVinci-MagiHuman или её коммерчески/прикладно оптимизированная производная. Но она не проходит проверку, потому что основана на сравнении характеристик MagiHuman и данных с фейковых сайтов.
Так что я думаю, что это Алибаба с новой моделью.
Про опенсорсность будет ждать новостей.
Пока все.
P.S.
Судя по китайским ну очень неофициальным источникам:
Тип модели: открытая мультимодальная модель для текст→видео, изображение→видео и аудио.
Схема инференса: single Transformer Transfusion, без CFG.
Шаги инференса: 8.
Видео: 720p, 24 кадра/с, длина 5 секунд.
Аудио: SFX, ambience и narration.
Языки: китайский, английский, японский, корейский, немецкий, французский.
Опенсорсность: якобы должны открыть базовую модель, distilled-версию, апскейлер и код инференса.
@cgevent
Я вчера с интересом следил за интригой, связанной с появлением новой видеомодели под названием HappyHorse.
Упоминания о ней появились еще 2 апреля, но вчера она вдруг обошла Seedance 2.0 на Арене в пользовательских оценках.
Принес вам несколько примеров и речерч от деда. Пишут, что хороша в мультишотах.
На мой замыленный глаз, ей довольно далеко до Сидэнского, поэтому все вопли о том, что это убийца Seedance мы пропускаем.
Но все спекулируют о том, ЧЬЯ же это модель. Спойлер: ниже расскажу что знаю.
Твитторские двигают две версии: что это новый Minimax или что это WAN 2.7 прикрутили по АПИ.
Нет.
Далее, иронии добавляет то, что в сети появилось полно фейковых сайтов типа:
happyhorses.io
http://happyhorse-ai.com
http://happy-horse.net
http://happyhorseai.net
И вот уже интернетик перепечатывает информацию оттуда про количество параметров и архитектуру.
Но.
Этой информации нет нигде, кроме как на этих фейковых сайтах.
Ссылки на гитхаб и хаггинг оттуда битые, сайты левые.
Что же это за модель?
Скорее всего это Алибаба: В составе Alibaba есть шесть основных подразделений, среди которых Qwen, Wan и Zimage - все они являются частью лаборатории Tongyi Lab, входящей в состав Alibaba Cloud, их взаимоотношения в некотором роде напоминают отношения между Amazon и AWS.
Мой ресерч говорит, что модель происходит из лаборатории Future Life Lab компании Taobao (Alibaba Group)
Проект был создан внутри подразделения ATH-AI (инновационное направление) и сейчас уже выделен в отдельную структуру.
И да, есть информация, что это будет опенсорснуто.
Вторая, менее убедительная версия, что это новый daVinci-MagiHuman или её коммерчески/прикладно оптимизированная производная. Но она не проходит проверку, потому что основана на сравнении характеристик MagiHuman и данных с фейковых сайтов.
Так что я думаю, что это Алибаба с новой моделью.
Про опенсорсность будет ждать новостей.
Пока все.
P.S.
Судя по китайским ну очень неофициальным источникам:
Тип модели: открытая мультимодальная модель для текст→видео, изображение→видео и аудио.
Схема инференса: single Transformer Transfusion, без CFG.
Шаги инференса: 8.
Видео: 720p, 24 кадра/с, длина 5 секунд.
Аудио: SFX, ambience и narration.
Языки: китайский, английский, японский, корейский, немецкий, французский.
Опенсорсность: якобы должны открыть базовую модель, distilled-версию, апскейлер и код инференса.
@cgevent
❤26🔥13👍6👎3