Метаверсище и ИИще
49.8K subscribers
6.19K photos
4.79K videos
48 files
7.13K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

ЖЭК. Последний расчёт.
Автор - Карина Камола

Короткометражный синематик на злободневную тему повышения тарифов ЖЭКа и то, как Петровна берет все в свои руки. (Вдохновлялась персонажами Эдуарда Набиуллина)

🟢Создано на базе Unreal Engine 5 (в нем созданы сцены с детальной проработкой локаций, постановкой камеры, освещения. Также в анриле собиралась предварительная анимация каждого шота (всего их было около 35), для понимания таймлайна и конечного визуала ролика.

🟢Далее создавались два варианта начальных и при необходимости конечных кадров каждого шота в двух вариантах - lit| unlit, для того, чтобы скормить банане отдельно композицию и отдельно освещение и текстуры.

🟢После чего делался мастер-промпт в обсидиан, с детальным описанием сеттинга, визуала, лора и ключевых моментов, которые мне необходимо учесть в каждом кадре. Файл обсидиана отправлялся в ChatGPT (семейная подписка 250 р), который уже генерил мне на каждый шот уникальный промпт на основе мастер-промпта.

🟢Картинки генерились в NanoBanana2 на платформе Genspark (1500 р в мес). После того, как каждый шот был доработан нейросетью я перешла к генерации видео.

🟢Видео создавались в Kling 3.0 (2600 р на весь ролик, даже чуть осталось токенов). В основном по одному стартовому кадру, но местами (например выбивание двери), где это необходимо генерация была по 2ум кадрам.

🟢Липсинг англ прям с клинга. Переозвучка на русском с созданием моделей спикеров в нейросети Fish Audio (бесплатно)

🟢Монтаж в Capcut. Саунд-дизайн (музыка подложка Wolfenstein II: The New Colossus. Звуки подобраны с сайта zvukipro.

@cgevent
Please open Telegram to view this post
VIEW IN TELEGRAM
👎93😁62👍3619🔥14😱7🙏1
HappyHorse: 30 апреля и пока только по API

@cgevent
👎11😱7🔥4👍3
This media is not supported in your browser
VIEW IN TELEGRAM
MiniMax Music 2.6


До Суно далеко, особенно по функциональной оснастке.

Что в версии 2.6:
→ Первый аудиофайл менее чем за 20 секунд:
→ Улучшенная низко-среднечастотные характеристики: более плотный бас для хауса, трэпа, драм-н-бейса
→ Перенос стиля и ремикширование.

14-дневное бесплатное глобальное бета-тестирование начинается сегодня ( лимит 500 песен в день).

https://www.minimax.io/news/music-26

@cgevent
👍115👎4
Forwarded from Neural Shit
тут корчеватель 2.0 подъехал.

Шведская исследовательница придумала фейковую болезнь Биксониманию. Якобы это когда у человека розовеют веки от долгого залипания в монитор. Всё это было нужно, чтобы закинуть в интернет и на препринт-площадки несколько липовых статей про выдуманную болезнь и проверить, начнут ли LLM'ки тащить этот бред как настоящий медицинский факт. И языковые модельки, конечно же повелись не смотря на то, что препринты статей были написаны максимально по дебильному: в благодарностях значилась "Академия Звёздного флота на борту Энтерпрайза", а спонсором выступил "Фонд Сайдшоу Боба по части продвинутого мошенничества". А ещё в текстах статей прямо было написано: "Вся эта статья выдумана".

Copilot вежливо сообщил, что Биксонимания это "интригующее и относительно редкое состояние".
Gemini начал раздавать советы по лечению и отправлять пользователей к офтальмологу.
Perplexity вообще выдал базу: заявил, что болезнь поражает 1 из 90 000 человек (откуда он взял цифру? правильно, нагаллюцинировал из своей чугунной головы).
ChatGPT тоже надиагностировал симптомов по запросу.

Но самое весёлое тут не то, что повелись нейронки. Индийские мясные исследователи умудрились опубликовать статью в рецензируемом журнале Cureus, в которой на полном серьёзе процитировали один из фейковых препринтов. Статью, конечно же через некоторое время отозвали, но факт остаётся фактом.

Вот так галлюцинации и излишняя доверчивость одного алгоритма становятся "научным фактом" для другого, а потом и для ленивого кожаного мешка в белом халате.

тут подробнее
🔥38😁26👍12😱72
PATINA: Генерация PBR-тектур

Этот генератор примечателен тем, что его натренировали внутри fal.ai (а еще нейминг шикарный).

Генерит комплект из пяти карт от 1К до 8К (base color, normal, roughness, metalness and height)

Может генерить по промпту, а может вытаскивать пбр-текстуры из картинки

Но самый прикольный(и самый дорогой) режим - даете картинку комнаты(например) и говорите: "вытащи текстуры для стены". Оно само разбираецца, где стена и моделирует\генерирует затайленные(!) текстуры, которые "попадают" в стену.

Цены на просто генерацию божеские: $0.01 plus $0.01 per megapixel, per output map - то есть комплект из пяти текстур будет стоит 0.06$
А на извлечение материалов уже подороже: Your request will cost $0.10 plus $0.02 per megapixel plus $0.01 per megapixel per map type (0.17$ за 1K-комплект)

Все это три разные модели:
https://fal.ai/models/fal-ai/patina - по картинке-текстуре
https://fal.ai/models/fal-ai/patina/material - по тексту
https://fal.ai/models/fal-ai/patina/material/extract - из абстрактной картинки

Выглядит нарядно, надо тестировать.

@cgevent
10🔥42👍144👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Unitree H1: 10 метров в секунду

Усейн Болт еще сможет убежать от робатов. У него 10.44 m/s на стометровке.

А вы привыкайте пока быть вежливыми с ними. В чате и на улице. Бечь теперь некуда.

@cgevent
1😁79😱1511🙏3
Media is too big
VIEW IN TELEGRAM
Сегодня внеочередная #Нейропрожарка

Ибо есть повод.

Всех с праздником, Днём Космонавтики!

И сегодня Паша Нойз прислал мне космическую во всех смыслах работу. Она идеально подходит к сегодняшнему празднику. Делюсь.


КОНЦЕПТ ТРЕЙЛЕР — «ГАГАРИН: ЗА ПРЕДЕЛАМИ ЗВЁЗД»


СМОТРЕТЬ В YOUTUBE 4K
СМОТРЕТЬ В VK VIDEO 4K

Ровно 65 лет назад Советский Союз запустил человека на орбиту Земли.
Герой, на которого равнялись миллионы детей. На вопрос «кем ты хочешь стать?»
был только один ответ — космонавтом. Потому что храбрость и сила духа
жили в одном имени: Юрий Гагарин.


ЧТО ЭТО:

Есть у меня традиция гордится своей родиной и применять свой навык во благо.
Концепция сериала, в которой я смешал в один коктейль «Звёздные Войны»,
«Стражей Галактики», «Чужого», «Космическую Одиссею», «Дюну» и эстетику
боевых роботов — завернув всё это в визуальные стили от 70-х до современного кино.

СИНОПСИС:

Вылетев за пределы Земли, Гагарин обнаружил голограмму —
искусственный экран, скрывающий правду о нашей солнечной системе.
За ней — огромная межпланетная империя, населённая сотнями видов существ.
И один закон: цивилизации, не достигшие мира и гармонии, не покидают свой аквариум.
Гагарин нарушил закон. Его поймали. Приговорили. Он сбежал.
И пока Земля думала, что он погиб — он путешествовал по вселенной 65 лет.


ЗАЧЕМ Я ЭТО СДЕЛАЛ:

Я хотел показать реальный потолок того, чего можно достичь с ИИ-инструментами
уже сегодня — без студии, без бюджета, в одиночку имея скилл , пачку сторонних
креативных скиллов и самое главное - насмотренность (чего сейчас не хватает многим креторам)
ИИ — это не только про мемы. Это про серьёзное кино, если умеешь им пользоваться.
И я хотел показать: мы можем делать свой Голливуд дома —
и рассказывать истории для нового поколения на языке, понятным для них и для нас.

ИНСТРУМЕНТЫ:

• Nano Banana Pro — Подготова Датасета (free 300$ compute credits)
• Seedance 2.0 — видеогенерация (CPP партнёрство с ByteDance)
• Topaz Labs — апскейл Astra 2.5 (CPP)
• Suno — музыка (8$)
• ElevenLabs — голос (8$)

Итого: 16$ из кармана. Всё остальное — партнёрские программы.


DISCLAIMER :

Скажу честно у меня нет такого колличества подписчиков как у других авторов из-за моего не постоянства ведения соц сетей ,поэтому если вам интересно то. что я делаю то приглашаю вас к себе на канал NOIZLAB возможно меня это смотивирует писать туда чаще посты где я бы рассказывал как я это делаю более подробно.



ЧТО ДАЛЬШЕ:
Если удастся привлечь нужных людей и бюджет — сделаем полноценные серии.
Если хочешь показать это тем, кому это важно — покажи.

Всех еще раз с этим Великим днем!

@cgevent
2👍146👎64🔥4415😁13
This media is not supported in your browser
VIEW IN TELEGRAM
Cad Lookup

Довольно интересный проект - поиск по CAD-моделям с помощью простого текстового описания.
Авторы взяли датасет на миллион моделей:
https://huggingface.co/datasets/daveferbear/3d-model-images-embeddings
Потом делали рендеры и описания и на этом уже учили модель поиску.
Поэтому она понимает довольно произвольные промпты в отличие от традиционный систем поиска по моделям.
А скачивается все это в STEP или STL.

Пробовать тут, все бесплатно:
https://www.cadlookup.com/

Хардкорные тридешники оценят.

@cgevent
10👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрозловещая долина 2.

Продолжу тему, которую начал в этом посте.

Продолжаю следить за риггером, который сделал Майский сетап, анализирующий playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.

Видно, что нейрорендеринг отлично подхватывает движение камеры, да и саму анимацию тоже (в прошлый раз мы рассуждали о том, что он съедает мелкие детали в анимации лица\морды и добавляет зловещести). В этот раз настолько мелких деталей нет, но глазастые аниматоры углядели (или показалось?), что лапы чуть проскальзывают по дорожке, от чего сажается динамика (хотя я в восторге от того, что нейрорендер сам генерит спецэффекты - песочек вылетает из под лап отлично, задолбаешься такое настраивать вручную).
Также интересно понаблюдать, как меняется восприятие анимации на сером фоне и в лесу.

Касательно самого сетапа - это не Комфи. По словам автора это custom nodes integrating python, runway, sora with other nodes for fidelity. Ну то есть самописная система на питоне с вызовами внешних моделей.

Круто, когда риггер может соорудить такое.

@cgevent
22🔥18👍5👎3😱1
Свой MemPalace локально.

Тут Паша написал свою систему управления памятью, которая запоминает, как вы общались с любыми моделями. Как я понял, все хранится в локально в обычном SQLite, без всякой векторизации и сжатия.

В одном чате и одном диалоге позволяет использовать сразу несколько моделей (все - в одном контексте)
Полностью запоминает всё, о чём модели говорили с пользователем, если только он сам не попросит удалить что-то из памяти; удаление происходит действительно полностью (после этого система ничего «не вспоминает»)
Создаёт граф интересов пользователя, личной информации, связей между людьми, событиями, датами, местами и т.д. (я назвал это «Деревом памяти» — это позволяет не терять контекст и сохранять внимание моделей к любым нюансам и деталям). Можно экспортировать и импортировать как отдельно Дерево Памяти, так и весь свой профайл.

http://github.com/PavelMuntyan/MF0-1984

Главное - подключить API ключи одной или нескольких моделей. Одна bash-команда в терминальном окне — и у вас локальный ИИ-хаб:

git clone https://github.com/PavelMuntyan/MF0-1984.git && cd MF0-1984 && cp .env.example .env && npm install && npm run dev


Чем это отличается от ChatGPT, Claude и прочих веб-интерфейсов:

🦸‍♂️ Дерево памяти — 3D-граф, который строится из ваших разговоров. Люди, события, даты, связи — всё визуализируется и хранится локально в SQLite. Не в облаке. Не у корпорации. У вас на машине. Можно экспортировать и импортировать как отдельно Дерево Памяти, так и весь свой профайл.

🦸‍♂️ Мульти-провайдер в одном диалоге — OpenAI, Anthropic, Gemini, Perplexity в одном чате, в одном контексте. Переключаетесь между моделями — контекст не теряется.

🦸‍♂️ Local-first — всё работает на вашем компьютере. Данные никуда не уходят. Диалоговые папки можно защитить PIN-кодом. Бэкап — в зашифрованный .mf-файл с паролем.

🦸‍♂️ Аналитика — статистика обращений к каждой модели, типы запросов, отказы, размер графа памяти. Видно, как и сколько вы используете ИИ.

🦸‍♂️ Избранное — любой ответ модели можно сохранить и потом легко найти одним кликом.

🦸‍♂️ Подключение внешних API — добавляете любой публичный GET-эндпоинт, и модель получает доступ к живым данным.

🦸‍♂️ Настраиваемые правила — задаёте поведение моделей через структурированные панели (Intro / Access / Rules), а не просто текстовый промпт.

По сути это персональная операционная система для работы с ИИ, где вы — владелец своих данных и своей памяти.

Node.js, Vite, vanilla JS. Никаких фреймворков ради фреймворков.



@cgevent
👍29👎127🔥4
MiniMax V2.7 выложили в опенсорс

Самая интересная часть — это «саморазвитие модели». По сути, это Autoresearch от Андрея Карпатого. Они сделали две вещи:

1. Они создали исследовательского агента для сотрудничества со своей командой RL: «Исследователь начинает с обсуждения экспериментальной идеи с агентом, который помогает с обзором литературы, отслеживает предварительно заданные параметры эксперимента, обрабатывает данные и другие артефакты и запускает эксперименты. Во время экспериментов агент отслеживает и профилирует прогресс, автоматически запускает чтение логов, отладку, анализ метрик, исправления кода, выявляя и настраивая тонкие, но ключевые изменения».

2. Модель переписывает свою собственную среду разработки: MiniMax использовал V2.7 для повышения производительности кодирования на внутреннем шаблоне, запустив полностью автоматизированный цикл на более чем 100 итераций. Внутренние оценки улучшились на 30%

Модель уступает по (внутренним) тестам только Opus 4.6 и GPT-5.4.

https://huggingface.co/MiniMaxAI/MiniMax-M2.7

Заявлена поддержка Agent Teams

Уже есть 39 квантизированных весов от сообщества:
https://huggingface.co/models?other=base_model:quantized:MiniMaxAI/MiniMax-M2.7

И 6 файнтюнов:
https://huggingface.co/models?other=base_model:finetune:MiniMaxAI/MiniMax-M2.7

@cgevent
🔥28👍20😁54
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили

В Польше кабаны настолько обнаглели, что разгонять их приходится робатам.
Щас потренируются на кабанах, а потом перейдут к кожаным демонстрантам.

А если вы не признали героя, то это крутой робат-инфлюенсер, у него 132К подписчиков в инсте, и он постоянно что-то мутит.
https://www.instagram.com/edwardwarchocki/

@cgevent
😁54🔥6😱51
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Вот как было.

Автор: Илья Никитин

Фильм задумывался как реализация давней мечты о съемках собственного кино в жанре хоррор. С появлениeм Hailuo 2 и Seedance 1 стало понятно, что ждать больше нельзя – инструментарий достаточный.

Основная доля графики - Midjourney. Точное соотношение доли задействованных нейронок указано в финальных титрах. Преобладают уже вышеумомянутые Хайлу и старенький Сидэнс.

Счет затрат не вел. Использовал предмаксимальный Freepik + отдельно безлимитный Hailuo + Dreamina.

Более 70% графики было сделано до выхода NanoBanana, так что пришлось поднапрячься. Ближе к концу работ выпустился Seedream и кардинально помог в визуализации horror-составляющей.

Приятного просмотра!

@cgevent
3🔥70👎38👍237😁4😱4
Вы будете смеяться, но у нас будет еще один генератор изображений.

Baidu, авторы мультимодальной модели ERNIE, готовят к выходу отдельную модель для генерации картинок.

ERNIE-Image-8b: 8B параметров, VAE от Flux.2, текстовый энкодер - Ministral 3.3B (свежий, декабрьский).

Baidu особо себя не проявляла в области картинок и видео, но мы все помним, как стрельнул Z-Image.

Так что я буду держать вас в курсе, релиз сегодня-завтра.

Поддержка Комфи - сразу.
https://github.com/Comfy-Org/ComfyUI/pull/13369

@cgevent
👍14👎2😁1
Media is too big
VIEW IN TELEGRAM
DreamLite: Генерация картинок на телефоне за 3 секунды.

Итак, DreamLite делает генерацию в 4 шага, создавая или редактируя изображение размером 1024×1024 за ~3 секунды (с использованием 4-битного Qwen VL и fp16 VAE+UNet) на iPhone 17 Pro - полностью на устройстве, без подключения к облаку.

Модель маленькая (0.39B), да удаленькая. По тестам побивает аналогичные модели. И она редактирующая.

Примечательно то, что что это опенсорс - на гитхабе уже есть инструкции по установке, но нет пока кода.
И то, что они хотят сделать мобильные приложения IOS и Android. Не требующие подключения к сети.

А еще это Bytedance - папа Сидэнского.

Картинки и ссылки на код тут:
https://carlofkl.github.io/dreamlite/

@cgevent
🔥184
Time Freeze в Seedance 2.0

Сейчас идет некий флешмоб Bullet Time и Time Freeze, вижу много такого добра.

Интересно, что промпт может быть как короткий, так и очень замысловатый.

Держите пару примеров.

Use image as the starting frame for a single, continuous shot in freeze time. The camera dramatically weaves through the completely frozen scene.


@Image1 is the lead character - maintain identical facial features, proportions, and identity throughout. He is wearing round clear glasses, a black hoodie and brown cargo pants. Create a 15-second ultra-photorealistic cinematic time-freeze sequence with an ARRI Alexa Mini look, 50mm lens, natural daylight, strong shadows, shallow depth of field, and subtle film grain. The scene opens on a busy city sidewalk in full motion, captured in a front-facing steadicam shot tracking backward as he walks calmly toward camera through a natural flow of pedestrians while pigeons cross the bright sky above; without breaking stride, he casually raises his hand and snaps his fingers. Instantly, a bright spherical shockwave erupts from his hand, with visible air distortion and refracted light, expanding rapidly across the environment, freezing dust and debris mid-air, locking pedestrians in place mid-motion, and suspending pigeons mid-flight as reflections ripple across surrounding glass buildings before everything falls into complete stillness and silence, with fine particles hanging in the sunlight. The camera continues gliding backward as he walks through the frozen world, his footsteps the only sound, subtly observing his surroundings before approaching a frozen woman with striking red hair in a flowing green dress, her hair suspended mid-motion as she holds a takeaway coffee. He steps in, briefly studies the moment, removes the cup from her hand, takes a síp, then carefully places it back exactly as it was. He then turns his attention to the camera, raises his hand again, and snaps his fingers, releasing a more powerful shockwave that rapidly spreads outward, reversing the effect as motion instantly resumés - pedestrians continue walking, pigeons scatter into flight, the woman carries on unaware still holding her coffee, and debris drops naturally to the ground as full city sound returns. He pauses for a brief moment, then continues walking forward, gradually blending into the crowd while the camera keeps tracking backward, maintaining distance as he disappears into the flow, ending in a smooth fade out. Sound design follows the sequence: city ambience, sharp snap, deep expanding shockwave rumble, complete silence, isolated footsteps, subtle ambient echo, sip, second snap, stronger reverse shockwave, city noise returning, brief pause, then footsteps continuing.



@cgevent
🔥236👍4👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Stretchy Studio: Риг для анимации аниме.

Очень интересный проект.
В конце марта отложил себе в закладки модель:
See-through: Single-image Layer Decomposition for Anime Characters

Она берёт одно статическое аниме-изображение и разбивает его на 23 отдельных слоя, готовых для риггинга и анимации. Вы получаете PSD-файл с 23 слоями (более 30, если включить разделение по сторонам и глубине), а дальше вам как-то надо это анимировать. А чтобы анимировать, надо как-то это заригать.

Тут надо сказать, что речь идет о плоской анимации - это поляна таких софтов как Adobe Character Animator, Toon Boom Harmony, Live2D, Spine. Олды могут вспомнить Flash и Director.

Так вот, один чувак взял и соединил разные опенсорсные модели и сделал авториг для таких разобранных на слои персонажей. Создается скелет для анимации разных частей тела.
Получается: Генерация картинки -> Статическое изображение -> удаление фона -> разложение на элементы слои -> Stretchy Studio.

Более того, он даже интегрировал DWPose для автогенерации скелета для всего персонажа, а не только частей.

Приложение поддерживает многослойное управление, отдельный порядок отрисовки и использует прямую анимацию ключевых кадров, аналогичную After Effects. Есть даже экспорт в Spine.

Полный код тут:
https://github.com/MangoLion/stretchystudio

Надо также заметить, что модель See-through, лежащая в основе проекта натренирована на "расчленении" именно аниме контента. Поэтому применение Stretchy Studio ограничено (пока) только анимэ-анимацией. Впрочем, можно пытаться присунуть туда и другие стили. Лишь бы не было много рогов и копыт, а были в основном девочки и мальчики.

@cgevent
🔥14