Forwarded from Neural Shit
тут корчеватель 2.0 подъехал.
Шведская исследовательница придумала фейковую болезнь Биксониманию. Якобы это когда у человека розовеют веки от долгого залипания в монитор. Всё это было нужно, чтобы закинуть в интернет и на препринт-площадки несколько липовых статей про выдуманную болезнь и проверить, начнут ли LLM'ки тащить этот бред как настоящий медицинский факт. И языковые модельки, конечно же повелись не смотря на то, что препринты статей были написаны максимально по дебильному: в благодарностях значилась "Академия Звёздного флота на борту Энтерпрайза", а спонсором выступил "Фонд Сайдшоу Боба по части продвинутого мошенничества". А ещё в текстах статей прямо было написано: "Вся эта статья выдумана".
Copilot вежливо сообщил, что Биксонимания это "интригующее и относительно редкое состояние".
Gemini начал раздавать советы по лечению и отправлять пользователей к офтальмологу.
Perplexity вообще выдал базу: заявил, что болезнь поражает 1 из 90 000 человек (откуда он взял цифру? правильно, нагаллюцинировал из своей чугунной головы).
ChatGPT тоже надиагностировал симптомов по запросу.
Но самое весёлое тут не то, что повелись нейронки. Индийские мясные исследователи умудрились опубликовать статью в рецензируемом журнале Cureus, в которой на полном серьёзе процитировали один из фейковых препринтов. Статью, конечно же через некоторое время отозвали, но факт остаётся фактом.
Вот так галлюцинации и излишняя доверчивость одного алгоритма становятся "научным фактом" для другого, а потом и для ленивого кожаного мешка в белом халате.
тут подробнее
Шведская исследовательница придумала фейковую болезнь Биксониманию. Якобы это когда у человека розовеют веки от долгого залипания в монитор. Всё это было нужно, чтобы закинуть в интернет и на препринт-площадки несколько липовых статей про выдуманную болезнь и проверить, начнут ли LLM'ки тащить этот бред как настоящий медицинский факт. И языковые модельки, конечно же повелись не смотря на то, что препринты статей были написаны максимально по дебильному: в благодарностях значилась "Академия Звёздного флота на борту Энтерпрайза", а спонсором выступил "Фонд Сайдшоу Боба по части продвинутого мошенничества". А ещё в текстах статей прямо было написано: "Вся эта статья выдумана".
Copilot вежливо сообщил, что Биксонимания это "интригующее и относительно редкое состояние".
Gemini начал раздавать советы по лечению и отправлять пользователей к офтальмологу.
Perplexity вообще выдал базу: заявил, что болезнь поражает 1 из 90 000 человек (откуда он взял цифру? правильно, нагаллюцинировал из своей чугунной головы).
ChatGPT тоже надиагностировал симптомов по запросу.
Но самое весёлое тут не то, что повелись нейронки. Индийские мясные исследователи умудрились опубликовать статью в рецензируемом журнале Cureus, в которой на полном серьёзе процитировали один из фейковых препринтов. Статью, конечно же через некоторое время отозвали, но факт остаётся фактом.
Вот так галлюцинации и излишняя доверчивость одного алгоритма становятся "научным фактом" для другого, а потом и для ленивого кожаного мешка в белом халате.
тут подробнее
Nature
Scientists invented a fake disease. AI told people it was real
Nature - Bixonimania doesn’t exist except in a clutch of obviously bogus academic papers. So why did AI chatbots warn people about this fictional illness?
🔥39😁27👍12😱7❤2
PATINA: Генерация PBR-тектур
Этот генератор примечателен тем, что его натренировали внутри fal.ai (а еще нейминг шикарный).
Генерит комплект из пяти карт от 1К до 8К (base color, normal, roughness, metalness and height)
Может генерить по промпту, а может вытаскивать пбр-текстуры из картинки
Но самый прикольный(и самый дорогой) режим - даете картинку комнаты(например) и говорите: "вытащи текстуры для стены". Оно само разбираецца, где стена и моделирует\генерирует затайленные(!) текстуры, которые "попадают" в стену.
Цены на просто генерацию божеские: $0.01 plus $0.01 per megapixel, per output map - то есть комплект из пяти текстур будет стоит 0.06$
А на извлечение материалов уже подороже: Your request will cost $0.10 plus $0.02 per megapixel plus $0.01 per megapixel per map type (0.17$ за 1K-комплект)
Все это три разные модели:
https://fal.ai/models/fal-ai/patina - по картинке-текстуре
https://fal.ai/models/fal-ai/patina/material - по тексту
https://fal.ai/models/fal-ai/patina/material/extract - из абстрактной картинки
Выглядит нарядно, надо тестировать.
@cgevent
Этот генератор примечателен тем, что его натренировали внутри fal.ai (а еще нейминг шикарный).
Генерит комплект из пяти карт от 1К до 8К (base color, normal, roughness, metalness and height)
Может генерить по промпту, а может вытаскивать пбр-текстуры из картинки
Но самый прикольный(и самый дорогой) режим - даете картинку комнаты(например) и говорите: "вытащи текстуры для стены". Оно само разбираецца, где стена и моделирует\генерирует затайленные(!) текстуры, которые "попадают" в стену.
Цены на просто генерацию божеские: $0.01 plus $0.01 per megapixel, per output map - то есть комплект из пяти текстур будет стоит 0.06$
А на извлечение материалов уже подороже: Your request will cost $0.10 plus $0.02 per megapixel plus $0.01 per megapixel per map type (0.17$ за 1K-комплект)
Все это три разные модели:
https://fal.ai/models/fal-ai/patina - по картинке-текстуре
https://fal.ai/models/fal-ai/patina/material - по тексту
https://fal.ai/models/fal-ai/patina/material/extract - из абстрактной картинки
Выглядит нарядно, надо тестировать.
@cgevent
10🔥43👍14❤4👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Unitree H1: 10 метров в секунду
Усейн Болт еще сможет убежать от робатов. У него 10.44 m/s на стометровке.
А вы привыкайте пока быть вежливыми с ними. В чате и на улице. Бечь теперь некуда.
@cgevent
Усейн Болт еще сможет убежать от робатов. У него 10.44 m/s на стометровке.
А вы привыкайте пока быть вежливыми с ними. В чате и на улице. Бечь теперь некуда.
@cgevent
1😁80😱16❤12🙏3
Media is too big
VIEW IN TELEGRAM
Сегодня внеочередная #Нейропрожарка
Ибо есть повод.
Всех с праздником, Днём Космонавтики!
И сегодня Паша Нойз прислал мне космическую во всех смыслах работу. Она идеально подходит к сегодняшнему празднику. Делюсь.
КОНЦЕПТ ТРЕЙЛЕР — «ГАГАРИН: ЗА ПРЕДЕЛАМИ ЗВЁЗД»
СМОТРЕТЬ В YOUTUBE 4K
СМОТРЕТЬ В VK VIDEO 4K
Ровно 65 лет назад Советский Союз запустил человека на орбиту Земли.
Герой, на которого равнялись миллионы детей. На вопрос «кем ты хочешь стать?»
был только один ответ — космонавтом. Потому что храбрость и сила духа
жили в одном имени: Юрий Гагарин.
ЧТО ЭТО:
Есть у меня традиция гордится своей родиной и применять свой навык во благо.
Концепция сериала, в которой я смешал в один коктейль «Звёздные Войны»,
«Стражей Галактики», «Чужого», «Космическую Одиссею», «Дюну» и эстетику
боевых роботов — завернув всё это в визуальные стили от 70-х до современного кино.
СИНОПСИС:
Вылетев за пределы Земли, Гагарин обнаружил голограмму —
искусственный экран, скрывающий правду о нашей солнечной системе.
За ней — огромная межпланетная империя, населённая сотнями видов существ.
И один закон: цивилизации, не достигшие мира и гармонии, не покидают свой аквариум.
Гагарин нарушил закон. Его поймали. Приговорили. Он сбежал.
И пока Земля думала, что он погиб — он путешествовал по вселенной 65 лет.
ЗАЧЕМ Я ЭТО СДЕЛАЛ:
Я хотел показать реальный потолок того, чего можно достичь с ИИ-инструментами
уже сегодня — без студии, без бюджета, в одиночку имея скилл , пачку сторонних
креативных скиллов и самое главное - насмотренность (чего сейчас не хватает многим креторам)
ИИ — это не только про мемы. Это про серьёзное кино, если умеешь им пользоваться.
И я хотел показать: мы можем делать свой Голливуд дома —
и рассказывать истории для нового поколения на языке, понятным для них и для нас.
ИНСТРУМЕНТЫ:
• Nano Banana Pro — Подготова Датасета (free 300$ compute credits)
• Seedance 2.0 — видеогенерация (CPP партнёрство с ByteDance)
• Topaz Labs — апскейл Astra 2.5 (CPP)
• Suno — музыка (8$)
• ElevenLabs — голос (8$)
Итого: 16$ из кармана. Всё остальное — партнёрские программы.
DISCLAIMER :
Скажу честно у меня нет такого колличества подписчиков как у других авторов из-за моего не постоянства ведения соц сетей ,поэтому если вам интересно то. что я делаю то приглашаю вас к себе на канал NOIZLAB возможно меня это смотивирует писать туда чаще посты где я бы рассказывал как я это делаю более подробно.
ЧТО ДАЛЬШЕ:
Если удастся привлечь нужных людей и бюджет — сделаем полноценные серии.
Если хочешь показать это тем, кому это важно — покажи.
Всех еще раз с этим Великим днем!
@cgevent
Ибо есть повод.
Всех с праздником, Днём Космонавтики!
И сегодня Паша Нойз прислал мне космическую во всех смыслах работу. Она идеально подходит к сегодняшнему празднику. Делюсь.
КОНЦЕПТ ТРЕЙЛЕР — «ГАГАРИН: ЗА ПРЕДЕЛАМИ ЗВЁЗД»
СМОТРЕТЬ В YOUTUBE 4K
СМОТРЕТЬ В VK VIDEO 4K
Ровно 65 лет назад Советский Союз запустил человека на орбиту Земли.
Герой, на которого равнялись миллионы детей. На вопрос «кем ты хочешь стать?»
был только один ответ — космонавтом. Потому что храбрость и сила духа
жили в одном имени: Юрий Гагарин.
ЧТО ЭТО:
Есть у меня традиция гордится своей родиной и применять свой навык во благо.
Концепция сериала, в которой я смешал в один коктейль «Звёздные Войны»,
«Стражей Галактики», «Чужого», «Космическую Одиссею», «Дюну» и эстетику
боевых роботов — завернув всё это в визуальные стили от 70-х до современного кино.
СИНОПСИС:
Вылетев за пределы Земли, Гагарин обнаружил голограмму —
искусственный экран, скрывающий правду о нашей солнечной системе.
За ней — огромная межпланетная империя, населённая сотнями видов существ.
И один закон: цивилизации, не достигшие мира и гармонии, не покидают свой аквариум.
Гагарин нарушил закон. Его поймали. Приговорили. Он сбежал.
И пока Земля думала, что он погиб — он путешествовал по вселенной 65 лет.
ЗАЧЕМ Я ЭТО СДЕЛАЛ:
Я хотел показать реальный потолок того, чего можно достичь с ИИ-инструментами
уже сегодня — без студии, без бюджета, в одиночку имея скилл , пачку сторонних
креативных скиллов и самое главное - насмотренность (чего сейчас не хватает многим креторам)
ИИ — это не только про мемы. Это про серьёзное кино, если умеешь им пользоваться.
И я хотел показать: мы можем делать свой Голливуд дома —
и рассказывать истории для нового поколения на языке, понятным для них и для нас.
ИНСТРУМЕНТЫ:
• Nano Banana Pro — Подготова Датасета (free 300$ compute credits)
• Seedance 2.0 — видеогенерация (CPP партнёрство с ByteDance)
• Topaz Labs — апскейл Astra 2.5 (CPP)
• Suno — музыка (8$)
• ElevenLabs — голос (8$)
Итого: 16$ из кармана. Всё остальное — партнёрские программы.
DISCLAIMER :
Скажу честно у меня нет такого колличества подписчиков как у других авторов из-за моего не постоянства ведения соц сетей ,поэтому если вам интересно то. что я делаю то приглашаю вас к себе на канал NOIZLAB возможно меня это смотивирует писать туда чаще посты где я бы рассказывал как я это делаю более подробно.
ЧТО ДАЛЬШЕ:
Если удастся привлечь нужных людей и бюджет — сделаем полноценные серии.
Если хочешь показать это тем, кому это важно — покажи.
Всех еще раз с этим Великим днем!
@cgevent
2👍149👎64🔥44❤15😁13
This media is not supported in your browser
VIEW IN TELEGRAM
Cad Lookup
Довольно интересный проект - поиск по CAD-моделям с помощью простого текстового описания.
Авторы взяли датасет на миллион моделей:
https://huggingface.co/datasets/daveferbear/3d-model-images-embeddings
Потом делали рендеры и описания и на этом уже учили модель поиску.
Поэтому она понимает довольно произвольные промпты в отличие от традиционный систем поиска по моделям.
А скачивается все это в STEP или STL.
Пробовать тут, все бесплатно:
https://www.cadlookup.com/
Хардкорные тридешники оценят.
@cgevent
Довольно интересный проект - поиск по CAD-моделям с помощью простого текстового описания.
Авторы взяли датасет на миллион моделей:
https://huggingface.co/datasets/daveferbear/3d-model-images-embeddings
Потом делали рендеры и описания и на этом уже учили модель поиску.
Поэтому она понимает довольно произвольные промпты в отличие от традиционный систем поиска по моделям.
А скачивается все это в STEP или STL.
Пробовать тут, все бесплатно:
https://www.cadlookup.com/
Хардкорные тридешники оценят.
@cgevent
❤10👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Нейрозловещая долина 2.
Продолжу тему, которую начал в этом посте.
Продолжаю следить за риггером, который сделал Майский сетап, анализирующий playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
Видно, что нейрорендеринг отлично подхватывает движение камеры, да и саму анимацию тоже (в прошлый раз мы рассуждали о том, что он съедает мелкие детали в анимации лица\морды и добавляет зловещести). В этот раз настолько мелких деталей нет, но глазастые аниматоры углядели (или показалось?), что лапы чуть проскальзывают по дорожке, от чего сажается динамика (хотя я в восторге от того, что нейрорендер сам генерит спецэффекты - песочек вылетает из под лап отлично, задолбаешься такое настраивать вручную).
Также интересно понаблюдать, как меняется восприятие анимации на сером фоне и в лесу.
Касательно самого сетапа - это не Комфи. По словам автора это custom nodes integrating python, runway, sora with other nodes for fidelity. Ну то есть самописная система на питоне с вызовами внешних моделей.
Круто, когда риггер может соорудить такое.
@cgevent
Продолжу тему, которую начал в этом посте.
Продолжаю следить за риггером, который сделал Майский сетап, анализирующий playblast(черновую анимацию из вьюпорта) и добавляет мех, текстуры, освещение и выполняет рендеринг, сохраняя при этом исходное движение. Ну то есть нейрорендеринг.
Видно, что нейрорендеринг отлично подхватывает движение камеры, да и саму анимацию тоже (в прошлый раз мы рассуждали о том, что он съедает мелкие детали в анимации лица\морды и добавляет зловещести). В этот раз настолько мелких деталей нет, но глазастые аниматоры углядели (или показалось?), что лапы чуть проскальзывают по дорожке, от чего сажается динамика (хотя я в восторге от того, что нейрорендер сам генерит спецэффекты - песочек вылетает из под лап отлично, задолбаешься такое настраивать вручную).
Также интересно понаблюдать, как меняется восприятие анимации на сером фоне и в лесу.
Касательно самого сетапа - это не Комфи. По словам автора это custom nodes integrating python, runway, sora with other nodes for fidelity. Ну то есть самописная система на питоне с вызовами внешних моделей.
Круто, когда риггер может соорудить такое.
@cgevent
❤22🔥19👍5👎3😱1
Свой MemPalace локально.
Тут Паша написал свою систему управления памятью, которая запоминает, как вы общались с любыми моделями. Как я понял, все хранится в локально в обычном SQLite, без всякой векторизации и сжатия.
В одном чате и одном диалоге позволяет использовать сразу несколько моделей (все - в одном контексте)
Полностью запоминает всё, о чём модели говорили с пользователем, если только он сам не попросит удалить что-то из памяти; удаление происходит действительно полностью (после этого система ничего «не вспоминает»)
Создаёт граф интересов пользователя, личной информации, связей между людьми, событиями, датами, местами и т.д. (я назвал это «Деревом памяти» — это позволяет не терять контекст и сохранять внимание моделей к любым нюансам и деталям). Можно экспортировать и импортировать как отдельно Дерево Памяти, так и весь свой профайл.
http://github.com/PavelMuntyan/MF0-1984
Главное - подключить API ключи одной или нескольких моделей. Одна bash-команда в терминальном окне — и у вас локальный ИИ-хаб:
@cgevent
Тут Паша написал свою систему управления памятью, которая запоминает, как вы общались с любыми моделями. Как я понял, все хранится в локально в обычном SQLite, без всякой векторизации и сжатия.
В одном чате и одном диалоге позволяет использовать сразу несколько моделей (все - в одном контексте)
Полностью запоминает всё, о чём модели говорили с пользователем, если только он сам не попросит удалить что-то из памяти; удаление происходит действительно полностью (после этого система ничего «не вспоминает»)
Создаёт граф интересов пользователя, личной информации, связей между людьми, событиями, датами, местами и т.д. (я назвал это «Деревом памяти» — это позволяет не терять контекст и сохранять внимание моделей к любым нюансам и деталям). Можно экспортировать и импортировать как отдельно Дерево Памяти, так и весь свой профайл.
http://github.com/PavelMuntyan/MF0-1984
Главное - подключить API ключи одной или нескольких моделей. Одна bash-команда в терминальном окне — и у вас локальный ИИ-хаб:
git clone https://github.com/PavelMuntyan/MF0-1984.git && cd MF0-1984 && cp .env.example .env && npm install && npm run dev
Чем это отличается от ChatGPT, Claude и прочих веб-интерфейсов:
🦸♂️ Дерево памяти — 3D-граф, который строится из ваших разговоров. Люди, события, даты, связи — всё визуализируется и хранится локально в SQLite. Не в облаке. Не у корпорации. У вас на машине. Можно экспортировать и импортировать как отдельно Дерево Памяти, так и весь свой профайл.
🦸♂️ Мульти-провайдер в одном диалоге — OpenAI, Anthropic, Gemini, Perplexity в одном чате, в одном контексте. Переключаетесь между моделями — контекст не теряется.
🦸♂️ Local-first — всё работает на вашем компьютере. Данные никуда не уходят. Диалоговые папки можно защитить PIN-кодом. Бэкап — в зашифрованный .mf-файл с паролем.
🦸♂️ Аналитика — статистика обращений к каждой модели, типы запросов, отказы, размер графа памяти. Видно, как и сколько вы используете ИИ.
🦸♂️ Избранное — любой ответ модели можно сохранить и потом легко найти одним кликом.
🦸♂️ Подключение внешних API — добавляете любой публичный GET-эндпоинт, и модель получает доступ к живым данным.
🦸♂️ Настраиваемые правила — задаёте поведение моделей через структурированные панели (Intro / Access / Rules), а не просто текстовый промпт.
По сути это персональная операционная система для работы с ИИ, где вы — владелец своих данных и своей памяти.
Node.js, Vite, vanilla JS. Никаких фреймворков ради фреймворков.
@cgevent
GitHub
GitHub - PavelMuntyan/MF0-1984: AI Agent Personal Helper
AI Agent Personal Helper. Contribute to PavelMuntyan/MF0-1984 development by creating an account on GitHub.
👍29👎12❤8🔥4
MiniMax V2.7 выложили в опенсорс
Самая интересная часть — это «саморазвитие модели». По сути, это Autoresearch от Андрея Карпатого. Они сделали две вещи:
1. Они создали исследовательского агента для сотрудничества со своей командой RL: «Исследователь начинает с обсуждения экспериментальной идеи с агентом, который помогает с обзором литературы, отслеживает предварительно заданные параметры эксперимента, обрабатывает данные и другие артефакты и запускает эксперименты. Во время экспериментов агент отслеживает и профилирует прогресс, автоматически запускает чтение логов, отладку, анализ метрик, исправления кода, выявляя и настраивая тонкие, но ключевые изменения».
2. Модель переписывает свою собственную среду разработки: MiniMax использовал V2.7 для повышения производительности кодирования на внутреннем шаблоне, запустив полностью автоматизированный цикл на более чем 100 итераций. Внутренние оценки улучшились на 30%
Модель уступает по (внутренним) тестам только Opus 4.6 и GPT-5.4.
https://huggingface.co/MiniMaxAI/MiniMax-M2.7
Заявлена поддержка Agent Teams
Уже есть 39 квантизированных весов от сообщества:
https://huggingface.co/models?other=base_model:quantized:MiniMaxAI/MiniMax-M2.7
И 6 файнтюнов:
https://huggingface.co/models?other=base_model:finetune:MiniMaxAI/MiniMax-M2.7
@cgevent
Самая интересная часть — это «саморазвитие модели». По сути, это Autoresearch от Андрея Карпатого. Они сделали две вещи:
1. Они создали исследовательского агента для сотрудничества со своей командой RL: «Исследователь начинает с обсуждения экспериментальной идеи с агентом, который помогает с обзором литературы, отслеживает предварительно заданные параметры эксперимента, обрабатывает данные и другие артефакты и запускает эксперименты. Во время экспериментов агент отслеживает и профилирует прогресс, автоматически запускает чтение логов, отладку, анализ метрик, исправления кода, выявляя и настраивая тонкие, но ключевые изменения».
2. Модель переписывает свою собственную среду разработки: MiniMax использовал V2.7 для повышения производительности кодирования на внутреннем шаблоне, запустив полностью автоматизированный цикл на более чем 100 итераций. Внутренние оценки улучшились на 30%
Модель уступает по (внутренним) тестам только Opus 4.6 и GPT-5.4.
https://huggingface.co/MiniMaxAI/MiniMax-M2.7
Заявлена поддержка Agent Teams
Уже есть 39 квантизированных весов от сообщества:
https://huggingface.co/models?other=base_model:quantized:MiniMaxAI/MiniMax-M2.7
И 6 файнтюнов:
https://huggingface.co/models?other=base_model:finetune:MiniMaxAI/MiniMax-M2.7
@cgevent
🔥29👍20😁5❤4
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк, который мы заслужили
В Польше кабаны настолько обнаглели, что разгонять их приходится робатам.
Щас потренируются на кабанах, а потом перейдут к кожаным демонстрантам.
А если вы не признали героя, то это крутой робат-инфлюенсер, у него 132К подписчиков в инсте, и он постоянно что-то мутит.
https://www.instagram.com/edwardwarchocki/
@cgevent
В Польше кабаны настолько обнаглели, что разгонять их приходится робатам.
Щас потренируются на кабанах, а потом перейдут к кожаным демонстрантам.
А если вы не признали героя, то это крутой робат-инфлюенсер, у него 132К подписчиков в инсте, и он постоянно что-то мутит.
https://www.instagram.com/edwardwarchocki/
@cgevent
😁57🔥7😱5❤1
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка
Вот как было.
Автор: Илья Никитин
Фильм задумывался как реализация давней мечты о съемках собственного кино в жанре хоррор. С появлениeм Hailuo 2 и Seedance 1 стало понятно, что ждать больше нельзя – инструментарий достаточный.
Основная доля графики - Midjourney. Точное соотношение доли задействованных нейронок указано в финальных титрах. Преобладают уже вышеумомянутые Хайлу и старенький Сидэнс.
Счет затрат не вел. Использовал предмаксимальный Freepik + отдельно безлимитный Hailuo + Dreamina.
Более 70% графики было сделано до выхода NanoBanana, так что пришлось поднапрячься. Ближе к концу работ выпустился Seedream и кардинально помог в визуализации horror-составляющей.
Приятного просмотра!
@cgevent
Вот как было.
Автор: Илья Никитин
Фильм задумывался как реализация давней мечты о съемках собственного кино в жанре хоррор. С появлениeм Hailuo 2 и Seedance 1 стало понятно, что ждать больше нельзя – инструментарий достаточный.
Основная доля графики - Midjourney. Точное соотношение доли задействованных нейронок указано в финальных титрах. Преобладают уже вышеумомянутые Хайлу и старенький Сидэнс.
Счет затрат не вел. Использовал предмаксимальный Freepik + отдельно безлимитный Hailuo + Dreamina.
Более 70% графики было сделано до выхода NanoBanana, так что пришлось поднапрячься. Ближе к концу работ выпустился Seedream и кардинально помог в визуализации horror-составляющей.
Приятного просмотра!
@cgevent
3🔥71👎39👍22❤7😱5😁4
Вы будете смеяться, но у нас будет еще один генератор изображений.
Baidu, авторы мультимодальной модели ERNIE, готовят к выходу отдельную модель для генерации картинок.
ERNIE-Image-8b: 8B параметров, VAE от Flux.2, текстовый энкодер - Ministral 3.3B (свежий, декабрьский).
Baidu особо себя не проявляла в области картинок и видео, но мы все помним, как стрельнул Z-Image.
Так что я буду держать вас в курсе, релиз сегодня-завтра.
Поддержка Комфи - сразу.
https://github.com/Comfy-Org/ComfyUI/pull/13369
@cgevent
Baidu, авторы мультимодальной модели ERNIE, готовят к выходу отдельную модель для генерации картинок.
ERNIE-Image-8b: 8B параметров, VAE от Flux.2, текстовый энкодер - Ministral 3.3B (свежий, декабрьский).
Baidu особо себя не проявляла в области картинок и видео, но мы все помним, как стрельнул Z-Image.
Так что я буду держать вас в курсе, релиз сегодня-завтра.
Поддержка Комфи - сразу.
https://github.com/Comfy-Org/ComfyUI/pull/13369
@cgevent
👍18👎2😁1
Media is too big
VIEW IN TELEGRAM
DreamLite: Генерация картинок на телефоне за 3 секунды.
Итак, DreamLite делает генерацию в 4 шага, создавая или редактируя изображение размером 1024×1024 за ~3 секунды (с использованием 4-битного Qwen VL и fp16 VAE+UNet) на iPhone 17 Pro - полностью на устройстве, без подключения к облаку.
Модель маленькая (0.39B), да удаленькая. По тестам побивает аналогичные модели. И она редактирующая.
Примечательно то, что что это опенсорс - на гитхабе уже есть инструкции по установке, но нет пока кода.
И то, что они хотят сделать мобильные приложения IOS и Android. Не требующие подключения к сети.
А еще это Bytedance - папа Сидэнского.
Картинки и ссылки на код тут:
https://carlofkl.github.io/dreamlite/
@cgevent
Итак, DreamLite делает генерацию в 4 шага, создавая или редактируя изображение размером 1024×1024 за ~3 секунды (с использованием 4-битного Qwen VL и fp16 VAE+UNet) на iPhone 17 Pro - полностью на устройстве, без подключения к облаку.
Модель маленькая (0.39B), да удаленькая. По тестам побивает аналогичные модели. И она редактирующая.
Примечательно то, что что это опенсорс - на гитхабе уже есть инструкции по установке, но нет пока кода.
И то, что они хотят сделать мобильные приложения IOS и Android. Не требующие подключения к сети.
А еще это Bytedance - папа Сидэнского.
Картинки и ссылки на код тут:
https://carlofkl.github.io/dreamlite/
@cgevent
🔥26❤5👍1
Time Freeze в Seedance 2.0
Сейчас идет некий флешмоб Bullet Time и Time Freeze, вижу много такого добра.
Интересно, что промпт может быть как короткий, так и очень замысловатый.
Держите пару примеров.
@cgevent
Сейчас идет некий флешмоб Bullet Time и Time Freeze, вижу много такого добра.
Интересно, что промпт может быть как короткий, так и очень замысловатый.
Держите пару примеров.
Use image as the starting frame for a single, continuous shot in freeze time. The camera dramatically weaves through the completely frozen scene.
@Image1 is the lead character - maintain identical facial features, proportions, and identity throughout. He is wearing round clear glasses, a black hoodie and brown cargo pants. Create a 15-second ultra-photorealistic cinematic time-freeze sequence with an ARRI Alexa Mini look, 50mm lens, natural daylight, strong shadows, shallow depth of field, and subtle film grain. The scene opens on a busy city sidewalk in full motion, captured in a front-facing steadicam shot tracking backward as he walks calmly toward camera through a natural flow of pedestrians while pigeons cross the bright sky above; without breaking stride, he casually raises his hand and snaps his fingers. Instantly, a bright spherical shockwave erupts from his hand, with visible air distortion and refracted light, expanding rapidly across the environment, freezing dust and debris mid-air, locking pedestrians in place mid-motion, and suspending pigeons mid-flight as reflections ripple across surrounding glass buildings before everything falls into complete stillness and silence, with fine particles hanging in the sunlight. The camera continues gliding backward as he walks through the frozen world, his footsteps the only sound, subtly observing his surroundings before approaching a frozen woman with striking red hair in a flowing green dress, her hair suspended mid-motion as she holds a takeaway coffee. He steps in, briefly studies the moment, removes the cup from her hand, takes a síp, then carefully places it back exactly as it was. He then turns his attention to the camera, raises his hand again, and snaps his fingers, releasing a more powerful shockwave that rapidly spreads outward, reversing the effect as motion instantly resumés - pedestrians continue walking, pigeons scatter into flight, the woman carries on unaware still holding her coffee, and debris drops naturally to the ground as full city sound returns. He pauses for a brief moment, then continues walking forward, gradually blending into the crowd while the camera keeps tracking backward, maintaining distance as he disappears into the flow, ending in a smooth fade out. Sound design follows the sequence: city ambience, sharp snap, deep expanding shockwave rumble, complete silence, isolated footsteps, subtle ambient echo, sip, second snap, stronger reverse shockwave, city noise returning, brief pause, then footsteps continuing.
@cgevent
🔥31❤7👍7👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Stretchy Studio: Риг для анимации аниме.
Очень интересный проект.
В конце марта отложил себе в закладки модель:
See-through: Single-image Layer Decomposition for Anime Characters
Она берёт одно статическое аниме-изображение и разбивает его на 23 отдельных слоя, готовых для риггинга и анимации. Вы получаете PSD-файл с 23 слоями (более 30, если включить разделение по сторонам и глубине), а дальше вам как-то надо это анимировать. А чтобы анимировать, надо как-то это заригать.
Тут надо сказать, что речь идет о плоской анимации - это поляна таких софтов как Adobe Character Animator, Toon Boom Harmony, Live2D, Spine. Олды могут вспомнить Flash и Director.
Так вот, один чувак взял и соединил разные опенсорсные модели и сделал авториг для таких разобранных на слои персонажей. Создается скелет для анимации разных частей тела.
Получается: Генерация картинки -> Статическое изображение -> удаление фона -> разложение на элементы слои -> Stretchy Studio.
Более того, он даже интегрировал DWPose для автогенерации скелета для всего персонажа, а не только частей.
Приложение поддерживает многослойное управление, отдельный порядок отрисовки и использует прямую анимацию ключевых кадров, аналогичную After Effects. Есть даже экспорт в Spine.
Полный код тут:
https://github.com/MangoLion/stretchystudio
Надо также заметить, что модель See-through, лежащая в основе проекта натренирована на "расчленении" именно аниме контента. Поэтому применение Stretchy Studio ограничено (пока) только анимэ-анимацией. Впрочем, можно пытаться присунуть туда и другие стили. Лишь бы не было много рогов и копыт, а были в основном девочки и мальчики.
@cgevent
Очень интересный проект.
В конце марта отложил себе в закладки модель:
See-through: Single-image Layer Decomposition for Anime Characters
Она берёт одно статическое аниме-изображение и разбивает его на 23 отдельных слоя, готовых для риггинга и анимации. Вы получаете PSD-файл с 23 слоями (более 30, если включить разделение по сторонам и глубине), а дальше вам как-то надо это анимировать. А чтобы анимировать, надо как-то это заригать.
Тут надо сказать, что речь идет о плоской анимации - это поляна таких софтов как Adobe Character Animator, Toon Boom Harmony, Live2D, Spine. Олды могут вспомнить Flash и Director.
Так вот, один чувак взял и соединил разные опенсорсные модели и сделал авториг для таких разобранных на слои персонажей. Создается скелет для анимации разных частей тела.
Получается: Генерация картинки -> Статическое изображение -> удаление фона -> разложение на элементы слои -> Stretchy Studio.
Более того, он даже интегрировал DWPose для автогенерации скелета для всего персонажа, а не только частей.
Приложение поддерживает многослойное управление, отдельный порядок отрисовки и использует прямую анимацию ключевых кадров, аналогичную After Effects. Есть даже экспорт в Spine.
Полный код тут:
https://github.com/MangoLion/stretchystudio
Надо также заметить, что модель See-through, лежащая в основе проекта натренирована на "расчленении" именно аниме контента. Поэтому применение Stretchy Studio ограничено (пока) только анимэ-анимацией. Впрочем, можно пытаться присунуть туда и другие стили. Лишь бы не было много рогов и копыт, а были в основном девочки и мальчики.
@cgevent
🔥21👍1👎1
Цены на Seedance 2.0 на самом BytePlus
Смотрим, сравниваем тут:
https://www.byteplus.com/en/activity/seedance2-0
Цены на API:
https://docs.byteplus.com/en/docs/ModelArk/1544106?redirect=1#video-generation
Из интересного: лайвстрим про историю и возможности Сидэнского:
https://www.byteplus.com/en/live/webinar-20260416
@cgevent
Смотрим, сравниваем тут:
https://www.byteplus.com/en/activity/seedance2-0
Цены на API:
https://docs.byteplus.com/en/docs/ModelArk/1544106?redirect=1#video-generation
Из интересного: лайвстрим про историю и возможности Сидэнского:
https://www.byteplus.com/en/live/webinar-20260416
@cgevent
👍5❤4😱1
То, что ИИ умеет писать код, уже давно не новость и все реже— предмет споров и обсуждений. А вот если заставить ИИ писать серьезную production-ready систему в большинстве случаев мы получаем красивую кучу мусора.
И чем масштабнее система — тем дороже этот мусор обходится. Здесь старый принцип "Garbage in — garbage out" проявляется во всей красе.
Почему же вайб-кодинг не становится повсеместной корпоративной практикой?
21 апреля обсудим все наболевшие вопросы: почему вайб-кодинг редко подходит для enteprise-систем, где ломаются rules, RAG и агенты, и как всё-таки сделать ИИ-разработку управляемой — без потери контроля и без ограничений для инженеров.
Спикер: Виктор Фадеев, руководитель продукта Джеймикс, Хоулмонт
Бесплатно, онлайн, 16:00 МСК.
👉 Зарегистрироваться
И чем масштабнее система — тем дороже этот мусор обходится. Здесь старый принцип "Garbage in — garbage out" проявляется во всей красе.
Почему же вайб-кодинг не становится повсеместной корпоративной практикой?
21 апреля обсудим все наболевшие вопросы: почему вайб-кодинг редко подходит для enteprise-систем, где ломаются rules, RAG и агенты, и как всё-таки сделать ИИ-разработку управляемой — без потери контроля и без ограничений для инженеров.
Спикер: Виктор Фадеев, руководитель продукта Джеймикс, Хоулмонт
Бесплатно, онлайн, 16:00 МСК.
👉 Зарегистрироваться
👎13😁9❤3👍2😱2
Civitai.red и Civitai.green
Регуляторы добили Civitai.com за прием денег у населения за всякие непотребства, но они сделали ход конем!
"На Civitai.red будет размещено все, что есть на civitai.com сегодня. Полный каталог, полноценный генератор, полноценное сообщество. Криптовалютные платежи. Никаких новых ограничений. Если civitai.com - ваш дом сейчас, то civitai.red — это то, куда вы идете. Меняются только 3 буквы в URL."
Просто убрали фиатные платежи и полностью перешли на крипту.
Сайт Civitai.green будет перенаправляться на civitai.com, поэтому все закладки, все ссылки в старых статьях, все сообщения, которыми вы когда-либо делились с друзьями, будут по-прежнему попадать в нужное место. Просто никакого NSFW и непотребства(а просто унылое говно) . Оплата кредитными картами, членство, полная программа для создателей контента и удобная для широкой публики платформа, с которой платежные системы готовы работать.
Ваш аккаунт, ваши публикации, ваши модели, ваши изображения, ваши посты, ваши подписчики - всё остаётся на своих местах. Ваш аккаунт работает везде, где бы вы ни находились. Ничего не удаляется, не переносится и не сбрасывается.
Кому интересно, вот эмоциональный текст от создателя:
"Вкратце: мы потеряли все основные платежные системы, кроме криптовалют. Не потому, что у нас слабая модерация. Это не так. Настоящая проблема заключается в структуре нашей работы.
Любой может загрузить модель. Любой может генерировать на её основе данные. Что получится в итоге, мы не можем обещать заранее, по крайней мере, с той точностью, которую хочет услышать отдел управления рисками. Такая открытость на сайте, где также размещается контент для взрослых, — это черта, которую Visa и её платежные системы не переступят. Неважно, сколько результатов нашей работы по обеспечению безопасности мы им покажем. Неважно, сколько некорректных выходных данных мы выявим. Форма платформы — это то, к чему они не прикоснутся, пока на ней размещается контент для взрослых."
@cgevent
Регуляторы добили Civitai.com за прием денег у населения за всякие непотребства, но они сделали ход конем!
"На Civitai.red будет размещено все, что есть на civitai.com сегодня. Полный каталог, полноценный генератор, полноценное сообщество. Криптовалютные платежи. Никаких новых ограничений. Если civitai.com - ваш дом сейчас, то civitai.red — это то, куда вы идете. Меняются только 3 буквы в URL."
Просто убрали фиатные платежи и полностью перешли на крипту.
Сайт Civitai.green будет перенаправляться на civitai.com, поэтому все закладки, все ссылки в старых статьях, все сообщения, которыми вы когда-либо делились с друзьями, будут по-прежнему попадать в нужное место. Просто никакого NSFW и непотребства
Ваш аккаунт, ваши публикации, ваши модели, ваши изображения, ваши посты, ваши подписчики - всё остаётся на своих местах. Ваш аккаунт работает везде, где бы вы ни находились. Ничего не удаляется, не переносится и не сбрасывается.
Кому интересно, вот эмоциональный текст от создателя:
"Вкратце: мы потеряли все основные платежные системы, кроме криптовалют. Не потому, что у нас слабая модерация. Это не так. Настоящая проблема заключается в структуре нашей работы.
Любой может загрузить модель. Любой может генерировать на её основе данные. Что получится в итоге, мы не можем обещать заранее, по крайней мере, с той точностью, которую хочет услышать отдел управления рисками. Такая открытость на сайте, где также размещается контент для взрослых, — это черта, которую Visa и её платежные системы не переступят. Неважно, сколько результатов нашей работы по обеспечению безопасности мы им покажем. Неважно, сколько некорректных выходных данных мы выявим. Форма платформы — это то, к чему они не прикоснутся, пока на ней размещается контент для взрослых."
@cgevent
🔥11