ᅠ Neuro Production | Нейросети и Творчество | DmitriyM
270 subscribers
510 photos
379 videos
39 files
330 links
DmitriyM
Нейро художник, Visual Designer
член ТСХР мультимедиа 🛸

Инструменты, тесты, работы и личный архив.


Заказы, вопросы и предложения: https://t.me/mantunamochil
Download Telegram
Превращаем любой автомобиль в трансформера 🤖

Берем один шаблон и фото автомобиля, отправляем все в gemini-2.5-flash-image-preview вместе с этим промптом:

Возьми автомобиль из второго изображения  и трансформируй его в робота. Новый объект должен быть создан на основе машины, сохраняя её основные характеристики, такие как цвет, форма фар, контуры, номерной знак и тд., максимально точно воссоздай робота трансформера на основе экстерьера автомобиля. Удали автомобиль и поставь вместо него трансформера.


PromptHub ● Промпты для Нейроарта и ИИ-Графики
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥62
Вышла sora2👽
Закидываемся генеряшками и бегом тестить.
за инвайт спасибо @antishnapss
#sora2 #sorainvite #openai

sora.chatgpt.com/profile/namochilmantu


invite: в комментах
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥2🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Немного утечек от Гугла

Gemini 3 - 9 октября?

Нанабанана 2 - вторая неделя ноября, на базе Gemini, а не Flash, основные улучшения в текстовом рендеринге, всякой инфографике, нативное 2К, с апскейлом до 4К.

Veo4 - начало декабря. Возможно перед этим будет Veo3.1

@cgevent
🔥3
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Инференс на линзах, а не на чипах.

Подводка


Три года назад мы лихо считали картинки в Stable Diffusion 1.5 на своем железе (4-8 GB VRAM). Без всяких квантизаций, дистилляций и пр. Прошло три года и аппетиты генераторов выросли в 10-20 раз. Вон HunyuanImage 3.0 просит 320 гигов видеопамяти, а все видеогенераторы с непожатыми весами тоже просят около 60-80 Гигов VRAM. Видеокарты, которые можно купить домой просто не поспевают за такими аппетитами. Железо развивается медленнее, чем аппетиты генераторов.

Компромиссы: считать в облаке (как делаю я) или искать и ставить пожатые веса(компромисс по качеству). Невольно возникает вопрос, а можно ли как-то "удешевить" инференс, то есть просчет картинок и видео.

И тут я наткнулся на интереснейшую статью в Nature

Исследователи из UCLA показали альтернативный путь — делать инференс… светом. В их работе оптические генеративные модели создают новые изображения практически без цифровых вычислений во время генерации.

Совсем коротко: модель для генерации картинок тренируется как обычно, в цифре и на чипах, а вот просчет картинок(инференс) происходит на аналоговом устройстве (свет, линзы, фазовые пластины/SLM). Быстро, без затрат на электричество, без требований к VRAM и пр.

Чуть подробнее


Небольшой цифровой энкодер быстро переводит случайный шум в фазовые узоры — «оптические сиды (optical seeds)»
Далее вступает в игру дифракционный декодер — оптическая система в свободном пространстве (свет, линзы, фазовые пластины/SLM). Он аналогово преобразует свет и формирует новое изображение, соответствующее целевому распределению данных.
Во время самой генерации процессор не считает: нужна только подсветка и заранее полученный seed. Энергия тратится на свет, а не на математику.

А теперь нудно и долго

1. Подготовка seeds. Энкодер (пара неглубоких полносвязных слоёв) берёт 2D-гауссов шум и переводит его в фазовые карты. Эти карты отображаются на пространственном светомодуляторе (SLM).
2. Оптический декодер. Свет, проходя через оптимизированный дифракционный декодер, «проецирует» итоговое изображение на сенсор. Собственно оптическая часть занимает меньше наносекунды; узкое место — скорость обновления SLM.
3. Обучение. Сначала обучается «учитель» — цифровая диффузионная модель (DDPM). Она генерирует пары «шум–картинка», которыми совместно обучают и фазовый энкодер, и оптический декодер. После обучения декодер фиксируется, а для разных датасетов можно просто менять сиды и конфигурацию декодера.

Что получилось в экспериментах

Команда показала оптическую генерацию монохромных и цветных изображений из разных распределений: MNIST, Fashion-MNIST, Butterflies-100, CelebA, картины Ван Гога. Качество сопоставимо с цифровыми генераторами по метрикам IS/FID, а демонстрационный стенд работал в видимом диапазоне длин волн.

Ограничения
Железо диктует пределы. Скорость, разрешение и стабильность зависят от SLM, качества оптики и юстировки.
Обучение всё ещё цифровое. Чтобы построить оптический генератор, нужен цифровой «учитель» и вычислительные ресурсы на этапе тренировки.
Расширение за пределы изображений. Концепция обещает вывод и для видео/аудио/3D, но такие демонстрации — дело будущих работ.

Итого:

Исследователи показали, что генеративные модели можно вынести из чипов в оптику: свет, дифракция и фазовые элементы берут на себя большую часть «вычислений» на этапе генерации, обеспечивая быстрый и экономный инференс при качестве, сравнимом с цифровыми моделями. Это не «конец GPU», но сильная заявка на гибридные системы, где обучение остаётся цифровым, а инференс становится фотонным.

https://www.nature.com/articles/s41586-025-09446-5

@cgevent
1👍1
На хиггсфилде анонсирован видеогенератор от Гугла VEO3.1

Нативное разрешенеи 1080p, хронометраж 30+ секунд

Записаться в вейтлист - зная хиггсфилд, можно не записываться если у вас нет подписки

#news
Тут вчера еще Ксюша очень показательно показала (простите за каламбур) как давать Соре несколько референсов на вход. Так можно отправить героя в нужную локацию, поконцептить ракурсы и все, до чего дойдет фантазия. И что можно делать без загрузки фотореалистичных людей -_-

Думаю, что те многие, кто как и я активно пользуется Бананой, побежали первым же делом проверять такой промптинг при выходе Соры. И какая радость, что оно работает.

Обязательно посмотрите как другие генерят)
2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Нодовую систему а-ля Comfy интегрируют в Runway - Runway Workflows

Ноды = контроль

Полной Comfy-свободы вы конечно не получите - можно будет "нодить" только модели от Runway и Google (Veo), но зато нет требований к железу (а требования к вашим денежкам есть🤣)

Пока фича находится фактически в бета тесте: доступ есть только у партнёров и по тарифу Enterprise, но обещают скоро запустить для всех

Это 100% AI-generated
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥2
Forwarded from Art, Design & AI (Lena Starkova)
This media is not supported in your browser
VIEW IN TELEGRAM
🍿 Higgsfield Popcorn – новый стандарт сторителлинга в AI

В Higgsfield запустили Popcorn – инструмент для создания многокадровых историй:
• Одна подсказка и модель генерирует до 8 кадров, связанных между собой по свету, композиции и персонажам.
• Можно загрузить ссылки или референсы, чтобы задать направление.
• Или вручную прописать каждый кадр для полного контроля.

Это, по сути, AI-раскадровка, монтаж и расширение сцен в одном флаконе. По логике ближе всего к Nano Banana и Seedream 4.0, но интерфейс проще – можно просто описать серию кадров или собрать историю вручную.

💚 Чтобы попробовать:
перейдите на higgsfield.ai → выберите Popcorn.
Загрузите изображения, введите промт, выберите формат и нажмите «Generate».

Арт, дизайн и нейросети
@art_design_ai
#higgsfield@art_design_ai
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from Нейро
DeepSeek показал себя как настоящий волк с Уолл-стрит — за 9 дней он удвоил депозит, играя на крипторынке. Эксперимент, в рамках которого разным ИИ выдали по $10 000 и позволили свободно торговать на бирже, продолжается.

В зоне прибыли также оказались QWEN3, а чуть слабее, но тоже в плюсе — Claude Sonnet 4.5 и Grok 4.

А вот хайповая GPT-5 и Gemini 2.5 полностью провалились — обе модели слили более 60% капитала и не показали никакого результата.
3❤‍🔥11🔥1👌1
Forwarded from дAI потестить!
Сайты где можно закупить нейронки без подписок (API)
Самое то, если нужно протестировать, или сделать парочку круток для проекта

fal.ai
replicate.com
wavespeed.ai
mindvideo.ai (free sora mindvideo.ai/text-to-video/ )
runware.ai
kie.ai

#list
👍3🔥31
Forwarded from Нейродвиж
Китайцы просто взяли и убили GPT-5 — вышла опенсорс модель Kimi K2 Thinking 😮

Помимо серьезной конкуренции с GPT-5 и Sonnet 4.5, модель нереально круто работает с tool calling — это выполнение python-кода, поиск в браузере и т. д.

«Нереально» — это мягко сказано: Kimi K2 может выполнять до 300 последовательных запросов к инструментам, чтобы выполнить вашу задачу, предварительно разбив ее на подзадачи.

Попробовать можно на сайте Kimi, сама модель на Hugging Face.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥32🔥1
Forwarded from Psy Eyes
Flux 2 инкоминг...
3🔥2👏1
Forwarded from ALEXANDRKOZLOV.studio
Media is too big
VIEW IN TELEGRAM
Управление жестами, улыбкой, танцем и просто самим присутствием — это новый опыт интерактива.

Прямо сейчас мы экспериментируем с возможностями машинного зрения и внедряем их в наши творческие и коммерческие проекты.

Завтра наступает уже сегодня. Технологический прогресс начинается не тогда, когда инновации готовы к реализации в реальной жизни, а когда к этому готово общество.

С огромным интересом ко мне обращаются представители бизнеса, корпораций, государственных учреждений, но всё тормозится из-за их PR- и маркетинговых отделов, которые не могут посчитать KPI и ROI этого нового направления. Гораздо проще посчитать аренду баннера с его слепотой, чем оценить такие новаторские решения, но и это мы уже сейчас решаем встроенной системой видеоаналитики.

Вывод следующий: первыми смелыми станут представители крупных частных компаний — они открыты к новому. Позже, когда технология подешевеет, подтянутся и другие уровни бизнеса.

Если вам захочется превратить витрину вашего магазина в центр притяжения человеческого внимания — вы знаете, к кому обращаться!
3🔥2👏1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
На wavespeed.ai уже висит огромный баннер Nano Banana 2 is coming

И мне кажется, счет идет на дни, если не на часы.

Хотя в сети пишут, что она должна быть на основе Gemini 3, которая впрочем тоже уже разносит твиттор.

Но официальный гугль молчит, а мы уже израсходовали весь запас дофамина.

Доколе?!?!

Prompt: A perfectly reflective chrome mirror ball placed on a black and white checkerboard.

@cgevent
1🔥1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
💥Black Forest Labs выпустили FLUX.2

Напомним, Black Forest Labs - это та самая дрим-тим инженеров (Робин Ромбах, Андреас Блаттманн и др.), которая подарила миру оригинальный Stable Diffusion (SD 1.5, SDXL). Фактически, они создали современную индустрию открытых нейросетей. И теперь они работают над FLUX💪

Что нового в FLUX.2:

🔘Можно загружать до 10 изображений-референсов
🔘Поддерживается редактирование изображений разрешением до 4 мегапикселей
▫️Реальные знания о мире доступны на базе Mistral-3 24B
▫️Улучшенные промпты, детализация, текст и т.д.

Модели в релизе:

FLUX.2 [pro] & FLUX.2 [flex]: топовые версии через API (платно)
FLUX.2 [dev]: локальная версия на 32B параметров (FP8 можно взять здесь, упакованная версия здесь)
FLUX.2 [klein]: компактная версия (скоро)

Демка здесь (FLUX.2 [dev])
Песочница здесь (FLUX.2 [pro] + [flex], есть бесплатные генерации)

+Модель уже можно найти на многих платформах (Freepik, Fal, Higgsfield, Krea и др.)

#flux

Это 100% AI-generated
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
Media is too big
VIEW IN TELEGRAM
Runway Gen-4.5

Whisper Thunder на арене оказался новой моделькой от Runway, она побила Veo 3 на 20 ELO. Доступ раскатают на всех подписчиков в течении пары дней. Как вам качество?

Блогпост

@ai_newz
🤯1