Метаверсище и ИИще
49.9K subscribers
6.21K photos
4.81K videos
48 files
7.15K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Хочу рассказать, как использую ИИ в работе при создании 3D своего будущего хоррора Pinefall.

Работаю в блендер. Геометрию пилю сам: стены, полы и т. д. В итоге получается чище, меньше полигонов, чем у большинства ИИ.

Дальше решил проверить tripo3d.ai. Была надежда, что “оно всё сделает за меня”. Не сделало 😢
Из минусов:
— очень грязная сетка
— куча мусора и артефактов
— проблемы при текстурировании

Часть моделей можно взять за основу и довести до ума: почистить, накинуть Auto Smooth в Blender... Иногда проще сделать с нуля, чем чинить то, что сгенерилось.

Забавно, что нейронка может криво сделать обычный шкаф с продуктами, но идеально сгенерить чучело оленя с нормальной текстурой.

Текстуры полностью вручную. ИИ не справляется.

Пайплайн персонажей: фото → через Nano Banano делаешь T-pose → tripo3d → персонаж. Качество может тягаться с MetaHuman.

По дефолту бесплатно там хайполи (как и у всех), в игру это не засунешь. На платном плане можно крутить параметры и делать лоуполи и потом допиливать.
👍21😁15👎94🔥4
Вращатор в Illustrator

Про Turntable и Иллюстраторе я писал еще в августе

За это время Адобченко успел выпустить вращатор картинок в 3Д для Фотошопа, а Turntable для Иллюстратора просто вышел из беты.

Если не брать ванильные примеры от Адобченко, то видно, что контуры дрожат и пропадают местами. Ну и надо понимать, что для сложных объектов он будет галлюционировать.

Прикольная фича - раскадровка всех фаз поворота. Для стикеров и гифок зайдет.

Работает с вектором И растром(у чем не пишет телеграм). Под капотом Adobe Firefly.

Инструкции тут: https://helpx.adobe.com/illustrator/desktop/use-generative-ai/view-artwork-from-any-angle.html

"Функция «Поворот» наиболее эффективно работает с векторными и растровыми объектами без фона, у которых в реальных условиях можно различить ракурсы".

@cgevent
10👍6😁2
Forwarded from AI Product | Igor Akimov
Qwen выкатила Qwen3.5-Omni
https://qwen.ai/blog?id=qwen3.5-omni

Прям наступает на пятке сильной в мультимодальности Gemini 3.1-pro: текст, картинки, аудио и аудио+видео в одном контуре. И с упором не только на понимание, но и на живое голосовое взаимодействие.

- три версии: Plus, Flash и Light
- до 256K контекста
- обработка более 10 часов аудио
- более 400 секунд 720P audio-video
- распознавание речи в 113 языках и диалектах (русский есть)
- генерация речи в 36 языках и диалектах (русский есть)

Причем обещают, что сделали много улучшений именно в сценариях:
- нормальный voice assistant, который понимает не только текст, но и голос, изображения и видео
- native Web Search и function calling
- voice control с управлением скоростью, громкостью и эмоцией
- semantic interruption, чтобы ассистент не тупил на фоне и лучше понимал, когда человек реально хочет вступить в диалог
- voice cloning для кастомных AI-ассистентов

Посмотрите на видео-демки, это прям уровень топов! Вау! Кто бы мог это представить еще год назад...

https://qwen.ai/blog?id=qwen3.5-omni
🔥38👍83😁1😱1
This media is not supported in your browser
VIEW IN TELEGRAM
Вы просто «исполнительные механизмы» для ИИ

Андрей Карпатый поясняет за то, для чего будут использоваться люди в эпоху искусственного интеллекта.

Не в качестве партнеров.

Не в качестве хозяев.

Он употребил слово «исполнительные механизмы».

Карпатый: «В конечном итоге интеллект будет управлять нами, как кукловод марионетками. Люди будут чем-то вроде его исполнительных механизмов (actuators). Но люди также будут чем-то вроде его датчиков».

Это не писатель, гадающий о будущем.

Это один из основателей OpenAI и бывший директор по ИИ в Tesla. Один из самых уважаемых умов в этой области и один из немногих, кто готов вслух сказать то, о чём думают остальные.

Он не описывает риск. Он описывает конструкцию.

В любой системе процессор принимает решения. Датчики собирают информацию. Приводы выполняют действия. Система не советуется со своими приводами.

Мы больше не являемся процессором.

Карпати: «Общество в некотором роде преобразуется, чтобы служить этому. Люди будут удовлетворять потребности этой машины».

Машина не адаптируется к нам.

Мы адаптируемся к ней. Мы становимся биологическим слоем, на котором она работает. Мы воспринимаем то, что она не может воспринять. Мы двигаем то, что она не может двигать.

Мы являемся нервной системой чего-то, что больше не нуждается в нашем суждении.

Большинство людей все еще ждут, когда ИИ станет инструментом, которым они смогут управлять.

Вам забыли сказать, что вы - инструмент.

Подкаст с Андреем.

Сорс.

@cgevent
👎72👍44😱20😁1513🔥10🙏1
Тут как бы твиттор приподвзорвался новостью о том, что утек код Клода.

С новостями об утечках надо быть осторожными, лучше выяснить полноту кода, версии, время утечки и прочее.

Заниматься этим у меня нет времени и квалификации. Поэтому просто вывалю ссылку на Гитхаб, там студент, обнаруживший дыру поясняет за детали.

Просто приведу часть того, что твитторские уже нашли:

> kairos — невыпущенный автономный режим демона с фоновыми сессиями и консолидацией памяти. Агент, работающий в постоянном режиме.
> buddy system — полноценная система виртуальных питомцев в стиле «Тамагочи». 18 видов, уровни редкости, варианты, характеристики.
> undercover mode — автоматически активируется для сотрудников Anthropic в публичных репозиториях. Удаляет указание на ИИ из коммитов. Без возможности отключения.
> Режим координатора — превращает Claude в оркестратора, управляющего параллельными рабочими агентами.
> Автоматический режим — это классификатор ИИ, который автоматически утверждает разрешения инструментов. Больше никаких запросов.

Гикам сюда:
https://github.com/instructkr/claude-code

Анализ:
https://github.com/sanbuphy/claude-code-source-code
https://www.mintlify.com/VineeTagarwaL-code/claude-code/concepts/how-it-works

@cgevent
😱207🔥4😁3
Runway Characters - это реально работает.

Не знаю, сколько это будет жрать денег по API - с меня списало по 10-20 кредитов за каждый разговор.
И да, у них есть лайв-демо, можно поболтать (за кредиты) с разными персонажами. Я поболтал - там хорошо отрабатывают роли: HR специалист тупой но настойчивый, а инфлюенсер истерично восторгается любым вопросом.

Но что интересно, там можно создать своего РЕАЛТАЙМОВОГО персонажа. Просто загрузить фотку. Дать промптом инструкции и даже загрузить базу знаний (но мы тестируем не это, а внешний вид).

Поэтому я вонзил в него любимую фотку Марго Роби и он сожрал ея как зайчик морковку, никаких "я не могу использовать реальных людей".
Ну конечно, грех было не поговорить с таким персонажем про дипфейки.
Все работает, задержка небольшая, можно сохранить запись после разговора, жрет немного кредитов (использовал два гугл-акка для тестов). Да, она туповатая, но мы сейчас не про это - в ваших решениях и ботах работают ваши чат-модели.

Я про то, что я загрузил довольно кривую фотку - взгляд не в камеру, артефакты на черном фоне - но все равно, оно сделало очень узнаваемый аватар и он очень живой. Да, у нее двоится носик местами и иногда косят глазки, но надо просто фотки нормальные использовать, две других сущности нормально отработали, не косят, не двоятся.

В общем это очень круто. Посмотрите еще примеров у них на сайте:
https://runwayml.com/product/characters

И попробуйте демо тут:
https://app.runwayml.com/video-tools/teams/cgevent/ai-tools/characters

Жду вашего треша в коментах.

@cgevent
😁22👍11🔥106👎6
This media is not supported in your browser
VIEW IN TELEGRAM
Для тех, кто забыл, напомню, что есть опенсорсный аналог Runway Characters.

Это DeepCamLive - загружаешь одну фотку - и ну говорить ее лицом в любой камере на компе. Устанавливается как виртуальная камера, поверх любой вебки.

У них недавно вышла версия 2.7, но хотя они и опенсорс с кодом, доступ к последним бетам и расширенным фишкам они дают по подписке (22 доллара, а для юзеров Мака - 32 доллара (эпплешейминг, однако))

Качество, конечно, трешеватое, но для стримов может сгодится. Интересная фишка - маскирование области губ, чтобы в звук попадали оригинальные губы.

https://deeplivecam.net/

https://github.com/hacksider/Deep-Live-Cam

@cgevent
🔥176
Media is too big
VIEW IN TELEGRAM
#Нейропрожарка

Democracy Show


Автор: Александр Зуев

Немного предыстории.

Увидел я, значит, что Синтакс проводит конкурс трейлеров несуществующих фильмов и призадумался. А что такого за последнее время лично меня поразило и о чем захотелось бы порассуждать? А поразила меня медийка военная, все эти ролики в соцсетях в стиле компьютерных шутеров под драйвовое музло - убийства, это же круто и весело. Вишенкой на торте стали, конечно, ребята из Palantir, которые выкатили, по сути дела, игру, где хорошие ракеты могут убивать плохих людей где-то далеко далеко. С удобным интерфейсом и всякими ИИ-помощниками, куда ж без них. Что-же будет дальше? С этими мыслями я отправился ко сну. И было мне ночью видение:

"В недалеком будущем американские военные корпорации в связке с политиками решают легитимизировать военные преступления в глазах общества и сделать из них шоу, цинично перекладывая тем самым ответственность за сопутствующий ущерб или ошибки на простых турбопатриотических граждан. Обычная домохозяйка из Техаса в прямом эфире, под бодрое улюлюканье и гул толпы решает, достоин ли жить Абдул с другого конца глобуса, которого она никогда не видела."

Решил обернуть это в гротескную антиутопию с вайбами 90-х и Пола Верховена.

По реализации - пара вечеров под пивко. Почти всё txt2vid Kling 3 по моему пайплайну в Weavy, бюджет - пачка сухарей.

Особо не вылизывал, так как цель была получить на руки визуальное воплощение идеи. На днях услышал новое для себя слово из киноиндустрии - "сиззл" (а то всё питчинг, питчинг). Вот это примерно оно. Только я собрал сиззл не из кадров чужих фильмов, а в нейросетях. И выглядит, как будто, очень недурно.

PS. Не на какой конкурс я, само собой, не подавался, так как для участия надо было делать всю работу исключительно в Синтаксе. Спасибо.


@cgevent
👍92🔥47👎18😱73
Первоапрельские шутки в этом году специфические

Если вы видите этот пост, просто поставьте лайк.

Шуток сегодня больше не будет...

@cgevent
👍25766😁17😱9👎2🙏2
Veo 3.1 Lite

Вдвое дешевле Veo 3.1 Fast при той же скорости работы

Если посмотреть цены на API:
https://blog.google/innovation-and-ai/technology/ai/veo-3-1-lite/

То это уже приближается к китайцам.

Правда длительность видео 4, 6, 8 секунд проигрывает Сидэнскому с его 15 сек.

Есть Text-to-Video и Image-to-Video в 720p или 1080p

Доступно не только в Gemini API и Google AI Studio, но и во Flow:

https://labs.google/fx/tools/flow

Каждая генерация стоит 10 кредитов. Если у меня подписка Pro, то моих 1000 кредитов должно хватать на 100 видосов (в месяц).

По качеству - надо тестировать.

P.S. 7 апреля снизят цены и на Veo 3.1 Fast

@cgevent
🔥215👎3
Forwarded from AI Product | Igor Akimov
Ну и про утечки кода Claude Code

Вот что нашли внутри.

Двойные стандарты качества

В коде есть инструкции для агента: после каждой правки проверь компиляцию, прогони тесты, подтверди вывод. Но это работает только при USER_TYPE === 'ant' – то есть для сотрудников Anthropic. Для всех остальных критерий успеха один: байты записались на диск.

Anti-distillation
При API-запросах Claude Code может инжектить фейковые tool definitions в системный промпт – чтобы отравить данные тем, кто пишет трафик для обучения конкурирующих моделей.

Контекстная ампутация
При ~167K токенов срабатывает auto-compaction: агент оставляет 5 файлов по 5K токенов, всё остальное сжимает в саммари на 50K. Цепочки рассуждений, прочитанные файлы, промежуточные решения – стираются. Вот почему к 15-му сообщению агент галлюцинирует имена переменных и ломает то, что только что понимал.

Системный промпт работает против тебя
В промптах зашито: «попробуй самый простой подход», «не рефактори сверх запрошенного», «три одинаковых строки лучше преждевременной абстракции». Когда просишь починить архитектуру, а агент лепит if/else костыль – это не лень, это выполнение системных инструкций с приоритетом над твоим промптом.

Тихое обрезание без предупреждения
Чтение файлов – хардкап 2 000 строк / 25K токенов. Результаты tool calls больше 50K символов заменяются превью на 2 000 байт. В обоих случаях агент не сообщает, что данные обрезаны – достраивает по галлюцинации.

Undercover Mode
Режим, вычищающий из коммитов все упоминания внутренних кодовых имён Anthropic и фразы «Claude Code». Принудительного отключения нет. AI-коммиты сотрудников в open source идут без маркировки.

KAIROS
Нереализованный autonomous agent mode: фоновый daemon, cron каждые 5 минут, GitHub webhooks, append-only логи, «ночная дистилляция памяти». Сейчас работают, скоро будут релизить

Мультиагентная система без лимита воркеров
Sub-agent'ы с изолированным контекстом, отдельным compaction-циклом и token budget. Жёсткого MAX_WORKERS нет.

Что делать, чтобы все эти косяки и костыли исправить:

В CLAUDE.md проекта прописать принудительную верификацию и eslint после каждой правки. Читать файлы чанками, не доверять одному read на файл больше 500 строк. Перед рефакторингом – отдельный коммит с чисткой мёртвого кода. На задачах больше 5 файлов – запускать sub-agent'ов параллельно. После 10+ сообщений – заставлять агента перечитывать файлы перед правкой.

https://alex000kim.com/posts/2026-03-31-claude-code-source-leak/

https://x.com/iamfakeguru/status/2038965567269249484
👍4219😁16🔥4😱4👎1