Метаверсище и ИИще
27.7K subscribers
3.67K photos
1.74K videos
36 files
4.78K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Фото или нейрорендер?
👍 Рендер
👎 Фото

Update: все оказались глазастыми и начитанными.

Бразилец Габриэль Медина празднует свой рекорд на соревнованиях по классическому серфингу на Олимпиаде.

Он получил самый высокий балл на одиночной волне за всю историю Олимпийских игр: 9.9 из 10. Красавчик, чо.
Жмем на 🔥
Мертвые заговорили! Миджорни 6.1 вышла.

Что нового в V6.1?
- улучшенная анатомия (руки, ноги, кисти, тела, растения, животные и т.д.)
- Значительно лучшее качество изображения (уменьшение пиксельных артефактов, улучшенные текстуры, кожа, 8-битное ретро и т.д.)
- Более точные, детальные и правильные мелкие детали изображения (глаза, маленькие лица, далекие руки и т.д.)
- Новые апскейлеры с гораздо лучшим качеством изображения/текстуры
- Примерно на 25 % быстрее при работе со стандартными изображениями
- Повышенная точность текста (при рисовании слов через "цитаты" в подсказках)
- Новая модель персонализации с улучшенными нюансами и точностью
- Новый режим ``q 2``, который требует на 25 % больше времени, чтобы (иногда) добавить больше текстуры ценой снижения целостности изображения.

Есть тут миджорниводы? Го тестировать и делиться впечатлениями в коментах.

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
А народ уже вовсю бесчинствует, комбинирует Midjourney 6.1 и Runway GEN-3.
Я не очень понимаю смысл, ибо видеогенерация одним махом съедает и размывает все детали и преимущества Midjourney 6.1

Так что данный видос - это скорее иллюстрация того, где мы находимся в конце июля 2024 года.
И как себя ведем при виде всего этого генеративного безобразия.

Могли ли мы подумать, ровно два года назад, когда только только релизнулись первые Stable Diffusion и Midjourney, что мы будем так скакать через два года?

Вряд ли. Просто в голову не приходило.

P.S. Машинки справа по борту тоже едут нарядно. Такого мы тоже не могли представить два года назад.

@cgevent
Forwarded from CGIT_Vines (Marvin Heemeyer)
This media is not supported in your browser
VIEW IN TELEGRAM
Невероятная работа с эмоциями в MJ и Gen-3.

Я практически не нашел галлюцинаций и косяков, найдет ли кто-нибудь из вас?
Если смотреть на скорости 1.2, то в некоторых шотах уходит бесячий слоумоушен, характерный для img2Vid.

Меня все еще поражает наличие физичности, когда рука касается локона и локон реагирует на воздействие. Я понимаю, что сетка просто это где-то видела, но это совершенно не означает, что это что-то искусственное и не трушное.
Как вам такая новости?
Canva купили Leonardo AI.


У меня один вопрос - зачем?

Я тестировал Леонардо очень давно. Когда это был один из многих сервисов типа: накатили Stable Diffusion на сервер, даем погенерить за деньги. Потом они пощли по пути InvokeAI и стали пилить удобные интерфейсные штуки для тех, кто привык рисовать. Начали прикручивать видео (как я понял на основе открытого кода AnimatedDifа и SVD). Все равно оставаясь нашлепкой на Stable Diffusion. Из последнего - они сделали свою модель Феникс.
Едиственное, что их отличало от других сервисов - убойный маркетинг (команда пришла из web3 и NFT). Тьма привлеченных блогеров называла их убийцей Midjourney.
Потом они начали вводить больше и больше цензуры на контент. Видать готовились к продаже.

Поэтому у меня так и висит вопрос - зачем Canva их купила?
С юзерами у Канвы и так все ок.
С понимание UI\UX тоже.
Неужели сами не решились написать обертки над Stable Diffusion?
У них же уже есть обертка над DALL·E 3 (через вызовы API OpenAI).

Или я чего-то упускаю?
https://www.canva.com/newsroom/news/leonardo-ai/

@cgevent
Про приложения одеваторы и приложения раздеваторы я уже много писал. Ну и двигателем ML науки, как известно, стала программа deep nude, которая лихо разоблачала кожаных девушек (и, теоретически, парней).

А теперь не обязательно переснимать сцены из фильмов, чтобы получить более или менее жесткий рейтинг типа PG-13. Зрительно просто может жмакнуть кнопку "включи режим просмотра 16+". ИИ уберет, что не нужно или добавит, что надо.

@cgevent
Ну, за метаверс!

Позавчера случилось невероятное. Хоть кто-то признал, что король-то голый.
И не кто-то, а сам Цукерберг.
Тот самый, которые вбросил это nft-слово - Метаверс. Три года назад.
Помните?

И все такие - да, Метаверс, это круто, это бабки, это слава, это продажа земли в пузырях и пирамидах. Это модно, это молодежно.

Самые робкие: а шо это такое?

Остальные: неважно, это как nft - круто, престижно, дорого, надо брать в общем.

Самые душные: а что брать?

Остальные, злобно: тычотупишь, это у всех есть. Вот Мак Кинзи говорит, что через несколько лет рынок Метаверса будет Триллионы Долларов(с придыханием)

Самые аутичные душнилы: а можно определение?

Рынок, с битой неперевес: мальчик, не мешай дядям зарабатывать на лохах.

И ведь остались обманутые вкладчики, которые до сих пор, бедняги, пилят метаверсы, вонзают деньги, не понимая, что это такое или давая метаверсу самоутешающие и самодельные определения. Их, как нфтшников, становится все меньше, а мы с вами вспоминаем этот морок, как помешательство с ковидом, прививками и теориями заговора.

МакКинзи теперь морщат лоб насчет ИИ. Виарщики снова называют виар виаром, роблокс - роблоксом, игры - играми, криптаны продали всю землю и снова заняты любимым делом - разведением хомяков.

А Метаверс остался в памяти как пример массового помешательства.

Но рынок не пахнет, ничего личного, только с ребятами неловко получилось, которые уверовали в метаверс.
Ничего, ИИ им поможет.

Это я к чему. Позавчера Хуанг и Цукерберг очень так неплохо перебеседовали на Сигграфе. С шутками, подколами и обменом курток. Так вот. За весь этот длинный диалог Марк НИ РАЗУ не произнес слово Метаверс. Ни разу. Хотя речь шла о тех вещах, которые он два года назад называл метаверсом через слово.
Переобулся. Или как модно у стартаперов - пивотнулся.

Ну, не чокаясь. В метаверсе все равно нельзя было прибухнуть нормально, хотя я видел зумерские свадьбы там. Поэтому и сдох.

@cgevent
Разработчик ПО из Казани? Познакомься со специалистами ТехноХаба Сбера и прокачай свои скиллы! 👨‍💻👩‍💻

ИТ-академия ИТ-парка запустила курс для разработчиков «Cross-platform developer on JavaScript» совместно с Андреем Власовым — лидером компетенций, руководителем технологического Хаба Сбера в Казани с опытом в разработке 16 лет.

Для кого? 💻

— разработчики ПО с опытом работы frontend 1-2 года

По окончании курса ты получишь знания и навыки, соответствующие уровню Middle Javascript Developer, а именно:

Продуктовое мышление
UX/UI проектирования в figma
Разработка web-приложений на React
Разработка серверных приложений на Nodejs + Express + Mongo
Написание эффективных тестов для приложений
Глубокое понимание micro-frontend архитектуры на больших проектах

Запишись на собеседование прямо сейчас 👉 https://t.me/+5-2TuO-rg7Y0OGUy, и получи бонусом офлайн-консультации с наставником, защиту выпускной работы перед экспертами и удостоверение о повышении квалификации. 🔥

▪️Набор открыт до 15 августа
▪️Объем курса: 124 акад/ч (продолжительностью 5 месяцев)
▪️Формат: офлайн, в ИТ-парке им. Б. Рамеева

📲 Номер телефона для связи: +7 937 594 2209

Реклама: ТЕХНОПАРК В СФЕРЕ ВЫСОКИХ ТЕХНОЛОГИЙ "ИТ-ПАРК", ГАУ "ИТ-ПАРК", ИНН: 1655191213, ERID: 2Vtzqux3v5Q
Media is too big
VIEW IN TELEGRAM
Наконец-то годное ИИ-видео
Интернетик завален ИИ-видосиками. Народ пытается монтировать это в клипы. Пока все это похоже на неуклюжие трейлеры к фильмам категории Б, в которых не сшивается ничего - ни свет, ни камера, ни цвет. Бесконечные облеты-пролеты камеры мимо пластиковых девушек.
Принес вам клип, который торчит из этого посредственного видеоряда. Его приметил даже Андрей Карпатый и твитторнул с восторгом.
От себя добавлю, что здесь, во-первых, есть очень цепляющая фактура в виде мозаики. Она и есть главный герой и отлично бьется с названием "Разбитые мечты". Мы перестаем смотреть на детали, мы смотрим на мозаику. А она хороша.
Во-вторых, все эти мозаичные уточки и акулы, приподвзрывают мозг (пусть и незаметно), а мозаичная одежда прям топ (я посмотреть третий раз и там есть совсем уж находки).
В-третьих. У меня профдеформация, но вот это вот количество стекла, отражений, преломлений, каустик, SSS и прочего рейтрейсинга с глобальным освещением меня просто расплющивает. Вы никогда не отрендерите такой клип в 3Д, у вас лет в паспорте не хватит, это годы рендеринга.

А на итоге - это Suno + GEN-3. И хорошая кожаная(?) идея.
https://www.youtube.com/watch?v=IpP6XojxH3g
В интернетике уже полно примеров тестирования нового голосового режима в chatGPT.
Самый, наверное, упоротый тестер измучил chatGPT всеми языками на свете.
В шапке есть видео, где он просит переключаться между языками рассказывая сказку и доходя до корейского с итальянским акцентом (извращенец).
Вы также наверное уже видели, что если попросить chatGPT ОЧЕНЬ быстро считать до 50, то он берет вдох на второй трети скороговорки. Ибо тоже человек (тут идут споры почему он так делает - научился из датасетов или "понимает" что кислород закончился).

Так вот, этот же чувак, на итоге просит chatGPT переключаться между языками через каждое слово! Садист. chatGPT справляется. Но когда кожаный ирод просит его быть быстрее и не делать пауз, chatGPT реально сердится и спорит что он не может не делать пауз, что ему дышать надо. И отказывается.
Все как у людей.

А последнее видео говорит нам о том, что у некоторых пользователей уже работает режим Live Video и что можно поговорить с chatGPT включив камеру о самом дорогом - о котиках.

Лично меня пока сильно привлекает возможность озвучки - это, кстати, очень серая зона. Поглядите, как chatGPT лихо воспроизводит мастера Йоду или Гомера Симпсона и даже смешивает их в одном голосе.

Интересно, что будет, если скормить ему свой (чужой) голос и попросить имитировать его? С картинками было достаточно сказать, что это ваша личная фотография.

Вот твиттор чувака, упоротого по языкам: от узбекского до Урду:
https://x.com/CrisGiardina

@cgevent
Я уже постил про работу Фила Лангера HYBRIDS.
Ее появление было реально интересным. Там были картинки из Midjourney, присунутые в leiapix для легкого панорамирования вокруг.

Именно новизна картинок и выход из зоны кожаного комфорта и цеплял. И цепляет.

Сейчас Фил взял и присунул эти же картиночки в GEN-3 и получил еще больше, скажем так, анимации.
Меня если честно, уже так не цепляет, как было в первый раз при взгляде на картинки.
Новизна была (и есть) именно в идее, в картинке.
Видео добавляет лишь немного шевеляжа, не добавляя почти ничего к истории.
Ну то есть я, конечно, офигел, но не настолько офигел, как в первый раз. Зажрался, чо.
Но я вам добыл еще любопытного: тесты Фила на этих же картинках, сделанные в Люме (до выхода Image2Image в GEN-3).
Похоже Люме надо обновляться...
https://www.youtube.com/watch?v=Dzr8_spDyxE
This media is not supported in your browser
VIEW IN TELEGRAM
Доггер-панк, который мы заслужили.

Мы: упарываемся в генерацию гибридов и консистентых персонажей, оживляем картинки, сетапим контролНеты, костылим виртуальные примерочные.
Нормальные кожаные: а давайте просто оденем добермана в разную одежду и цацки. И сделаем из него звезду. Миллионы просмотров не пахнут. 160 тысяч подписчиков тоже.

Цифровые инфлюенсеры медленно ползут в Recycle Bin.
https://www.odditycentral.com/animals/this-stylish-doberman-is-a-natural-bon-fashion-model.html
TORA: Кому ControlNet для видео-генерации?

Никому, потому что кода (как водится у Алибабы) пока нет.

Однако, есть сравнения с DragNUWA и MotionCtrl - и там все очень нарядно.

Это возвращает меня к своему обычному нытью. Если на картинках у вас язык заплетается, конечно, но вы худо бедно можете описать замысел. И то без помощи КонтролНета - никуда.

То для видео - вам придется описывать еще одно измерение, ну то есть вам понадобится х10 слов, чтобы описать движение камеры, объектов, света, оптики, а также изменения формы, траектории частей объектов, ну вы поняли.
Вот и будут возникать такие костыли в виде палочек, кривулек и точечек.
Кстати, в Клинг завезли новый UI для управления камерой. И он ловкий, ибо целит в аудиторию, снимающую на телефон.

А трушные управляторы есть, конечно, в 3Д-софтах. Только там меню на 300 пунктов и все сложно. Кто ж будет учить 3Д в 2024 году?!

Спасибо Игорю за наводку.

https://ali-videoai.github.io/tora_video/

@cgevent
Внедрять генеративный ИИ в работу проще, если опираться на успешный опыт коллег. Чтобы помочь предпринимателям, создатели конференции по разговорному и генеративному ИИ Conversations запустили открытый кейсориум Generation AI.

Это открытый кейсориум, где собраны реальные кейсы применения генеративного AI российским бизнесом (и где ваша компания может поделиться своим опытом — объявлен опен-колл).

Предлагаю не ждать, когда из тренда, к которому относятся с осторожностью, возникнут «лучшие практики», золотые стандарты и инструкции по достижению KPI. Нужно экспериментировать и делиться знаниями уже сейчас. Эксперименты одних компаний снижают порог входа для других, вдохновляют, снимают барьеры, меняют взгляд на привычные вещи и, в конечном итоге, делают AI-будущее доступным для всех.

На сайте уже можно почитать материалы X5 Retail Group, Samokat Tech, Ozon и банка «Точка». Скоро к ним добавятся кейсы Avito и Skyeng. Если ваша компания тоже готова поделиться опытом, оставьте заявку на сайте.
#промо