Метаверсище и ИИще
49K subscribers
6.08K photos
4.64K videos
47 files
6.98K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Когда йолки позади.
Когда на улице 21 и в воде тоже.
То Дед-Морозу можно, наконец, расслабиться.
1 января.
Всех с Наступившим!
🔥64👍7
https://showgpt.co/
Летом заскрапили базу картинок и промптов к этим картинкам - получилась отличная база для обучения в виде сайта lexica.art

Держите аналог для текстовых промтов для chatGPT.

Там примеры, категории, поиск диалогов, которые близки к вашей задаче.
Отличный старт для тех, кто начинает писать сообщения на деревню дедушке chatGPT и хочет подсмотреть, как другие помыкают покорным ИИ.

И даже рейтинги переписок с ИИ.

Все-таки рейтинги у кожаных в крови.
https://showgpt.co/
🔥20👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный кейс - производитель костюмов для Мокапа выпустил свой "нейромокап" - по видео (даже с вебки) они восстанавливают движения скелета. В общем занимаются тем же самым, что и PlaskAI, Radical или DeepMotion.
Примечательно то, что это продукт от производителя костюмов. В принципе, это может стать драйвером продаж их железок с сообщением "не нравится отстойное качество нейромокапа - берите костюм для взрослых".
Ждем ответа от Xsens и Vicon - им сам бог велел написать такие софтины с их-то опытом и датасетами.

Насколько же Слава Смирнов опередил время со своим нейромокапом - еще два с лишним года назад показывал на Ивенте свой ИИ-мокап, когда пласки и радикалы еще датасеты собирали.

https://www.rokoko.com/products/video

Демо в Блендере
https://www.youtube.com/watch?v=4ItfUVwXt5Y
👍5
Тут в декабре завирусился китайский ИИ-генератор Different Dimension Me, который лихо и ловко превращает ваши фотки в аниме.
Только вот стало понятно, что китайцы сильно упоролись по зачищению датасетов от политически нежелательных элементов и упоминаний, а на диверсити и политкорректность (в некитайском смысле) им глубоко плевать.
Помните сколько времени Гугль убил, чтобы побороть проблему распознавания горилл. Не поборол, просто заблочил определенную ветку распознавания.
А у китайцев своя повестка.
🔥24👍6
Ну и, кстати, про китайские нейросетки.
У них там свой зоопарк, причем довольно прокачанный и абсолютно независимый от достижений Гугла, Нвидии, OpenAI, StabilityAI и прочих Midjourney.

Baidu, зарекомендовавшая себя в поисковых системах и в последние годы активизировавшая свою деятельность в области автономного вождения, использует ERNIE-ViLG (про которую я уже писал), модель с 10 миллиардами параметров, обученную на наборе данных из 145 миллионов китайских пар изображения и текста.

Different Dimension Me (из предыдущего поста) от Tencent умеет превращать фотографии людей в персонажей аниме. Предназначенный для китайских пользователей, он неожиданно стал популярен в других регионах, где любят аниме, таких как Южная Америка.

Другой китайской моделью преобразования текста в изображение является Taiyi, детище IDEA, исследовательской лаборатории, возглавляемой Гарри Шамом, который стал соучредителем крупнейшего исследовательского подразделения Microsoft Research Asia. Модель с открытым исходным кодом обучается на 20 миллионах отфильтрованных китайских пар изображение-текст и имеет один миллиард параметров. Некий аналог Stable Diffusion.

Любопытно посмотреть, как китайцы будут регулировать все это безобразие - ибо опыта в "регулировании" у них поболее, чем у всего остального мира.

И пока ИИ-повстанцы собирают краудфандингом деньги на создание "Stable Diffusion без цензуры", китайцы спокойно оттачивают алгоритмы регулирования нейросеток в интересах государства, а не ориентируясь на чувства верующих.

Подробнее тут:
https://techcrunch.com/2022/12/31/how-china-is-building-a-parallel-generative-ai-universe/
👍9🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
Ну что, за аниматоров в этом году еще не выпивали.

Открываете Блендер и ну орать на своих персонажей "Упал-отжался".
А они, такие, послушные - падают и отжимаются.
Вы им текст, они вам анимацию.
Профит.
Открываем курсы красноречивости для бывших аниматоров!
https://www.youtube.com/watch?v=pTkn2qWfc60
🔥17👍13
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанка вам на ночь.
Вы думаете вот эти робопсы только на выставках и корпоративах появляются?
Нет, они ждут своего часа в подвалах лабораторий, где перешедшие на сторону ИИ кожаные тестируют их для дальнейшего использования.
Тварь Unitree Go1 — это робот-собака нового поколения, способная развивать скорость до 17 км/ч, с адаптивными шарнирами и интеллектуальной системой бокового зрения.
Когда эти твари начнут сбиваться в стаи, вы пожалеете, что развешивали лозунги NoAI на стенах артстейшена.
https://twitter.com/rainmaker1973/status/1540643332304633856
🔥46👍8
Для подкастеров и тюберов.
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
🔥51👎1
Интернетик яростно перепечатывает новость из TheInformation, в которой сказано, что "Microsoft готовится к запуску версии своей поисковой системы Bing, которая использует ИИ, лежащий в основе ChatGPT, для ответа на некоторые поисковые запросы, а не просто для отображения списка ссылок, по словам двух человек, непосредственно знакомых с планами. Microsoft надеется, что новая функция, которая может быть запущена до конца марта, поможет ей обойти Google".

Новость вызывает ОЧЕНЬ много вопросов. Но общий тренд прослеживается - в 2019 году Микрософт вонзила миллиард долларов и в 2022 году начинает получать возврат инвестиций. Они уже анонсировали встраивание DALLE2 и в Bing, и в другие продукты (хозяин-барин теперь). А теперь вот пришла очередь chatGPT.

Мир больше не будет прежним - ИИ будет вашим добрым советчиком, от которого нельзя отказаться. Ибо Гугль тоже приподохренел от возможностей chatGPT и пилит симметричный (или ассимметичный) ответ опенэйайю.

https://www.theverge.com/2023/1/4/23538552/microsoft-bing-chatgpt-search-google-competition
👍10🔥3
Так, пора переименовывать канал.

CBInsights провели в декабре голосовалку в Твитторе и попросили ответить подписчиков на вопрос, кто будет молодцом в 2023 году, а кто лузером.
"Survey: Who are 2023's winners & losers going to be"

Так вот один из самых бодрых молодцов в 2023 - это Generative AI in 2023, более 75% голосов.
А самый эпический лузер - The metaverse in 2023, 78% голосов.

Там еще много чего интересного, но эти двое - самые яркие индикаторы того, что сейчас происходит в головах инвесторов.

Так что заканчивайте детские игры в метаверс, признайтесь наконец, что король-то голый, и никто никогда не знал, во что он одет и кто он такой, и начинайте заниматься генеративным ИИ.

А я начну думать над ребрендингом.
https://twitter.com/CBinsights/status/1604419794790658048
👍27🔥6👎1
Ну и в продолжение предыдущего поста отчет от WaveMaker: Growth Trends 2023.
Где два самых смачных вывода:
- Метаверса не существует (просто теперь так модно называть игры)
- Теперь каждый может быть художником с Генеративным ИИ наперевес

Вот с такими трендами наперевес мы и входим в 2023 год...

Полный отчет ниже.
🔥16👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Шикарнейшая визуализация того, как одна маленькая штучка у вас в кармане меняет целые индустрии.

История камер - пленочных, потом цифровых, так бодро взлетевших над покойной пленкой. И спикировавших обратно вниз, просто потому что фотографировать телефоном удобно. И ехать, важнее, чем шашечки и мегапиксели.
👍33
В связи с тем, что метаверс скоро скукожится и займет свое положенное место среди игр, цифровых двойников, виарчика с эйарчиком и сайтов с 3Д-движками, брейнстормим новое название канала.

AI Addict
AI Addicts
ИИнтеллект и ИИскусство

Продолжаем в коментах.
👍24👎4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за геймдев!
По крайней мере за геймдев 80-90ых, не чокаясь.

Тут вот ребятки просто просят chatGPT сгенерить им код игры Pong, и ИИ - вжух - и генерит.
Причем он даже может сгенерить html-код. Я скачал html-файл, он запускается в Хроме без проблем.

Еще раз, для тех, кто не в курсе:
- ИИ, сделай мне html-код игры
- Апажалста

Вот тут подробный разбор одного кейса:
https://psc-g.github.io/posts/misc/pongday/
"first working prototype took 5 mins!"

Вот тут описание второго кейса:
https://twitter.com/rmcdaniel_/status/1610031358595801092
This is a game that AI made on the fly (with its own AI)

Html-код можно скачать тут:
https://t.co/5ysS6AbTGw
🔥41
Ахтунг! Битва людей против машин перешла в активную фазу.
Кожаные реально хотят извести ИИ!

На Гитхабе забанили самый лучший и продвинутый UI для Stable Diffusion под названием AUTOMATIC1111!

Автор уходит в подполье на ГитГид тут:

https://www.reddit.com/r/StableDiffusion/comments/103vsm2/webuis_new_home/

https://news.ycombinator.com/item?id=34257818
🔥15👍2
Ну, за Виарчик!

ASUS анонсировала Spatial Vision, «технологию 3D OLED без очков(автостереоскопическую)». Экраны, поддерживающие Spatial Vision, будут использовать комбинацию двояковыпуклой линзы и передовой технологии камеры слежения за глазами. Они отображают отдельные изображения для каждого глаза и следуют за положением вашей головы и глаз, чтобы настроить их соответствующим образом. Год назад ACER анонсировали нечто подобное.

Однако есть несколько различий между Spatial Vision от Asus и SpatialLabs от Acer. Главный из них заключается в том, что панелями Asus могут пользоваться два человека одновременно, в то время как Acer при запуске SpatialLabs ясно дала понять, что они предназначены для одного человека за раз.

Вот что пишут на Вердже:

"В остальном Spatial Vision показал себя хорошо в краткой демонстрации, которую я получил. Я вращал изображения в пространстве — частота обновления 120 Гц делала процесс плавным, а модели ощущались и выглядели очень реалистично, с невероятно реалистичными деталями. Вещи летели на меня с экрана, и я соответственно моргал и вздрагивал. Я мог двигать головой из стороны в сторону, не нарушая увиденного изображения, и мог легко переключаться между режимами 2D и 3D.

Любой контент, поддерживающий 3D (игры, видео и т. д.), технически может работать на дисплее Spatial Vision. "

Вот что Asus сами говорят о Spatial Vision:

"Эти невероятные OLED-дисплеи предлагают коэффициент контрастности 1 000 000:1, время отклика 0,2 мс и частоту обновления 120 Гц для плавного изображения — и все это при минимальных перекрестных помехах для максимально плавного просмотра. Они также предлагают большой потенциал для быстро растущих приложений метаверсов. Эта технология 3D OLED без очков интегрируется с эксклюзивными приложениями в ASUS Spatial Vision Hub, что позволяет пользователям смотреть 3D-видео и фильмы, играть в 3D-игры и наслаждаться визуализацией 3D-моделей или созданием контента, а также предлагает неограниченный потенциал для разработчиков. строят собственные экосистемы."

И все это на ноутбуках!

Ждем такого же на телефонах....

https://www.theverge.com/2023/1/4/23538759/asus-debuts-an-impressive-glasses-free-3d-display-on-its-new-vivobook-pro
👍25👎2🔥1