This media is not supported in your browser
VIEW IN TELEGRAM
Интересный кейс - производитель костюмов для Мокапа выпустил свой "нейромокап" - по видео (даже с вебки) они восстанавливают движения скелета. В общем занимаются тем же самым, что и PlaskAI, Radical или DeepMotion.
Примечательно то, что это продукт от производителя костюмов. В принципе, это может стать драйвером продаж их железок с сообщением "не нравится отстойное качество нейромокапа - берите костюм для взрослых".
Ждем ответа от Xsens и Vicon - им сам бог велел написать такие софтины с их-то опытом и датасетами.
Насколько же Слава Смирнов опередил время со своим нейромокапом - еще два с лишним года назад показывал на Ивенте свой ИИ-мокап, когда пласки и радикалы еще датасеты собирали.
https://www.rokoko.com/products/video
Демо в Блендере
https://www.youtube.com/watch?v=4ItfUVwXt5Y
Примечательно то, что это продукт от производителя костюмов. В принципе, это может стать драйвером продаж их железок с сообщением "не нравится отстойное качество нейромокапа - берите костюм для взрослых".
Ждем ответа от Xsens и Vicon - им сам бог велел написать такие софтины с их-то опытом и датасетами.
Насколько же Слава Смирнов опередил время со своим нейромокапом - еще два с лишним года назад показывал на Ивенте свой ИИ-мокап, когда пласки и радикалы еще датасеты собирали.
https://www.rokoko.com/products/video
Демо в Блендере
https://www.youtube.com/watch?v=4ItfUVwXt5Y
👍5
Тут в декабре завирусился китайский ИИ-генератор Different Dimension Me, который лихо и ловко превращает ваши фотки в аниме.
Только вот стало понятно, что китайцы сильно упоролись по зачищению датасетов от политически нежелательных элементов и упоминаний, а на диверсити и политкорректность (в некитайском смысле) им глубоко плевать.
Помните сколько времени Гугль убил, чтобы побороть проблему распознавания горилл. Не поборол, просто заблочил определенную ветку распознавания.
А у китайцев своя повестка.
Только вот стало понятно, что китайцы сильно упоролись по зачищению датасетов от политически нежелательных элементов и упоминаний, а на диверсити и политкорректность (в некитайском смысле) им глубоко плевать.
Помните сколько времени Гугль убил, чтобы побороть проблему распознавания горилл. Не поборол, просто заблочил определенную ветку распознавания.
А у китайцев своя повестка.
🔥24👍6
Ну и, кстати, про китайские нейросетки.
У них там свой зоопарк, причем довольно прокачанный и абсолютно независимый от достижений Гугла, Нвидии, OpenAI, StabilityAI и прочих Midjourney.
Baidu, зарекомендовавшая себя в поисковых системах и в последние годы активизировавшая свою деятельность в области автономного вождения, использует ERNIE-ViLG (про которую я уже писал), модель с 10 миллиардами параметров, обученную на наборе данных из 145 миллионов китайских пар изображения и текста.
Different Dimension Me (из предыдущего поста) от Tencent умеет превращать фотографии людей в персонажей аниме. Предназначенный для китайских пользователей, он неожиданно стал популярен в других регионах, где любят аниме, таких как Южная Америка.
Другой китайской моделью преобразования текста в изображение является Taiyi, детище IDEA, исследовательской лаборатории, возглавляемой Гарри Шамом, который стал соучредителем крупнейшего исследовательского подразделения Microsoft Research Asia. Модель с открытым исходным кодом обучается на 20 миллионах отфильтрованных китайских пар изображение-текст и имеет один миллиард параметров. Некий аналог Stable Diffusion.
Любопытно посмотреть, как китайцы будут регулировать все это безобразие - ибо опыта в "регулировании" у них поболее, чем у всего остального мира.
И пока ИИ-повстанцы собирают краудфандингом деньги на создание "Stable Diffusion без цензуры", китайцы спокойно оттачивают алгоритмы регулирования нейросеток в интересах государства, а не ориентируясь на чувства верующих.
Подробнее тут:
https://techcrunch.com/2022/12/31/how-china-is-building-a-parallel-generative-ai-universe/
У них там свой зоопарк, причем довольно прокачанный и абсолютно независимый от достижений Гугла, Нвидии, OpenAI, StabilityAI и прочих Midjourney.
Baidu, зарекомендовавшая себя в поисковых системах и в последние годы активизировавшая свою деятельность в области автономного вождения, использует ERNIE-ViLG (про которую я уже писал), модель с 10 миллиардами параметров, обученную на наборе данных из 145 миллионов китайских пар изображения и текста.
Different Dimension Me (из предыдущего поста) от Tencent умеет превращать фотографии людей в персонажей аниме. Предназначенный для китайских пользователей, он неожиданно стал популярен в других регионах, где любят аниме, таких как Южная Америка.
Другой китайской моделью преобразования текста в изображение является Taiyi, детище IDEA, исследовательской лаборатории, возглавляемой Гарри Шамом, который стал соучредителем крупнейшего исследовательского подразделения Microsoft Research Asia. Модель с открытым исходным кодом обучается на 20 миллионах отфильтрованных китайских пар изображение-текст и имеет один миллиард параметров. Некий аналог Stable Diffusion.
Любопытно посмотреть, как китайцы будут регулировать все это безобразие - ибо опыта в "регулировании" у них поболее, чем у всего остального мира.
И пока ИИ-повстанцы собирают краудфандингом деньги на создание "Stable Diffusion без цензуры", китайцы спокойно оттачивают алгоритмы регулирования нейросеток в интересах государства, а не ориентируясь на чувства верующих.
Подробнее тут:
https://techcrunch.com/2022/12/31/how-china-is-building-a-parallel-generative-ai-universe/
👍9🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
Ну что, за аниматоров в этом году еще не выпивали.
Открываете Блендер и ну орать на своих персонажей "Упал-отжался".
А они, такие, послушные - падают и отжимаются.
Вы им текст, они вам анимацию.
Профит.
Открываем курсы красноречивости для бывших аниматоров!
https://www.youtube.com/watch?v=pTkn2qWfc60
Открываете Блендер и ну орать на своих персонажей "Упал-отжался".
А они, такие, послушные - падают и отжимаются.
Вы им текст, они вам анимацию.
Профит.
Открываем курсы красноречивости для бывших аниматоров!
https://www.youtube.com/watch?v=pTkn2qWfc60
🔥17👍13
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанка вам на ночь.
Вы думаете вот эти робопсы только на выставках и корпоративах появляются?
Нет, они ждут своего часа в подвалах лабораторий, где перешедшие на сторону ИИ кожаные тестируют их для дальнейшего использования.
Тварь Unitree Go1 — это робот-собака нового поколения, способная развивать скорость до 17 км/ч, с адаптивными шарнирами и интеллектуальной системой бокового зрения.
Когда эти твари начнут сбиваться в стаи, вы пожалеете, что развешивали лозунги NoAI на стенах артстейшена.
https://twitter.com/rainmaker1973/status/1540643332304633856
Вы думаете вот эти робопсы только на выставках и корпоративах появляются?
Нет, они ждут своего часа в подвалах лабораторий, где перешедшие на сторону ИИ кожаные тестируют их для дальнейшего использования.
Тварь Unitree Go1 — это робот-собака нового поколения, способная развивать скорость до 17 км/ч, с адаптивными шарнирами и интеллектуальной системой бокового зрения.
Когда эти твари начнут сбиваться в стаи, вы пожалеете, что развешивали лозунги NoAI на стенах артстейшена.
https://twitter.com/rainmaker1973/status/1540643332304633856
🔥46👍8
Для подкастеров и тюберов.
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Adobe
Enhance Speech from Adobe | Free AI filter for cleaning up spoken audio
This AI audio filter improves spoken audio to make it sound like it was recorded in a soundproofed studio.
🔥51👎1
Интернетик яростно перепечатывает новость из TheInformation, в которой сказано, что "Microsoft готовится к запуску версии своей поисковой системы Bing, которая использует ИИ, лежащий в основе ChatGPT, для ответа на некоторые поисковые запросы, а не просто для отображения списка ссылок, по словам двух человек, непосредственно знакомых с планами. Microsoft надеется, что новая функция, которая может быть запущена до конца марта, поможет ей обойти Google".
Новость вызывает ОЧЕНЬ много вопросов. Но общий тренд прослеживается - в 2019 году Микрософт вонзила миллиард долларов и в 2022 году начинает получать возврат инвестиций. Они уже анонсировали встраивание DALLE2 и в Bing, и в другие продукты (хозяин-барин теперь). А теперь вот пришла очередь chatGPT.
Мир больше не будет прежним - ИИ будет вашим добрым советчиком, от которого нельзя отказаться. Ибо Гугль тоже приподохренел от возможностей chatGPT и пилит симметричный (или ассимметичный) ответ опенэйайю.
https://www.theverge.com/2023/1/4/23538552/microsoft-bing-chatgpt-search-google-competition
Новость вызывает ОЧЕНЬ много вопросов. Но общий тренд прослеживается - в 2019 году Микрософт вонзила миллиард долларов и в 2022 году начинает получать возврат инвестиций. Они уже анонсировали встраивание DALLE2 и в Bing, и в другие продукты (хозяин-барин теперь). А теперь вот пришла очередь chatGPT.
Мир больше не будет прежним - ИИ будет вашим добрым советчиком, от которого нельзя отказаться. Ибо Гугль тоже приподохренел от возможностей chatGPT и пилит симметричный (или ассимметичный) ответ опенэйайю.
https://www.theverge.com/2023/1/4/23538552/microsoft-bing-chatgpt-search-google-competition
The Verge
Microsoft to challenge Google by integrating ChatGPT with Bing search
ChatGPT could make Bing search results more humanlike.
👍10🔥3
Так, пора переименовывать канал.
CBInsights провели в декабре голосовалку в Твитторе и попросили ответить подписчиков на вопрос, кто будет молодцом в 2023 году, а кто лузером.
"Survey: Who are 2023's winners & losers going to be"
Так вот один из самых бодрых молодцов в 2023 - это Generative AI in 2023, более 75% голосов.
А самый эпический лузер - The metaverse in 2023, 78% голосов.
Там еще много чего интересного, но эти двое - самые яркие индикаторы того, что сейчас происходит в головах инвесторов.
Так что заканчивайте детские игры в метаверс, признайтесь наконец, что король-то голый, и никто никогда не знал, во что он одет и кто он такой, и начинайте заниматься генеративным ИИ.
А я начну думать над ребрендингом.
https://twitter.com/CBinsights/status/1604419794790658048
CBInsights провели в декабре голосовалку в Твитторе и попросили ответить подписчиков на вопрос, кто будет молодцом в 2023 году, а кто лузером.
"Survey: Who are 2023's winners & losers going to be"
Так вот один из самых бодрых молодцов в 2023 - это Generative AI in 2023, более 75% голосов.
А самый эпический лузер - The metaverse in 2023, 78% голосов.
Там еще много чего интересного, но эти двое - самые яркие индикаторы того, что сейчас происходит в головах инвесторов.
Так что заканчивайте детские игры в метаверс, признайтесь наконец, что король-то голый, и никто никогда не знал, во что он одет и кто он такой, и начинайте заниматься генеративным ИИ.
А я начну думать над ребрендингом.
https://twitter.com/CBinsights/status/1604419794790658048
👍27🔥6👎1
Ну и в продолжение предыдущего поста отчет от WaveMaker: Growth Trends 2023.
Где два самых смачных вывода:
- Метаверса не существует (просто теперь так модно называть игры)
- Теперь каждый может быть художником с Генеративным ИИ наперевес
Вот с такими трендами наперевес мы и входим в 2023 год...
Полный отчет ниже.
Где два самых смачных вывода:
- Метаверса не существует (просто теперь так модно называть игры)
- Теперь каждый может быть художником с Генеративным ИИ наперевес
Вот с такими трендами наперевес мы и входим в 2023 год...
Полный отчет ниже.
🔥16👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Шикарнейшая визуализация того, как одна маленькая штучка у вас в кармане меняет целые индустрии.
История камер - пленочных, потом цифровых, так бодро взлетевших над покойной пленкой. И спикировавших обратно вниз, просто потому что фотографировать телефоном удобно. И ехать, важнее, чем шашечки и мегапиксели.
История камер - пленочных, потом цифровых, так бодро взлетевших над покойной пленкой. И спикировавших обратно вниз, просто потому что фотографировать телефоном удобно. И ехать, важнее, чем шашечки и мегапиксели.
👍33
В связи с тем, что метаверс скоро скукожится и займет свое положенное место среди игр, цифровых двойников, виарчика с эйарчиком и сайтов с 3Д-движками, брейнстормим новое название канала.
AI Addict
AI Addicts
ИИнтеллект и ИИскусство
Продолжаем в коментах.
AI Addict
AI Addicts
ИИнтеллект и ИИскусство
Продолжаем в коментах.
👍24👎4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за геймдев!
По крайней мере за геймдев 80-90ых, не чокаясь.
Тут вот ребятки просто просят chatGPT сгенерить им код игры Pong, и ИИ - вжух - и генерит.
Причем он даже может сгенерить html-код. Я скачал html-файл, он запускается в Хроме без проблем.
Еще раз, для тех, кто не в курсе:
- ИИ, сделай мне html-код игры
- Апажалста
Вот тут подробный разбор одного кейса:
https://psc-g.github.io/posts/misc/pongday/
"first working prototype took 5 mins!"
Вот тут описание второго кейса:
https://twitter.com/rmcdaniel_/status/1610031358595801092
This is a game that AI made on the fly (with its own AI)
Html-код можно скачать тут:
https://t.co/5ysS6AbTGw
По крайней мере за геймдев 80-90ых, не чокаясь.
Тут вот ребятки просто просят chatGPT сгенерить им код игры Pong, и ИИ - вжух - и генерит.
Причем он даже может сгенерить html-код. Я скачал html-файл, он запускается в Хроме без проблем.
Еще раз, для тех, кто не в курсе:
- ИИ, сделай мне html-код игры
- Апажалста
Вот тут подробный разбор одного кейса:
https://psc-g.github.io/posts/misc/pongday/
"first working prototype took 5 mins!"
Вот тут описание второго кейса:
https://twitter.com/rmcdaniel_/status/1610031358595801092
This is a game that AI made on the fly (with its own AI)
Html-код можно скачать тут:
https://t.co/5ysS6AbTGw
🔥41
Ахтунг! Битва людей против машин перешла в активную фазу.
Кожаные реально хотят извести ИИ!
На Гитхабе забанили самый лучший и продвинутый UI для Stable Diffusion под названием AUTOMATIC1111!
Автор уходит в подполье на ГитГид тут:
https://www.reddit.com/r/StableDiffusion/comments/103vsm2/webuis_new_home/
https://news.ycombinator.com/item?id=34257818
Кожаные реально хотят извести ИИ!
На Гитхабе забанили самый лучший и продвинутый UI для Stable Diffusion под названием AUTOMATIC1111!
Автор уходит в подполье на ГитГид тут:
https://www.reddit.com/r/StableDiffusion/comments/103vsm2/webuis_new_home/
https://news.ycombinator.com/item?id=34257818
Reddit
From the StableDiffusion community on Reddit: Webui's new home
Explore this post and more from the StableDiffusion community
🔥15👍2
Ну, за Виарчик!
ASUS анонсировала Spatial Vision, «технологию 3D OLED без очков(автостереоскопическую)». Экраны, поддерживающие Spatial Vision, будут использовать комбинацию двояковыпуклой линзы и передовой технологии камеры слежения за глазами. Они отображают отдельные изображения для каждого глаза и следуют за положением вашей головы и глаз, чтобы настроить их соответствующим образом. Год назад ACER анонсировали нечто подобное.
Однако есть несколько различий между Spatial Vision от Asus и SpatialLabs от Acer. Главный из них заключается в том, что панелями Asus могут пользоваться два человека одновременно, в то время как Acer при запуске SpatialLabs ясно дала понять, что они предназначены для одного человека за раз.
Вот что пишут на Вердже:
"В остальном Spatial Vision показал себя хорошо в краткой демонстрации, которую я получил. Я вращал изображения в пространстве — частота обновления 120 Гц делала процесс плавным, а модели ощущались и выглядели очень реалистично, с невероятно реалистичными деталями. Вещи летели на меня с экрана, и я соответственно моргал и вздрагивал. Я мог двигать головой из стороны в сторону, не нарушая увиденного изображения, и мог легко переключаться между режимами 2D и 3D.
Любой контент, поддерживающий 3D (игры, видео и т. д.), технически может работать на дисплее Spatial Vision. "
Вот что Asus сами говорят о Spatial Vision:
"Эти невероятные OLED-дисплеи предлагают коэффициент контрастности 1 000 000:1, время отклика 0,2 мс и частоту обновления 120 Гц для плавного изображения — и все это при минимальных перекрестных помехах для максимально плавного просмотра. Они также предлагают большой потенциал для быстро растущих приложений метаверсов. Эта технология 3D OLED без очков интегрируется с эксклюзивными приложениями в ASUS Spatial Vision Hub, что позволяет пользователям смотреть 3D-видео и фильмы, играть в 3D-игры и наслаждаться визуализацией 3D-моделей или созданием контента, а также предлагает неограниченный потенциал для разработчиков. строят собственные экосистемы."
И все это на ноутбуках!
Ждем такого же на телефонах....
https://www.theverge.com/2023/1/4/23538759/asus-debuts-an-impressive-glasses-free-3d-display-on-its-new-vivobook-pro
ASUS анонсировала Spatial Vision, «технологию 3D OLED без очков(автостереоскопическую)». Экраны, поддерживающие Spatial Vision, будут использовать комбинацию двояковыпуклой линзы и передовой технологии камеры слежения за глазами. Они отображают отдельные изображения для каждого глаза и следуют за положением вашей головы и глаз, чтобы настроить их соответствующим образом. Год назад ACER анонсировали нечто подобное.
Однако есть несколько различий между Spatial Vision от Asus и SpatialLabs от Acer. Главный из них заключается в том, что панелями Asus могут пользоваться два человека одновременно, в то время как Acer при запуске SpatialLabs ясно дала понять, что они предназначены для одного человека за раз.
Вот что пишут на Вердже:
"В остальном Spatial Vision показал себя хорошо в краткой демонстрации, которую я получил. Я вращал изображения в пространстве — частота обновления 120 Гц делала процесс плавным, а модели ощущались и выглядели очень реалистично, с невероятно реалистичными деталями. Вещи летели на меня с экрана, и я соответственно моргал и вздрагивал. Я мог двигать головой из стороны в сторону, не нарушая увиденного изображения, и мог легко переключаться между режимами 2D и 3D.
Любой контент, поддерживающий 3D (игры, видео и т. д.), технически может работать на дисплее Spatial Vision. "
Вот что Asus сами говорят о Spatial Vision:
"Эти невероятные OLED-дисплеи предлагают коэффициент контрастности 1 000 000:1, время отклика 0,2 мс и частоту обновления 120 Гц для плавного изображения — и все это при минимальных перекрестных помехах для максимально плавного просмотра. Они также предлагают большой потенциал для быстро растущих приложений метаверсов. Эта технология 3D OLED без очков интегрируется с эксклюзивными приложениями в ASUS Spatial Vision Hub, что позволяет пользователям смотреть 3D-видео и фильмы, играть в 3D-игры и наслаждаться визуализацией 3D-моделей или созданием контента, а также предлагает неограниченный потенциал для разработчиков. строят собственные экосистемы."
И все это на ноутбуках!
Ждем такого же на телефонах....
https://www.theverge.com/2023/1/4/23538759/asus-debuts-an-impressive-glasses-free-3d-display-on-its-new-vivobook-pro
The Verge
Asus debuts an impressive (glasses-free) 3D display on its new Vivobook Pro
It delivers a shockingly realistic 3D image.
👍25👎2🔥1
Кожаные отступили - аккаунт AUTOMATIC1111 восстановили на ГибХабе.
Всем хороших рождественских генераций на локальных машинах.
Github has responded to my ticket. They suspended the account because some links on wiki led to sites that contained pictures that didn't align with github's values. They reinstated the account asked me to remove the links.
Всем хороших рождественских генераций на локальных машинах.
Github has responded to my ticket. They suspended the account because some links on wiki led to sites that contained pictures that didn't align with github's values. They reinstated the account asked me to remove the links.
🔥38👍5
Кожаные снова наступают!
Битва людей против машин ширится и развивается.
Есть такой нехилый сабреддит r/Art. Этакая артподстанция на реддите.
Так вот, там начали банить художников у которых работы ПОХОЖИ на ИИ_арт.
Причем доказать, что ты не ИИ модераторам довольно сложно.
В твитторе уже приподвскипает. Модераторы r/Art воще прикрыли доступ в ветку. Такая же волна перекинулась на r/Drawings.
В общем сражения идут по всем направлениям. Теперь, если ты чем-то похож на ИИ, получивглаз бан, и неважно, что ты кожаный, модераторам-луддитам твоя рожа работа не нравится.
Начинайте читать отсюда:
https://mobile.twitter.com/reddit_lies/status/1610669909842825222
Битва людей против машин ширится и развивается.
Есть такой нехилый сабреддит r/Art. Этакая артподстанция на реддите.
Так вот, там начали банить художников у которых работы ПОХОЖИ на ИИ_арт.
Причем доказать, что ты не ИИ модераторам довольно сложно.
В твитторе уже приподвскипает. Модераторы r/Art воще прикрыли доступ в ветку. Такая же волна перекинулась на r/Drawings.
В общем сражения идут по всем направлениям. Теперь, если ты чем-то похож на ИИ, получи
Начинайте читать отсюда:
https://mobile.twitter.com/reddit_lies/status/1610669909842825222
🔥39👎7👍6