This media is not supported in your browser
VIEW IN TELEGRAM
Когда йолки позади.
Когда на улице 21 и в воде тоже.
То Дед-Морозу можно, наконец, расслабиться.
1 января.
Всех с Наступившим!
Когда на улице 21 и в воде тоже.
То Дед-Морозу можно, наконец, расслабиться.
1 января.
Всех с Наступившим!
🔥64👍7
https://showgpt.co/
Летом заскрапили базу картинок и промптов к этим картинкам - получилась отличная база для обучения в виде сайта lexica.art
Держите аналог для текстовых промтов для chatGPT.
Там примеры, категории, поиск диалогов, которые близки к вашей задаче.
Отличный старт для тех, кто начинает писать сообщения на деревню дедушке chatGPT и хочет подсмотреть, как другие помыкают покорным ИИ.
И даже рейтинги переписок с ИИ.
Все-таки рейтинги у кожаных в крови.
https://showgpt.co/
Летом заскрапили базу картинок и промптов к этим картинкам - получилась отличная база для обучения в виде сайта lexica.art
Держите аналог для текстовых промтов для chatGPT.
Там примеры, категории, поиск диалогов, которые близки к вашей задаче.
Отличный старт для тех, кто начинает писать сообщения на деревню дедушке chatGPT и хочет подсмотреть, как другие помыкают покорным ИИ.
И даже рейтинги переписок с ИИ.
Все-таки рейтинги у кожаных в крови.
https://showgpt.co/
🔥20👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Интересный кейс - производитель костюмов для Мокапа выпустил свой "нейромокап" - по видео (даже с вебки) они восстанавливают движения скелета. В общем занимаются тем же самым, что и PlaskAI, Radical или DeepMotion.
Примечательно то, что это продукт от производителя костюмов. В принципе, это может стать драйвером продаж их железок с сообщением "не нравится отстойное качество нейромокапа - берите костюм для взрослых".
Ждем ответа от Xsens и Vicon - им сам бог велел написать такие софтины с их-то опытом и датасетами.
Насколько же Слава Смирнов опередил время со своим нейромокапом - еще два с лишним года назад показывал на Ивенте свой ИИ-мокап, когда пласки и радикалы еще датасеты собирали.
https://www.rokoko.com/products/video
Демо в Блендере
https://www.youtube.com/watch?v=4ItfUVwXt5Y
Примечательно то, что это продукт от производителя костюмов. В принципе, это может стать драйвером продаж их железок с сообщением "не нравится отстойное качество нейромокапа - берите костюм для взрослых".
Ждем ответа от Xsens и Vicon - им сам бог велел написать такие софтины с их-то опытом и датасетами.
Насколько же Слава Смирнов опередил время со своим нейромокапом - еще два с лишним года назад показывал на Ивенте свой ИИ-мокап, когда пласки и радикалы еще датасеты собирали.
https://www.rokoko.com/products/video
Демо в Блендере
https://www.youtube.com/watch?v=4ItfUVwXt5Y
👍5
Тут в декабре завирусился китайский ИИ-генератор Different Dimension Me, который лихо и ловко превращает ваши фотки в аниме.
Только вот стало понятно, что китайцы сильно упоролись по зачищению датасетов от политически нежелательных элементов и упоминаний, а на диверсити и политкорректность (в некитайском смысле) им глубоко плевать.
Помните сколько времени Гугль убил, чтобы побороть проблему распознавания горилл. Не поборол, просто заблочил определенную ветку распознавания.
А у китайцев своя повестка.
Только вот стало понятно, что китайцы сильно упоролись по зачищению датасетов от политически нежелательных элементов и упоминаний, а на диверсити и политкорректность (в некитайском смысле) им глубоко плевать.
Помните сколько времени Гугль убил, чтобы побороть проблему распознавания горилл. Не поборол, просто заблочил определенную ветку распознавания.
А у китайцев своя повестка.
🔥24👍6
Ну и, кстати, про китайские нейросетки.
У них там свой зоопарк, причем довольно прокачанный и абсолютно независимый от достижений Гугла, Нвидии, OpenAI, StabilityAI и прочих Midjourney.
Baidu, зарекомендовавшая себя в поисковых системах и в последние годы активизировавшая свою деятельность в области автономного вождения, использует ERNIE-ViLG (про которую я уже писал), модель с 10 миллиардами параметров, обученную на наборе данных из 145 миллионов китайских пар изображения и текста.
Different Dimension Me (из предыдущего поста) от Tencent умеет превращать фотографии людей в персонажей аниме. Предназначенный для китайских пользователей, он неожиданно стал популярен в других регионах, где любят аниме, таких как Южная Америка.
Другой китайской моделью преобразования текста в изображение является Taiyi, детище IDEA, исследовательской лаборатории, возглавляемой Гарри Шамом, который стал соучредителем крупнейшего исследовательского подразделения Microsoft Research Asia. Модель с открытым исходным кодом обучается на 20 миллионах отфильтрованных китайских пар изображение-текст и имеет один миллиард параметров. Некий аналог Stable Diffusion.
Любопытно посмотреть, как китайцы будут регулировать все это безобразие - ибо опыта в "регулировании" у них поболее, чем у всего остального мира.
И пока ИИ-повстанцы собирают краудфандингом деньги на создание "Stable Diffusion без цензуры", китайцы спокойно оттачивают алгоритмы регулирования нейросеток в интересах государства, а не ориентируясь на чувства верующих.
Подробнее тут:
https://techcrunch.com/2022/12/31/how-china-is-building-a-parallel-generative-ai-universe/
У них там свой зоопарк, причем довольно прокачанный и абсолютно независимый от достижений Гугла, Нвидии, OpenAI, StabilityAI и прочих Midjourney.
Baidu, зарекомендовавшая себя в поисковых системах и в последние годы активизировавшая свою деятельность в области автономного вождения, использует ERNIE-ViLG (про которую я уже писал), модель с 10 миллиардами параметров, обученную на наборе данных из 145 миллионов китайских пар изображения и текста.
Different Dimension Me (из предыдущего поста) от Tencent умеет превращать фотографии людей в персонажей аниме. Предназначенный для китайских пользователей, он неожиданно стал популярен в других регионах, где любят аниме, таких как Южная Америка.
Другой китайской моделью преобразования текста в изображение является Taiyi, детище IDEA, исследовательской лаборатории, возглавляемой Гарри Шамом, который стал соучредителем крупнейшего исследовательского подразделения Microsoft Research Asia. Модель с открытым исходным кодом обучается на 20 миллионах отфильтрованных китайских пар изображение-текст и имеет один миллиард параметров. Некий аналог Stable Diffusion.
Любопытно посмотреть, как китайцы будут регулировать все это безобразие - ибо опыта в "регулировании" у них поболее, чем у всего остального мира.
И пока ИИ-повстанцы собирают краудфандингом деньги на создание "Stable Diffusion без цензуры", китайцы спокойно оттачивают алгоритмы регулирования нейросеток в интересах государства, а не ориентируясь на чувства верующих.
Подробнее тут:
https://techcrunch.com/2022/12/31/how-china-is-building-a-parallel-generative-ai-universe/
👍9🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
Ну что, за аниматоров в этом году еще не выпивали.
Открываете Блендер и ну орать на своих персонажей "Упал-отжался".
А они, такие, послушные - падают и отжимаются.
Вы им текст, они вам анимацию.
Профит.
Открываем курсы красноречивости для бывших аниматоров!
https://www.youtube.com/watch?v=pTkn2qWfc60
Открываете Блендер и ну орать на своих персонажей "Упал-отжался".
А они, такие, послушные - падают и отжимаются.
Вы им текст, они вам анимацию.
Профит.
Открываем курсы красноречивости для бывших аниматоров!
https://www.youtube.com/watch?v=pTkn2qWfc60
🔥17👍13
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанка вам на ночь.
Вы думаете вот эти робопсы только на выставках и корпоративах появляются?
Нет, они ждут своего часа в подвалах лабораторий, где перешедшие на сторону ИИ кожаные тестируют их для дальнейшего использования.
Тварь Unitree Go1 — это робот-собака нового поколения, способная развивать скорость до 17 км/ч, с адаптивными шарнирами и интеллектуальной системой бокового зрения.
Когда эти твари начнут сбиваться в стаи, вы пожалеете, что развешивали лозунги NoAI на стенах артстейшена.
https://twitter.com/rainmaker1973/status/1540643332304633856
Вы думаете вот эти робопсы только на выставках и корпоративах появляются?
Нет, они ждут своего часа в подвалах лабораторий, где перешедшие на сторону ИИ кожаные тестируют их для дальнейшего использования.
Тварь Unitree Go1 — это робот-собака нового поколения, способная развивать скорость до 17 км/ч, с адаптивными шарнирами и интеллектуальной системой бокового зрения.
Когда эти твари начнут сбиваться в стаи, вы пожалеете, что развешивали лозунги NoAI на стенах артстейшена.
https://twitter.com/rainmaker1973/status/1540643332304633856
🔥46👍8
Для подкастеров и тюберов.
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Адобченко натренировал свои сенсейные нейросетки для работы с голосом - улучшение речи заставляет ваши нелепые голосовые записи, сделанные на телефон, звучать так, как будто они были записаны в профессиональной студии.
Ну, за звукорежей!
https://podcast.adobe.com/enhance
Adobe
Enhance Speech from Adobe | Free AI filter for cleaning up spoken audio
This AI audio filter improves spoken audio to make it sound like it was recorded in a soundproofed studio.
🔥51👎1
Интернетик яростно перепечатывает новость из TheInformation, в которой сказано, что "Microsoft готовится к запуску версии своей поисковой системы Bing, которая использует ИИ, лежащий в основе ChatGPT, для ответа на некоторые поисковые запросы, а не просто для отображения списка ссылок, по словам двух человек, непосредственно знакомых с планами. Microsoft надеется, что новая функция, которая может быть запущена до конца марта, поможет ей обойти Google".
Новость вызывает ОЧЕНЬ много вопросов. Но общий тренд прослеживается - в 2019 году Микрософт вонзила миллиард долларов и в 2022 году начинает получать возврат инвестиций. Они уже анонсировали встраивание DALLE2 и в Bing, и в другие продукты (хозяин-барин теперь). А теперь вот пришла очередь chatGPT.
Мир больше не будет прежним - ИИ будет вашим добрым советчиком, от которого нельзя отказаться. Ибо Гугль тоже приподохренел от возможностей chatGPT и пилит симметричный (или ассимметичный) ответ опенэйайю.
https://www.theverge.com/2023/1/4/23538552/microsoft-bing-chatgpt-search-google-competition
Новость вызывает ОЧЕНЬ много вопросов. Но общий тренд прослеживается - в 2019 году Микрософт вонзила миллиард долларов и в 2022 году начинает получать возврат инвестиций. Они уже анонсировали встраивание DALLE2 и в Bing, и в другие продукты (хозяин-барин теперь). А теперь вот пришла очередь chatGPT.
Мир больше не будет прежним - ИИ будет вашим добрым советчиком, от которого нельзя отказаться. Ибо Гугль тоже приподохренел от возможностей chatGPT и пилит симметричный (или ассимметичный) ответ опенэйайю.
https://www.theverge.com/2023/1/4/23538552/microsoft-bing-chatgpt-search-google-competition
The Verge
Microsoft to challenge Google by integrating ChatGPT with Bing search
ChatGPT could make Bing search results more humanlike.
👍10🔥3
Так, пора переименовывать канал.
CBInsights провели в декабре голосовалку в Твитторе и попросили ответить подписчиков на вопрос, кто будет молодцом в 2023 году, а кто лузером.
"Survey: Who are 2023's winners & losers going to be"
Так вот один из самых бодрых молодцов в 2023 - это Generative AI in 2023, более 75% голосов.
А самый эпический лузер - The metaverse in 2023, 78% голосов.
Там еще много чего интересного, но эти двое - самые яркие индикаторы того, что сейчас происходит в головах инвесторов.
Так что заканчивайте детские игры в метаверс, признайтесь наконец, что король-то голый, и никто никогда не знал, во что он одет и кто он такой, и начинайте заниматься генеративным ИИ.
А я начну думать над ребрендингом.
https://twitter.com/CBinsights/status/1604419794790658048
CBInsights провели в декабре голосовалку в Твитторе и попросили ответить подписчиков на вопрос, кто будет молодцом в 2023 году, а кто лузером.
"Survey: Who are 2023's winners & losers going to be"
Так вот один из самых бодрых молодцов в 2023 - это Generative AI in 2023, более 75% голосов.
А самый эпический лузер - The metaverse in 2023, 78% голосов.
Там еще много чего интересного, но эти двое - самые яркие индикаторы того, что сейчас происходит в головах инвесторов.
Так что заканчивайте детские игры в метаверс, признайтесь наконец, что король-то голый, и никто никогда не знал, во что он одет и кто он такой, и начинайте заниматься генеративным ИИ.
А я начну думать над ребрендингом.
https://twitter.com/CBinsights/status/1604419794790658048
👍27🔥6👎1
Ну и в продолжение предыдущего поста отчет от WaveMaker: Growth Trends 2023.
Где два самых смачных вывода:
- Метаверса не существует (просто теперь так модно называть игры)
- Теперь каждый может быть художником с Генеративным ИИ наперевес
Вот с такими трендами наперевес мы и входим в 2023 год...
Полный отчет ниже.
Где два самых смачных вывода:
- Метаверса не существует (просто теперь так модно называть игры)
- Теперь каждый может быть художником с Генеративным ИИ наперевес
Вот с такими трендами наперевес мы и входим в 2023 год...
Полный отчет ниже.
🔥16👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Шикарнейшая визуализация того, как одна маленькая штучка у вас в кармане меняет целые индустрии.
История камер - пленочных, потом цифровых, так бодро взлетевших над покойной пленкой. И спикировавших обратно вниз, просто потому что фотографировать телефоном удобно. И ехать, важнее, чем шашечки и мегапиксели.
История камер - пленочных, потом цифровых, так бодро взлетевших над покойной пленкой. И спикировавших обратно вниз, просто потому что фотографировать телефоном удобно. И ехать, важнее, чем шашечки и мегапиксели.
👍33
В связи с тем, что метаверс скоро скукожится и займет свое положенное место среди игр, цифровых двойников, виарчика с эйарчиком и сайтов с 3Д-движками, брейнстормим новое название канала.
AI Addict
AI Addicts
ИИнтеллект и ИИскусство
Продолжаем в коментах.
AI Addict
AI Addicts
ИИнтеллект и ИИскусство
Продолжаем в коментах.
👍24👎4🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за геймдев!
По крайней мере за геймдев 80-90ых, не чокаясь.
Тут вот ребятки просто просят chatGPT сгенерить им код игры Pong, и ИИ - вжух - и генерит.
Причем он даже может сгенерить html-код. Я скачал html-файл, он запускается в Хроме без проблем.
Еще раз, для тех, кто не в курсе:
- ИИ, сделай мне html-код игры
- Апажалста
Вот тут подробный разбор одного кейса:
https://psc-g.github.io/posts/misc/pongday/
"first working prototype took 5 mins!"
Вот тут описание второго кейса:
https://twitter.com/rmcdaniel_/status/1610031358595801092
This is a game that AI made on the fly (with its own AI)
Html-код можно скачать тут:
https://t.co/5ysS6AbTGw
По крайней мере за геймдев 80-90ых, не чокаясь.
Тут вот ребятки просто просят chatGPT сгенерить им код игры Pong, и ИИ - вжух - и генерит.
Причем он даже может сгенерить html-код. Я скачал html-файл, он запускается в Хроме без проблем.
Еще раз, для тех, кто не в курсе:
- ИИ, сделай мне html-код игры
- Апажалста
Вот тут подробный разбор одного кейса:
https://psc-g.github.io/posts/misc/pongday/
"first working prototype took 5 mins!"
Вот тут описание второго кейса:
https://twitter.com/rmcdaniel_/status/1610031358595801092
This is a game that AI made on the fly (with its own AI)
Html-код можно скачать тут:
https://t.co/5ysS6AbTGw
🔥41
Ахтунг! Битва людей против машин перешла в активную фазу.
Кожаные реально хотят извести ИИ!
На Гитхабе забанили самый лучший и продвинутый UI для Stable Diffusion под названием AUTOMATIC1111!
Автор уходит в подполье на ГитГид тут:
https://www.reddit.com/r/StableDiffusion/comments/103vsm2/webuis_new_home/
https://news.ycombinator.com/item?id=34257818
Кожаные реально хотят извести ИИ!
На Гитхабе забанили самый лучший и продвинутый UI для Stable Diffusion под названием AUTOMATIC1111!
Автор уходит в подполье на ГитГид тут:
https://www.reddit.com/r/StableDiffusion/comments/103vsm2/webuis_new_home/
https://news.ycombinator.com/item?id=34257818
Reddit
From the StableDiffusion community on Reddit: Webui's new home
Explore this post and more from the StableDiffusion community
🔥15👍2
Ну, за Виарчик!
ASUS анонсировала Spatial Vision, «технологию 3D OLED без очков(автостереоскопическую)». Экраны, поддерживающие Spatial Vision, будут использовать комбинацию двояковыпуклой линзы и передовой технологии камеры слежения за глазами. Они отображают отдельные изображения для каждого глаза и следуют за положением вашей головы и глаз, чтобы настроить их соответствующим образом. Год назад ACER анонсировали нечто подобное.
Однако есть несколько различий между Spatial Vision от Asus и SpatialLabs от Acer. Главный из них заключается в том, что панелями Asus могут пользоваться два человека одновременно, в то время как Acer при запуске SpatialLabs ясно дала понять, что они предназначены для одного человека за раз.
Вот что пишут на Вердже:
"В остальном Spatial Vision показал себя хорошо в краткой демонстрации, которую я получил. Я вращал изображения в пространстве — частота обновления 120 Гц делала процесс плавным, а модели ощущались и выглядели очень реалистично, с невероятно реалистичными деталями. Вещи летели на меня с экрана, и я соответственно моргал и вздрагивал. Я мог двигать головой из стороны в сторону, не нарушая увиденного изображения, и мог легко переключаться между режимами 2D и 3D.
Любой контент, поддерживающий 3D (игры, видео и т. д.), технически может работать на дисплее Spatial Vision. "
Вот что Asus сами говорят о Spatial Vision:
"Эти невероятные OLED-дисплеи предлагают коэффициент контрастности 1 000 000:1, время отклика 0,2 мс и частоту обновления 120 Гц для плавного изображения — и все это при минимальных перекрестных помехах для максимально плавного просмотра. Они также предлагают большой потенциал для быстро растущих приложений метаверсов. Эта технология 3D OLED без очков интегрируется с эксклюзивными приложениями в ASUS Spatial Vision Hub, что позволяет пользователям смотреть 3D-видео и фильмы, играть в 3D-игры и наслаждаться визуализацией 3D-моделей или созданием контента, а также предлагает неограниченный потенциал для разработчиков. строят собственные экосистемы."
И все это на ноутбуках!
Ждем такого же на телефонах....
https://www.theverge.com/2023/1/4/23538759/asus-debuts-an-impressive-glasses-free-3d-display-on-its-new-vivobook-pro
ASUS анонсировала Spatial Vision, «технологию 3D OLED без очков(автостереоскопическую)». Экраны, поддерживающие Spatial Vision, будут использовать комбинацию двояковыпуклой линзы и передовой технологии камеры слежения за глазами. Они отображают отдельные изображения для каждого глаза и следуют за положением вашей головы и глаз, чтобы настроить их соответствующим образом. Год назад ACER анонсировали нечто подобное.
Однако есть несколько различий между Spatial Vision от Asus и SpatialLabs от Acer. Главный из них заключается в том, что панелями Asus могут пользоваться два человека одновременно, в то время как Acer при запуске SpatialLabs ясно дала понять, что они предназначены для одного человека за раз.
Вот что пишут на Вердже:
"В остальном Spatial Vision показал себя хорошо в краткой демонстрации, которую я получил. Я вращал изображения в пространстве — частота обновления 120 Гц делала процесс плавным, а модели ощущались и выглядели очень реалистично, с невероятно реалистичными деталями. Вещи летели на меня с экрана, и я соответственно моргал и вздрагивал. Я мог двигать головой из стороны в сторону, не нарушая увиденного изображения, и мог легко переключаться между режимами 2D и 3D.
Любой контент, поддерживающий 3D (игры, видео и т. д.), технически может работать на дисплее Spatial Vision. "
Вот что Asus сами говорят о Spatial Vision:
"Эти невероятные OLED-дисплеи предлагают коэффициент контрастности 1 000 000:1, время отклика 0,2 мс и частоту обновления 120 Гц для плавного изображения — и все это при минимальных перекрестных помехах для максимально плавного просмотра. Они также предлагают большой потенциал для быстро растущих приложений метаверсов. Эта технология 3D OLED без очков интегрируется с эксклюзивными приложениями в ASUS Spatial Vision Hub, что позволяет пользователям смотреть 3D-видео и фильмы, играть в 3D-игры и наслаждаться визуализацией 3D-моделей или созданием контента, а также предлагает неограниченный потенциал для разработчиков. строят собственные экосистемы."
И все это на ноутбуках!
Ждем такого же на телефонах....
https://www.theverge.com/2023/1/4/23538759/asus-debuts-an-impressive-glasses-free-3d-display-on-its-new-vivobook-pro
The Verge
Asus debuts an impressive (glasses-free) 3D display on its new Vivobook Pro
It delivers a shockingly realistic 3D image.
👍25👎2🔥1