Метаверсище и ИИще
49.1K subscribers
6.08K photos
4.64K videos
47 files
6.99K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Как проагрейдить ноут с 3080ti до 4090 и увеличить производительность в 4 раза.
История от подписчика (Дима Носик)

Весной купил ноутбук на базе процессора i9-12900HK озу 64GB и видеокарты 3080ti 16Gb. Этого мне вполне хватало. Он по тестам обходил среднестатистическую рабочую станцию. Как только вышла RTX 4090 оооочень захотелось получить мощь этой видеокарты. Но не хотелось за стационарный комп… да и скорость моего процессора меня устраивает. Bот я решил ноут проапгрейдить до 4090 подключив внешний блок через thunderbolt. Блок питания во внешнем блоке я присмотрел 650 ватт и это только для видеокарты. Я подумал, что этого вполне достаточно. Скатался в район Дэйра(Дубай) и купил у местных торговцев 4090. Ну и сразу обнаружил что у мне нужно три 8-пиновых разъема, а у меня из блока шло только два.
Ну пришлось у местных индусов побегал поспрашивать есть ли разветвитель, но как оказалось ничего нет. Я накупил каких то переходников и из них собрал разветвитель с одного на два 8-пиновых питателя. Воткнул и все заработало..
Первое что запустил это Unreal Engine. На сложных сценах все прям по фпс в два раза выросло. Решил сделать тест в V-RAY GPU рендер, взял сцену высчитал на 3080ti мне дало 180 секунд и ту же сцену поставил считаться на RTX 4090 и результат меня порадовал 54 секунды, учитывая что 20 секунд на цпу шла подготовка сцены… Ну прям дикий восторг, учитывая что видеокарта подключена по thunderbolt 3 … теперь у меня собой маленькая рендер ферма переносная

P.S. ребята с последними процами и гигантскими системникамии с 3090 сейчас рыдали... у них сцена в синеме в редшифт рендере считалась 9 минут 20 секунд у меня на ноутбуке 3 минуты 59 секунд.
🔥48👍8
Завтра занимаемся любимым делом. Исследуем кожаные мозги. IT-средствами.

Кто на Кипре, заходите, у нас новая площадка.

Вы, наверное уже видели много приложений, "измеряющих" ваше состояние. Что у них "под капотом", где там наука и медтех, а где плацебо и профанация? 🔮

Человек самый совершенный организм-компьютер на нашей планете. Мы поговорим о том как наше тело производит энергию, как ее хранит и расходует. Измерим наши (да, да, ваши, прямо на месте) уровни энергии в реальном времени. Посмотрим как мы можем влиять на наше состояние, чтобы сделать нашу жизнь более продуктивной и насыщенной. Потом мы возьмемся за наши мозги, и увидим как разные факторы влияют на наше мышление. Также узнаем простые приемы изменения нашей мыслительной деятельности. И перейдем к тому как влияет наш дух на общее состояние.
Подробности тут:
https://t.me/paphoshub/746
👍8
Вы думали я тут шутки шучу, спиваясь на всех и каждого не чокаясь?
То, что вы не художник, еще не означает, что ИИ не придет за вами.

Meta заменит редакторов новостного раздела Facebook News ИИ-алгоритмами.

Разомнется пока на Англии:

Фейсбучек планирует прекратить курирование вкладки «Новости Великобритании » в Facebook , превратив ее в полностью автоматизированный продукт.

Под нож пойдут 15 человек, которые курировали эти новости день и ночь.

https://pressgazette.co.uk/facebook-news-tab-uk-automated/
🔥8👍5👎2
This media is not supported in your browser
VIEW IN TELEGRAM
CodeMiko обзавелась пальцами.
Юна Кан отжигает! Все это в реалтайме!
Подробности тут:
https://twitter.com/mikoverseinc/

Тему сисек раскрываем с следующем посте
🔥23
This media is not supported in your browser
VIEW IN TELEGRAM
Какой метаверс без физики сисек?!
Пока Марк городит Safety Bubbles взрослые девочки начинают и выигрывают.

CodeMiko - лучшая!
https://twitter.com/i/status/1581352935467888640
🔥20👍3👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ок. Пусть пятница будет днём сисек.

Раскрывает тему дальше.

Физика волос и сисек в одном реалтаймовом сетапе.
Поглядите на взаимодействие объектов.

И пока ботаники упарываются в Худини, городя тыщщи нод, новые нормальные влоггеры берут и делают в реалтайме.
https://youtube.com/c/CodeMiko
🔥19👎1
Open AI как бы выдал API к DALLE2.
Но не всем и не сейчас.
Пока бета для некоторого количества приближенных к телу ИИ.
В пресс релизе громкие имена типа Микрософта и приснопамятного шаттерстока, которые уже прикручивают Далле2 в свои корпоративные сервисы и продукты.

За кадром также вопрос с оплатой. АПИ-то есть, но за чей счёт будет банкет?

Или каждый call() будет стоить один кредит?
https://openai.com/blog/dall-e-api-now-available-in-public-beta/
👍4🔥3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
И просто моментально появился плагин DALL-E 2 для Photoshop! Там можно и на Stable Diffusion переключить, если очень хочется.

С понедельника будет доступно обновление https://www.flyingdog.de/sd/

@ai_newz
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
Google Presents: AI@ ‘22

Интересное новое видео с презентации от гугла, где совмещают алгоритм Phenaki и Imagen Video, с помощью объединения можно создавать прям из текстового описания видеоряд, в итоге картинка выходит цельной.
Запросы для видео примера:
Синий шарик застрял в ветвях красного дерева.
Камера перемещается от дерева с одним синим шариком к входу в зоопарк.
Камера показывает вход в зоопарк.
Камера очень быстро перемещается в зоопарк.
Вид от первого лица на полет в красивом саду.
Голова жирафа появляется сбоку.
Жираф идет к дереву.
Камера приближает пасть жирафа.
Жираф подходит к ветке и срывает синий шарик.
Одиночный гелиевый синий шар с белой нитью летит к голове жирафа.
Жираф жует синий шарик рядом.
Камера поворачивается вслед за улетающим синим шаром.

Гугл на данный момент не дает доступ даже к Imagen, text2image модели схожей с Dalle 2 и Stable Diffusion. Но статьи google ai research впечатляют, вот краткий список:

Imagen - текст в изображения на диффузии

Parti - текст в изображения на VQGAN

DreamBooth - дообучение моделей с малым датасетом, сейчас по всему инету множется стартапы с DreamBooth архитектурой поверх Stable Diffusion, где в модельку SD можно закинуть себя, знакомых или даже своих животных

Imagen Video - текст в видео

Phenaki - текст в длинные видео, хотя статья анонимная, возможно это не от гугла.

И конечно же, то что я тестил последний месяц:
Dream Fields - текст в 3D, так же есть варианты обученные на SD, например, колаб Dream Fusion - 1 час на A100 и моделька готова.

Ожидаем релиза Imagen для сравнения на практике с основными сетками text2image. Если конечно когда-нибудь код и веса появятся.
👍10🔥4
Добыл цены на использование API от DALLE2.
Если вам повезло и вам дали досту к АПИ и вы прикрутили это к своему сайту, сервису, плагину, то платить вы будет "покартиночно". За каждую генерацию неведомой хтони.

Цена также зависит от разрешения генерируемых картинок. Цена изображений размером 1024×1024 пикселей будет $0,02 за картинку, 512×512 - $0,018, а 256×256 - $0,016.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Рендеринг в реалтайме #instantNeRF в Blender.

InstantNeRF от NVidia позволяет из небольшого количество фотографий собрать реалистичную 3D сцену.

Автор добавил код в Блендер и показал насколько быстро с видеокартой RTX3090 можно получать результат.
При этом зону рендеринга можно ограничивать простейшими шейпами из Блендера, в данном случае кубом. Это значительно повышает скорость рендера.

Автор надеется в скором времени оптимизировать код для возможность соединять сразу несколько сцен в одну.

Снималось все на iPhone 14 Pro Max, в 4K и 60 кадров в секунду.

Для тех у кого есть IPhone 12+ с лидаром, можно попробовать Luma AI, Nerf упакованный в мобильное приложение.
Waitlist

Все чаще нейросети и Blender будут встречаться в одном предложении.

А я пошел откладывать средства на телефон с лидаром =)
👍15🔥9
Forwarded from Физика Просто
This media is not supported in your browser
VIEW IN TELEGRAM
Как вам такое современное искусство? 😏

Цифровая анимированная картинка из синтеза Stable Diffusion и AR-трекера пространства.

ФП
🔥60👍5
Все просто взбесились. ИИ-генераторов картинок становится все больше.
Не успели мы приподофигеть от иДиффи от Нвидии, как воспоследовал жоский ответ от китайцев!
Байду выкатили Эрни - китайский монстр-генератор картинок
Как написано в китайской бумаге: "ERNIE-ViLG 2.0 значительно превосходит предыдущие модели в плане точности изображения и соответствия изображения и текста, при параллельной оценке человеком на двуязычном наборе подсказок ViLG-300." Про оценку человеком, конечно, забавно.
Но.
Как пишет Артем, это самая большая на планете модель text-2-image с 24 млрд параметров (×10 больше чем SD).
Подробности и ссылка на демо у него в посте.
https://t.me/ai_newz/1541
👍10🔥7
Китайский ответ Stable Diffusion, Midjourney, DALLE, Imagen в лице
ERNIE-ViLG
имеет несколько, скажем так, фич.
- И у него в роду свои датасеты.
- Он не умеет в английский язык.

В общедоступном демо на ХаггингФейсе промпты просто автоматически переводятся с китайского на английский и потом уже идут в глотку ИИ. Из это проистекает некоторое количество особенностей.


- Эрни ничего не знает про любимых нами знаменитостей. Наверное у него там есть китайские любимцы публики, но я, темный, кроме Джеки Чана никого не знаю.
- Соответственно, трюк с резким улучшение качества лиц, путем поминания селебов в промптах не работает.
- Перевод с китайского будет довольно сильно искажать некоторое контексты. Если вы не владеет китайским, вас ждут сюрпризы.
- И он ничего, тупицца, не знает про Грега Рутковскаго! Катастрофа!


Ну и как пример, Эрни ничего не знает про Арни.
Выше генерация по тексту "a painting of a arnold shwarzenegger, investor asking for money by tim okamura, featured on artstation, classical realism, hyper realism, chiaroscuro, fine art, cgsociety"

Пейзажи, конечно, пасторальные. Но вот с Арни нехорошо получилось. Продолжаем мучить китайское чудо...
👍13
С Джеки Чаном тоже как-то не очень. Я подсовывал в Эрни имя Джеки Чана на китайском из Вики - выдает кораблики, а Jackie Chan Face - выдает заблюренную картинку, а просто Jackie Chan получается вот так - и это в "realistic style"!
Похоже великий китайский файервол был в датасете.
🔥11