Метаверсище и ИИще
49.1K subscribers
6.08K photos
4.64K videos
47 files
6.99K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Ну и хорошим дополнением в предыдущему посту будет вот такое откровение:

По оценками правоохранительной группы Europol, к 2026 году 90% контента в интернете будет генерировать искусственный интеллект.

Я писал от этом в сентябре, но сейчас будет более, чем уместно повторить этот пост.
https://t.me/cgevent/4273
👍15
ИИ объясняет всем желающим, что же хотел сказать кожаный мешок.

Сегодня время текстовых историй, поэтому сорри за лонгриды.

Сначала история их жизни - Паша Мунтян рассказывал, как он писал кандидатскую диссертацию - научный руководитель, поглядев сказал: "материал отличный, но надо переписать это умным языком, иначе не пройдешь совет".

Знакомо? Возможно всем, кто писал "заявки", "объяснительные", "обоснования" знаком этот феномен.

В результате интернет (и не только он) наводнен заумными текстами с мегатоннами воды.
Сделать умный вид, надуть щеки, пустить пыль во все отверстия - любимое занятие кожаного мешка, холящего свою значимость.

Один лингвист и один программист взяли GPT-3 и сделали сайт Explainpaper, который понятным (обычным людям) языком объясняет разного рода научные (и не очень) статьи и тексты.

Выяснилось, что GPT, которого учили на корпусах "понятных" текстов, гораздо лучше излагает мысли, чем кожаные мешки, пытающиеся сделать умный вид. Понятнее.

И когда его просят пересказать своИИми словами всю эту заумь, он отлично справляется.

На сайте пользователи могут загрузить статью и отметить отдельные предложения или абзацы в веб-интерфейсе, которые GPT-3 затем описывает в сокращенных, идеально простых терминах. Функция чата позволяет пользователям задавать более подробные вопросы(!).

Каково?

Explainpaper uses GPT-3 davinci-002 via the everyprompt platform. The GPT-3 model has not yet been fine-tuned, but that is expected to change soon:
Команда планирует использовать 100 000 точек данных explainpaper для оптимизации GPT-3 для понятных объяснений. Данные были собраны с момента запуска сайта. Текущая версия пока не может объяснять математические функции, но эта функция также планируется в последующих версиях.

Миссия проекта - заинтересовать больше людей наукой. В настоящее время основатель и основательница работают над Pro-версией программы, которая за 10 долларов в месяц будет предлагать некоторые удобные функции, такие как сохранение работы вместе с отмеченными пунктами и пояснениями. Также будет улучшена функция чтения PDF-файлов и усовершенствована модель для более точных ответов.

В общем, ИИ выводит кожаных на чистую воду, а точнее, выводит мутную воду из заумных текстов.

https://the-decoder.com/explainpaper-gpt-3-app-explains-complex-science-in-simple-terms/

https://twitter.com/amanjha__/status/1584628485510733825

https://www.explainpaper.com/

https://www.everyprompt.com/
👍26🔥16
Как проагрейдить ноут с 3080ti до 4090 и увеличить производительность в 4 раза.
История от подписчика (Дима Носик)

Весной купил ноутбук на базе процессора i9-12900HK озу 64GB и видеокарты 3080ti 16Gb. Этого мне вполне хватало. Он по тестам обходил среднестатистическую рабочую станцию. Как только вышла RTX 4090 оооочень захотелось получить мощь этой видеокарты. Но не хотелось за стационарный комп… да и скорость моего процессора меня устраивает. Bот я решил ноут проапгрейдить до 4090 подключив внешний блок через thunderbolt. Блок питания во внешнем блоке я присмотрел 650 ватт и это только для видеокарты. Я подумал, что этого вполне достаточно. Скатался в район Дэйра(Дубай) и купил у местных торговцев 4090. Ну и сразу обнаружил что у мне нужно три 8-пиновых разъема, а у меня из блока шло только два.
Ну пришлось у местных индусов побегал поспрашивать есть ли разветвитель, но как оказалось ничего нет. Я накупил каких то переходников и из них собрал разветвитель с одного на два 8-пиновых питателя. Воткнул и все заработало..
Первое что запустил это Unreal Engine. На сложных сценах все прям по фпс в два раза выросло. Решил сделать тест в V-RAY GPU рендер, взял сцену высчитал на 3080ti мне дало 180 секунд и ту же сцену поставил считаться на RTX 4090 и результат меня порадовал 54 секунды, учитывая что 20 секунд на цпу шла подготовка сцены… Ну прям дикий восторг, учитывая что видеокарта подключена по thunderbolt 3 … теперь у меня собой маленькая рендер ферма переносная

P.S. ребята с последними процами и гигантскими системникамии с 3090 сейчас рыдали... у них сцена в синеме в редшифт рендере считалась 9 минут 20 секунд у меня на ноутбуке 3 минуты 59 секунд.
🔥48👍8
Завтра занимаемся любимым делом. Исследуем кожаные мозги. IT-средствами.

Кто на Кипре, заходите, у нас новая площадка.

Вы, наверное уже видели много приложений, "измеряющих" ваше состояние. Что у них "под капотом", где там наука и медтех, а где плацебо и профанация? 🔮

Человек самый совершенный организм-компьютер на нашей планете. Мы поговорим о том как наше тело производит энергию, как ее хранит и расходует. Измерим наши (да, да, ваши, прямо на месте) уровни энергии в реальном времени. Посмотрим как мы можем влиять на наше состояние, чтобы сделать нашу жизнь более продуктивной и насыщенной. Потом мы возьмемся за наши мозги, и увидим как разные факторы влияют на наше мышление. Также узнаем простые приемы изменения нашей мыслительной деятельности. И перейдем к тому как влияет наш дух на общее состояние.
Подробности тут:
https://t.me/paphoshub/746
👍8
Вы думали я тут шутки шучу, спиваясь на всех и каждого не чокаясь?
То, что вы не художник, еще не означает, что ИИ не придет за вами.

Meta заменит редакторов новостного раздела Facebook News ИИ-алгоритмами.

Разомнется пока на Англии:

Фейсбучек планирует прекратить курирование вкладки «Новости Великобритании » в Facebook , превратив ее в полностью автоматизированный продукт.

Под нож пойдут 15 человек, которые курировали эти новости день и ночь.

https://pressgazette.co.uk/facebook-news-tab-uk-automated/
🔥8👍5👎2
This media is not supported in your browser
VIEW IN TELEGRAM
CodeMiko обзавелась пальцами.
Юна Кан отжигает! Все это в реалтайме!
Подробности тут:
https://twitter.com/mikoverseinc/

Тему сисек раскрываем с следующем посте
🔥23
This media is not supported in your browser
VIEW IN TELEGRAM
Какой метаверс без физики сисек?!
Пока Марк городит Safety Bubbles взрослые девочки начинают и выигрывают.

CodeMiko - лучшая!
https://twitter.com/i/status/1581352935467888640
🔥20👍3👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну ок. Пусть пятница будет днём сисек.

Раскрывает тему дальше.

Физика волос и сисек в одном реалтаймовом сетапе.
Поглядите на взаимодействие объектов.

И пока ботаники упарываются в Худини, городя тыщщи нод, новые нормальные влоггеры берут и делают в реалтайме.
https://youtube.com/c/CodeMiko
🔥19👎1
Open AI как бы выдал API к DALLE2.
Но не всем и не сейчас.
Пока бета для некоторого количества приближенных к телу ИИ.
В пресс релизе громкие имена типа Микрософта и приснопамятного шаттерстока, которые уже прикручивают Далле2 в свои корпоративные сервисы и продукты.

За кадром также вопрос с оплатой. АПИ-то есть, но за чей счёт будет банкет?

Или каждый call() будет стоить один кредит?
https://openai.com/blog/dall-e-api-now-available-in-public-beta/
👍4🔥3
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
И просто моментально появился плагин DALL-E 2 для Photoshop! Там можно и на Stable Diffusion переключить, если очень хочется.

С понедельника будет доступно обновление https://www.flyingdog.de/sd/

@ai_newz
👍17
This media is not supported in your browser
VIEW IN TELEGRAM
Google Presents: AI@ ‘22

Интересное новое видео с презентации от гугла, где совмещают алгоритм Phenaki и Imagen Video, с помощью объединения можно создавать прям из текстового описания видеоряд, в итоге картинка выходит цельной.
Запросы для видео примера:
Синий шарик застрял в ветвях красного дерева.
Камера перемещается от дерева с одним синим шариком к входу в зоопарк.
Камера показывает вход в зоопарк.
Камера очень быстро перемещается в зоопарк.
Вид от первого лица на полет в красивом саду.
Голова жирафа появляется сбоку.
Жираф идет к дереву.
Камера приближает пасть жирафа.
Жираф подходит к ветке и срывает синий шарик.
Одиночный гелиевый синий шар с белой нитью летит к голове жирафа.
Жираф жует синий шарик рядом.
Камера поворачивается вслед за улетающим синим шаром.

Гугл на данный момент не дает доступ даже к Imagen, text2image модели схожей с Dalle 2 и Stable Diffusion. Но статьи google ai research впечатляют, вот краткий список:

Imagen - текст в изображения на диффузии

Parti - текст в изображения на VQGAN

DreamBooth - дообучение моделей с малым датасетом, сейчас по всему инету множется стартапы с DreamBooth архитектурой поверх Stable Diffusion, где в модельку SD можно закинуть себя, знакомых или даже своих животных

Imagen Video - текст в видео

Phenaki - текст в длинные видео, хотя статья анонимная, возможно это не от гугла.

И конечно же, то что я тестил последний месяц:
Dream Fields - текст в 3D, так же есть варианты обученные на SD, например, колаб Dream Fusion - 1 час на A100 и моделька готова.

Ожидаем релиза Imagen для сравнения на практике с основными сетками text2image. Если конечно когда-нибудь код и веса появятся.
👍10🔥4
Добыл цены на использование API от DALLE2.
Если вам повезло и вам дали досту к АПИ и вы прикрутили это к своему сайту, сервису, плагину, то платить вы будет "покартиночно". За каждую генерацию неведомой хтони.

Цена также зависит от разрешения генерируемых картинок. Цена изображений размером 1024×1024 пикселей будет $0,02 за картинку, 512×512 - $0,018, а 256×256 - $0,016.
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Рендеринг в реалтайме #instantNeRF в Blender.

InstantNeRF от NVidia позволяет из небольшого количество фотографий собрать реалистичную 3D сцену.

Автор добавил код в Блендер и показал насколько быстро с видеокартой RTX3090 можно получать результат.
При этом зону рендеринга можно ограничивать простейшими шейпами из Блендера, в данном случае кубом. Это значительно повышает скорость рендера.

Автор надеется в скором времени оптимизировать код для возможность соединять сразу несколько сцен в одну.

Снималось все на iPhone 14 Pro Max, в 4K и 60 кадров в секунду.

Для тех у кого есть IPhone 12+ с лидаром, можно попробовать Luma AI, Nerf упакованный в мобильное приложение.
Waitlist

Все чаще нейросети и Blender будут встречаться в одном предложении.

А я пошел откладывать средства на телефон с лидаром =)
👍15🔥9
Forwarded from Физика Просто
This media is not supported in your browser
VIEW IN TELEGRAM
Как вам такое современное искусство? 😏

Цифровая анимированная картинка из синтеза Stable Diffusion и AR-трекера пространства.

ФП
🔥60👍5
Все просто взбесились. ИИ-генераторов картинок становится все больше.
Не успели мы приподофигеть от иДиффи от Нвидии, как воспоследовал жоский ответ от китайцев!
Байду выкатили Эрни - китайский монстр-генератор картинок
Как написано в китайской бумаге: "ERNIE-ViLG 2.0 значительно превосходит предыдущие модели в плане точности изображения и соответствия изображения и текста, при параллельной оценке человеком на двуязычном наборе подсказок ViLG-300." Про оценку человеком, конечно, забавно.
Но.
Как пишет Артем, это самая большая на планете модель text-2-image с 24 млрд параметров (×10 больше чем SD).
Подробности и ссылка на демо у него в посте.
https://t.me/ai_newz/1541
👍10🔥7
Китайский ответ Stable Diffusion, Midjourney, DALLE, Imagen в лице
ERNIE-ViLG
имеет несколько, скажем так, фич.
- И у него в роду свои датасеты.
- Он не умеет в английский язык.

В общедоступном демо на ХаггингФейсе промпты просто автоматически переводятся с китайского на английский и потом уже идут в глотку ИИ. Из это проистекает некоторое количество особенностей.


- Эрни ничего не знает про любимых нами знаменитостей. Наверное у него там есть китайские любимцы публики, но я, темный, кроме Джеки Чана никого не знаю.
- Соответственно, трюк с резким улучшение качества лиц, путем поминания селебов в промптах не работает.
- Перевод с китайского будет довольно сильно искажать некоторое контексты. Если вы не владеет китайским, вас ждут сюрпризы.
- И он ничего, тупицца, не знает про Грега Рутковскаго! Катастрофа!


Ну и как пример, Эрни ничего не знает про Арни.
Выше генерация по тексту "a painting of a arnold shwarzenegger, investor asking for money by tim okamura, featured on artstation, classical realism, hyper realism, chiaroscuro, fine art, cgsociety"

Пейзажи, конечно, пасторальные. Но вот с Арни нехорошо получилось. Продолжаем мучить китайское чудо...
👍13