Метаверсище и ИИще
46.8K subscribers
5.94K photos
4.36K videos
45 files
6.82K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Сэм заговорил лозунгами.
Ждём пояснительную бригаду.


У нас больше единства, приверженности и сосредоточенности, чем когда-либо прежде.

Мы все так или иначе будем работать вместе, и я очень рад этому.

Одна команда, одна миссия.


https://x.com/sama/status/1726668687577665572

Микрософт пожрал всех с потрохами или OpenAI Reloaded?
👍41🔥3
A social path to human-like artificial intelligence

Мы тут со Степой приподобсудили свежую статью от DeepMind на тему социальной эволюции человекоподобного(!) ИИ.

Прежде всего там идет разговор про генерацию новизны. Той самой, про которую вы тут все орете: "да он ничего сам не может, только копирует из датасетов".

И там как раз обсуждается создание агентов, которые будут не только юзать данные из датасетов, а сами генерить новые данные и на них учиться. Этакая коллективная синтетика на стероидах агентности.

Это может привести к тому, что начнется именно эволюция, а не хождения по кругу, галлюцинации или вранье, которым сейчас грешат ЛЛМ, обученные на фиксированном датасете.
Датасеты и агенты будут развиваться сами, подпитывая друг друга и в этом силиконовом бульоне может зародиться что? Правильно, новая форма жизни.

И тут много вопросов, ибо это может быть инопланетянин со своими интересами, или простой вирус с одной лишь функцией максимального выживания (превед ковИИд), или то, что мы просто не сможем даже немного понять, своими скудными умишками.

Есть надежда, что коль скоро в изначальных датасетах содержится весь наш культурно-биологический, скажем так, бекграунд, то и эволюция будет идти обусловленным (нами) путем. Но не факт. Плюс наблюдая, как человечество периодически норовит само себя угробить, вот этот вот "Социальный путь к человекоподобному искусственному интеллекту" представляется очень ухабистым.

https://www.nature.com/articles/s42256-023-00754-x
🔥43👍5👎1
Опечатался про Фрейду: operAI
🔥53👍7👎2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Stable Video Diffusion

Друзья из Stability.AI наконец-то зарелизили image-to-video модель! Работает на базе весов SD v2.1.

Есть две версии
- SDV, генерит 14 фреймов 576x1024
- SDV-XT, которая зафайнтюнена с SDV, чтобы генерить 25 кадров.

Фрейм рейт можно менять во время инференас от 3 fps до 30 fps, то есть можно получить видео длиной от 1 до 8 сек. Достигается это за счет дополнительного кондишенинга на фрейм-рейт, также как в SDXL был добавлен кондишенинг на разрешение выходной картинки.

По представленным бенчмаркам, SDV обходит Gen-2 и Pika.

Количество фреймов, генерируемых за раз, конечно, меньше чем у EMU-Video, но зато полный опен-соурс, и веса тоже уже доступны!

Статья с деталями.

@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍4
This media is not supported in your browser
VIEW IN TELEGRAM
Вот пример из ютюбчика и твиттора Stability AI
Прорыва или какого-то убер-качества не наблюдается. Все примерно, как у конкурентов с типичными артефактами.
Главное отличие - это все полностью доступно как опен-сорс.
Веса уже в сети, поэтому ждем:
- апдейтов Автоматика и Комфи
- потока натренированных моделек для видео на Civitai.com
- сотенки-другой сайтов-попрошалок типа "генерим ваше видео за 10 долларов в месяц"
- обновления DreamStudio от StabilityAI

P.S. Давно не видел на ютюбчике видео в 360p. В идеале могли бы и прогнать через топазик.
https://www.youtube.com/watch?v=G7mihAy691g

Запросил доступ, жду.
🔥20
Залез на сайт DreamStudio, а там полностью выпили модели Stable Diffusion 2, 2.1, всех предтечей XL и оставили только версии 1.6(!) и SDXL 1.0

Полез смотреть, что за 1.6 такая. Информации нет, просто "улучшенное качество". Плюс втихаря выпилили API для версии 1.5.

Полез на Civitai - а ребята-то и не в курсе. Никто про 1.6 и не слыхал.

https://platform.stability.ai/docs/release-notes#stable-image-v1-release
👍9
Forwarded from Сиолошная
Ну ладно, интриги интригами, а релизы — по расписанию.

Теперь голосовая версия ChatGPT доступна всем пользователям приложения бесплатно.

На всякий случай напомню, что приложение НЕ доступно аккаунтам из РФ (и дело не в VPN).

🤔 интересно, а что с нехваткой GPU и ресурсов?

Как писали сотрудники OpenAI,
committed to the team and the mission 🫡


Ну и это...лицо команды Apple Siri представили? 👀😆
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🔥7
Ну что, дошутились про Сэмченко?!
chatGPT ушел в отказ (на обоих аккаунтах)
1. Нет никакой возможности войти и залогиниться
2. Вверху GPT-Alpha и Alpha Models?!?!
3. Список чатов пропал
4. Чат не работает и пишет - Something went wrong. If this issue persists please contact us through our help center at help.openai.com.
👍37👎12🔥9
Forwarded from Denis Sexy IT 🤖
Драма OpenAI закончилась (я надеюсь) и ChatGPT у нас не заберут. Сэма взяли назад, будет назначен новый совет директоров из 9 человек.

Мы с вами стали свидетелями того, что уже вошло в книги истории бизнеса в целом, не только по разработке в ML-индустрии.

Мне кажется, что это урок и Сэму тоже, ночью вышла статья про то, что все разногласие началось из-за этого пейпера, выделил пару слухов оттуда:

🍿 Разногласия в Руководстве: Более года в совете директоров OpenAI наблюдались значительные напряженности, усугубленные разногласиями в отношении стиля управления и приоритетов Сэма Альтмана. Если коротко, то Альтман сосредоточился на расширении компании, в то время как совет выражал беспокойство о балансе между расширением и «безопасностью ИИ систем» (алайментом короче).

🍿 Спор Вокруг Научной Работы: Основной точкой спора стала научная работа, соавтором которой была член совета Хелен Тонер. Сэм Альтман рассматривал эту работу как угрозу компании, считая, что она критикует OpenAI и слишком хвалит другую ИИ-лабу – Anthropic, основанную, кстати, теми, кто не согласился с подходом Альтмана и ушел из OpenAI пару лет назад (они тоже требовали отстранения Сэма как CEO). В пейпере (ссылка выше), сказано, что Anthropic сознательно отказались от релиза своей версии ChatGPT чтобы замедлить прогресс развития AGI и мол поэтому они молодцы. Я, немного, скептически к этому отношусь – так как OpenAI сделала удобный продукт, и говорить «что мы тоже могли но не захотели», задним числом, это как-бы ну такое – а в каком формате вы не захотели делать продукт, а с какими интерфейсами первая версия была? Речь же только про модель? И тп и тд.

Я точно, думаю, что выкатка новых ИИ-штук в OpenAI чуть замедлится из-за самого Сэма, который получил свой урок и будет аккуратнее потому, что явно ценит OpenAI, но считаю это win-win сценарием для всех:

– и для таких как я, которые верят, что как можно больше новых технологий должны быть доступно общественности (потому, что это неотвратимо)

– и для тех, кто считает, что ИИ-алаймент важнее всего и как можно-медленнее нужно все развивать в этой области (что в капитализме, как-бы, не предусмотрено).

Короче, наконец-то развязка и временный мир между двумя взглядами на развитие технологий, такое в индустрии редкость
👍45🔥9👎2
Для тех, кто исполняет в серьезную комп. графику, а не вот эти вот все нерфы-шмерфы и псевдо-3Д.
Рома - просто машина. Кстати, Keen Tools единственные, кто умеет работать нормально с лицами, выдавая наружу нормальную 3Д-сетку с хорошей топологией.
https://t.me/keentools/265
🔥67👍13
Всех прорвало на генерацию видео. После вчерашнего анонса от Stability AI, сегодня Кандинский пальнул свою видео-модель.
Качество, конечно, не айс.
Очень интересно, чем ответят Адобченко и Гугль. Вот у них-то с датасетами все в порядке, а не эти вот жалкие 300 000 пар видео-текст.
https://t.me/GigaChat_SberAi/289
👍13👎5🔥5
Я понял, что мне напоминают все эти генераторы видео.
Симуляцию физики в 3Д-пакетах. Где ты такой настраиваешь сначала цифры в клеточках, а потом нажимаешь кнопку "Давай". И оно симулит.
Те, кто провел пару тыщ часов с частицами, волосами, флюидами и прочей бесовщиной в 3Д - поймут.
Ну то есть ты не управляешь процессом, ты направляешь процесс. Ты можешь выбирать только начальные условия и прикручивать условный ControlNet - вдоль чего лететь, откуда испускать, текстурка для плотностей и пр.
А дальше оно само.
И вот ты нарулил гениальную симуляцию волны, убил небольшую часть жизни и большую часть здоровья, получилось просто бомба. Идешь такой гордый, показываешь режиссеру.
А он такой - ништяк, только в конце можно, чтобы заворачивалось покрасивее и пошустрее, и чтобы поровнее все было в начале, а то очень уж колбасится.
И ты понимаешь, что нельзя. Нельзя только в конце, или нельзя только поровнее, или только в начале. Можно только все заново переделать. Не с нуля, конечно, но чтобы попасть в видение режиссера ты должен снова написать кандидатскую диссертацию по уравнениям в частных производных. Ну и идешь, пишешь. А он такой - отлично, только можно, чтобы это было похоже на рой пчел?! Ты мямлишь - шо? А он - ну да, волна должна двигаться как рой пчел. Ну дальше вы поняли.
Когда сроки выходят, режиссер говорит, ладно, опять эти компьютерщики налажали, берем, что есть.
В общем, с генераторами видео вы будете заложниками симуляции, черного ящика у которого пока и параметров толком нет. Поэтому нарулить сможете только мемы, попадание в свои амбиции и короткие перебивки (тут хорошо, да).
Но как только в этой истории появится сторителлинг (пардон, за тавтологию), и не дай бог, режиссеры, то вам конец.
А вот в моушен дизайне хорошо зайдет. Там короткие формы и восприятие целиком, одним глотком.
Это пример нового motion brush в GEN-2. Нарядно выглядит, потому что симулирует симуляцию. А не историю.
🔥63👍22👎2
Media is too big
VIEW IN TELEGRAM
Ну и вот вам немного будущего моушен дизайна от Михи Дадаева.
Это ChatGPT×Dalle3×Gen2
Кпопка сделать красиво пока состоит из трех кнопок.
🔥60👎8
Тут вот все с восторгом постят новость про то, что обновленный Bard научился пересказывать видео из YouTube.
Хех. Постить не тесты ворочать.
А мы попробуем.
Берем видос (вы же помните, как я упарывался с Bing-ом на эту тему), причем не с говорящей головой, а .. с шумом волн (суровые сибирские мужики всегда засовывают рельсу в соломорезку).

Для начала спрашиваем:
can you read internet links?

Yes, I can read internet links, but only if the content is publicly accessible. I cannot access content that is behind a paywall or that requires login credentials. Additionally, I cannot access content that is not in a text format, such as images or videos.

Настораживаемся...

decribe and summarize this video: https://youtu.be/E7qRkUYu580

I'm sorry, but I'm unable to access this YouTube content. This is possible for a number of reasons, but the most common are: the content isn't a valid YouTube link, potentially unsafe content, or the content does not have a captions file that I can read.

"содержимое не имеет файла с титрами, который я могу прочитать."!!!

Расходимся. Всех этих читалок и суммаризаторов титров в интернетике уже пруд пруди.
Более того, вы давно можете скачать видос, пропустить его через Whisper или другой speech-to-text, а потом попросить chatGPT суммаризировать полученный текст.

Ни о каком анализе видео речи не идет. Бард тупо читает титры, а если их нет, уходит в отказ. Фу таким быть.
👍74🔥11😁1
А вы заметили что уже есть сопособы затестить Stable Video Diffusion онлайн?
Ссылки прилагаю внизу поста.

Я затестил и уже сделал несколько выводов.
Самое главное:

он невероятно ленивый!
Не помню ни одного генератора видео который бы так часто вместо какого-то органического движения отдельных объектов отдавал мне просто панорамирование плоской картинки на отъе**сь

Демо
Демо2
Колаб fp16
Колаб img2vid. Понимает только *.PNG

#image2video
👎24👍10🔥1