Метаверсище и ИИще
32.7K subscribers
4.22K photos
2.22K videos
38 files
5.23K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
Как внедрить ИИ в бизнес-процессы: почему многие компании до сих пор его опасаются и не понимают?

С момента запуска ChatGPT в 2022 году ИИ стремительно вошел в бизнес-среду. По данным McKinsey, AI снижает операционные расходы на 20%, а Gartner отмечают, что компании, использующие AI, вдвое чаще увеличивают выручку. Но многие все же сталкиваются с трудностями и бросают попытки внедрения на полпути.

Что тормозит процесс? Главные причины — мифы и завышенные ожидания. Руководители часто не понимают, как измерить пользу от AI и встроить его в корпоративную культуру. А сотрудники не видят, какие инструменты, кроме ChatGPT, могут помочь в их задачах.

Комплексный подход: "сверху вниз" и "снизу вверх". Лидеры должны понимать AI с технической, бизнесовой и командной точки зрения. Например, ИИ-ассистент может снизить нагрузку на службу поддержки, но не решит все проблемы клиентов. Важно определить, какие процессы стоит автоматизировать и каких результатов ждать, будь то ускорение обработки данных или снижене нагрузки на менеджеров.

Оценка и ROI. Важно контролировать эффект от внедрения AI. Только так имплементация будет комплексной и последовательной. Например, ритейлер, использующий AI для анализа поведения покупателей, увеличил продажи на 30% за счет персонализации предложений. Начать можно с измерения ROI на тестовых процессах через простые метрики, как время обработки заявок.

Интеграция и обучение. Чтобы AI стал частью работы, важно обучить команду и показать полезные примеры. Компдексное внедрение AI-решений во многих компаниях удавалось после обучающих сессий с примерами для разных отделов, адаптированных по их бизнес-функции.

Реальные инструменты вместо мифов. ChatGPT — лишь один из множества инструментов. И часто даже его компании не используют на 100%. Комбинируя его его с ноу-код решениями, можно автоматизировать ключевые бизнес-процессы, которые отнимают много времени у людей. Начните с автоматизации рутинных задач, чтобы высвободить ресурсы команды на более значимые задачи.

Что можно сделать прямо сейчас? Чтобы проще внедрить ИИ и быстрее провести трансформацию бизнеса в сторону инноваций и автоматизации, команда Skailab совместно с Иннопорт запускает курс по Искусственному интеллекту для предпринимателей и специалистов.

Программа курса уникальна тем, что подходит как для стартегов, так и для практиков:
Каждый модуль содержит:
1) Теоретическую часть для десижен-мейкеров (например, как посчитать ROI, построить план внедрения)
2) Практическую часть с разработкой AI-решений, которые адаптируются под именно ваши задачи (например, построить AI-ассистента, который будет обзванивать вашу клиентскую базу и предлагать скидки)

Узнать больше и записаться можно здесь: https://clck.ru/3EZ87D
А промокод METAVERSE_AI даст 30% скидку

#промо
Media is too big
VIEW IN TELEGRAM
У полночь близится выборы прошли, а Германа Соры все нет.

Вот держите свежее видео из Соры от "креаторов".

Помните, как в феврале (этого года, на минутчку) мы просто потеряли дар речи от первых демо Соры.

Прошло 9 месяцев. Сора так и осталась шамбалой от OpenAI, а на нас обрушились версии за версиями новых генераторов.

И вот сейчас я смотрю на это видео и понимаю, что уже ничего не ёкает. Во-первых пластичный и ленивый мозг уже адаптировался и привык к хорошему. А во-вторых Клинг с Минимаксом до сих пор иногда заставляют подскакивать, а Сора уже нет. В-третьих, почти везде уже появились хоть какие-то элементы управления.

А Сора молчит.

В-четвертых, это видео - это десятки и сотни прогонов Соры.

А вышеупомянутые китайцы иногда из коробочки выдают такое, что до сих пор ух.

В общем, я зажрался, вы, я думаю, тоже. Но Сора больше не дофаминит.

А жаль.

Хотите еще пожать плечами - поглядите сюда: https://www.youtube.com/watch?v=2-mBRq-_aQ4
Это тоже свежак, двухнедельный.

Да, нарядно. Но не штырит.

А жаль.

И мне кажется, но с людьми в Соре стало прям хуже? Или у меня кожаные галлюцинации?

Единственно, что удивляет - это длина планов. Прям длинные консистентные куски.

@cgevent
Что мы имеем в Виду 1.5?

А имеем мы Multi-Entity Consistency.

Vidu-1.5 can seamlessly integrate people, objects, and environments to generate stunning videos, БЕЗ ВСЯКИХ ЛОР - как написано у них в Твитторе.

В общем, простите люди добрые, но у нас еще один видеогенератор. Точнее, он уже был летом в версии 1.0 и был плох. Сейчас вот ожил.

Ну и у меня ощущение, что видеогенераторов со своими базовыми моделями становится больше, чем генераторов картинок со своими foundation model (не файнтюнами).

Выход в массы на след неделе, пока неистовый шиллинг в твитторе и черрипики в ленте.

Ну и поднимите Sora веки кто-нибудь. Уже просто неприлично выглядит ситуация.
https://www.vidu.studio/

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
CogVideoX ver1.5 Image2Video.

Я напишу сегодня подробнее, пока остальные тесты досчитываются.

Но мне кажется для опенсорсного видео-генератора - это прям топ.

Про память, поддержку Комфи(которой нет пока) и прочие детали - попозже.

А пока можете в коменты покидать картинок(1360х768, как файлы) и промптов к ним.

Поставлю считать.

@cgevent
CogVideoX ver1.5 Image2Video. Детали.

Для начала: ну нет пока поддержки версии 1.5 в Комфи.
Просто почитайте об этом вот тут:
https://github.com/kijai/ComfyUI-CogVideoXWrapper/issues/214

Есть отдельный бранч, но там, как я понимаю, тоже все не ровно.
https://github.com/kijai/ComfyUI-CogVideoXWrapper/tree/1.5_test

Я честно все ставил отсюда и запускал из командной строки.
https://github.com/THUDM/CogVideo/tree/main/sat

По памяти - ест 34-37 в процессе генерации, и 60-70 в конце, когда подключается vae.

Думаю, что скоро появится поддержка с Комфи с тайлингом памяти и все будет ходить на 24 гигах VRAM.

Но пока это очень медленно: 15 минут на 22 кадра на A100.

Пока это лучшее из всех image2video в опен-сорсе, которое я видел.

Я тестировал картинки в 1360x768 - это родное разрешение для его text2image, но пишут, что работает и 768x768, 936x640. Большее просто не пролезет по памяти.

Держите рандомных примеров. В основном я использовал промпты из флюкса, где генерил картинки. Машу попросил описать chatGPT. Добавка в промпт "High quality video" прям работает.

Когда давал нейродеда в 848х480 качество сразу падало. На вертикальных не проверял.

Пойду остужать гпу.

@cgevent
Раз в год в декабре проходит событие, которое объединяет техноэнтузиастов, разработчиков и визионеров под одной крышей.

🔥 Conversations — ежегодная конференция по разговорному и генеративному AI пройдет 6 декабря в Москве и онлайн.

В этом году участников ждут несколько тематических секций: «Generation AI. Новое поколение кейсов», «RAG или не RAG? Трезвый взгляд разработчиков», «Self-hosting. Обучение и оптимизация генеративных моделей».

⛳️ Несколько спойлеров из программы:

🔵 RAG-механики в платформе для создания ботов. Внедрение pre-retrieval и post-retrieval техник для повышения качества — Salutebot
🔵 Как с помощью чат-бота автоматизировать SQL-запросы и получать актуальную аналитику за минуты, а не дни? — Ecom.Tech (ex. Samokat.Tech)
🔵 Как собирать прототипы AI-приложений с помощью LLM за считанные часы? — Т-Банк.

📌 35+ спикеров, дискуссии с экспертами отрасли, выставка AI-решений и, конечно, мощный нетворкинг.

Программа и билеты по ссылке.
Специальный промокод на скидку 10% для подписчиков: CNVS24VtM
Please open Telegram to view this post
VIEW IN TELEGRAM
Какая-то чудовищно титаническая работа по тестированию видеокарт и Stable Diffusion.

36(!) карт протестировано.

Там, к сожалению нет ни Flux, ни SD3.x

Но там прям упоротое японское тестирование вплоть до SDXL + LoRA + ControlNet.

Если кратко, то:

The VRAM capacity must be large.
RTX 4000 series is good
Radeon is NO!


Топ3:

RTX 3060 12GB : An introductory graphics card for AI illustrations
RTX 4070 12GB : Recommended graphics card for Forge version SDXL
RTX 4090 24GB: The fastest AI graphics card worth the price


У меня, кстати, есть совершенно волшебная RTX3060 с 12GB VRAM, втиснутая в малюсенький корпус Intel Nuke, просто инженерное чудо с огромным металлическим змеевиком. До сих пор рабочая карта.

Но сейчас на первый план выходит просто объем VRAM, а частотки и ядра не так важны. Если мы говорим про генерацию, а не про игрушки. Ибо, когда памяти не хватает, начинаются всякие оптимизации и скорость драматически падает.

Я помню, что пара планок RAM давала такой прирост производительности, какой и не снился апгрейду CPU, при в разы меньших вложениях.

Нынче, к сожалению, нельзя добить VRAM. А это ускорило бы генерацию на всех картах, начиная с 20xx.

А Нвидия, хорошо знает свое дело и рынок - не спешит наращивать объем VRAM в консумерских картах.

А нас поджидают видео-генераторы, которые будут просить еще больше памяти...

Лучшее вложение - объем VRAM, забейте на все остальное.

@cgevent
Промптинг гайд для SD3.5

Хорошие примеры в конце.

В принципе можно скормить это в chatGPT и попросить его прикинуться промпт-инженером.

Но спать тоже надо.
https://stability.ai/learning-hub/stable-diffusion-3-5-prompt-guide

@cgevent
This media is not supported in your browser
VIEW IN TELEGRAM
Трушное генеративное 3Д.

Ну ок, это как бы прототип будущих пайплайнов. Но это уже впервые похоже на генерацию трехмерных сцен, а не сферических объектов в вакууме веб-интерфейсов. Это трушный Блендор с трушной 3Д-генерацией.

Не путайте с плагинами, где вьюпорт Блендора подается как вход для контролНета, а рядом генерится пиксельная картинка из Stable Diffusion.

Нет, тут справа тоже окно Блендора и в нем генерятся не картинки, а трехмерные объекты.

DeemosTech тизерили-тизерили свой 3Д-КонтролНет и приподвытизерили, наконец-то. И как!

Слева делаете BoundingBox-ы, расставляете в композицию и каждый из них можете превратить в 3Д-объект, который впишется в этот бокс. Промптом (подозреваю, что с картинкой).

Ну то есть тут ничего нового, кроме 3Д-контролНета, но это наконец-то собрано в пайплайн, а не в генерацию отдельных объектов непонятно где, экспорт с бубнами, импорт, скейлинг и мувинг. Теперь это во взрослом 3Д.

Ну и разрабы Rodin Gen 1.5 такие - а чего еще хотите увидеть на объектах?
- и все такие у них в твитторе: UV-Unwrap.
- а некоторые: авториг

Ну в общем представьте далекое будущее, когда из генерации вылезает тектурированная, анврапленная, зариганная, засетапленная модель с хорошей топологией.

К этому времени видеогенераторы будут в 4К генерить консистентную картинку лучше Рендермана. С пяти камер одновременно. С AOV и проектом для Нюка.

Молодцы Родэновцы, очень здорово выглядит, даже просто как прототип.

Скоро обещают выпустить в народ.

За моделлеров, для начала?

@cgevent
OpenAI готовит к запуску ИИ агента под кодовым названием "Оператор", который может использовать компьютер для выполнения действий от имени человека, например, написания кода или бронирования путешествий.

И Гугл тоже. Своего агента.

Тут они в роли догоняющих - Computer Use у Антропика примерно об этом.

Ждать недолго, говорят, что в январе.

Прогресс, конечно, восхищает и пугает.

Начиналось все как:

Продолжи фразу.

Потом: ответь на вопросы.

Потом: напиши код для задачи, я его использую.

Потом: напиши и запусти код.

Потом: используй мой компьютер и порешай задачу сам.

Что дальше?

Возьми мою жизнь в управление и сделай ее лучше(для кого)?

...

Возьми мою душу, недорого ..

https://techcentral.co.za/openai-nears-launch-of-operator-ai-agent/255131/

@cgevent