This media is not supported in your browser
VIEW IN TELEGRAM
Говорят, что собаки "видят носом".
Отличная демонстрация того, как это можно визуализировать.
Берем камеру с 360 углом обзора и просим псину немного ее прикусить.
Примерно так видит собачий нос.
А Земля-то оказывается круглая...
Отличная демонстрация того, как это можно визуализировать.
Берем камеру с 360 углом обзора и просим псину немного ее прикусить.
Примерно так видит собачий нос.
А Земля-то оказывается круглая...
👍47👎15🔥15
Торгуем лицом. Дорого.
Помните, тут недавно актеры и сценаристы бастовали против ИИ?
Актеры, в частности, очень озабочены тем, что их внешность может быть отсканирована в 3Д и потом использована без их гениального участия.
Я тогда писал:
Все снова поделится на два лагеря.
Будут актеры (в основном с хорошим портфолио и гонорарами), которые будут сниматься на камеру "по старинке", а за каждый цифровой чих вписывать пару нулей в договор. И будут актеры, которые будут готовы сниматься "для синтеза", то есть цифровать свой стиль, внешность, мимику и пр. для любых последующих манипуляций. Для них это самый доступный пусть Голливуд. А там, может быть повезет, и удастся перебраться в первую категорию.
Сейчас будет про первый лагерь.
Недавно Метачка представила своих ИИ-ассистентов, которые могут превращаться в знаменитостей.
Кендалл Дженнер и MrBeast являются одними из звезд, которые изображают чат-ботов Метачки с разными личностями.
По некоторым утечкам Метачка платит звездам пять миллионов за шесть часов работы в студии по оцифровке и потом использует этот образ в течение двух лет.
У меня на сегодня всё.
https://www.businessinsider.com/meta-paying-celebrity-faces-of-ai-chatbots-as-much-as-5-million-2023-10
Помните, тут недавно актеры и сценаристы бастовали против ИИ?
Актеры, в частности, очень озабочены тем, что их внешность может быть отсканирована в 3Д и потом использована без их гениального участия.
Я тогда писал:
Все снова поделится на два лагеря.
Будут актеры (в основном с хорошим портфолио и гонорарами), которые будут сниматься на камеру "по старинке", а за каждый цифровой чих вписывать пару нулей в договор. И будут актеры, которые будут готовы сниматься "для синтеза", то есть цифровать свой стиль, внешность, мимику и пр. для любых последующих манипуляций. Для них это самый доступный пусть Голливуд. А там, может быть повезет, и удастся перебраться в первую категорию.
Сейчас будет про первый лагерь.
Недавно Метачка представила своих ИИ-ассистентов, которые могут превращаться в знаменитостей.
Кендалл Дженнер и MrBeast являются одними из звезд, которые изображают чат-ботов Метачки с разными личностями.
По некоторым утечкам Метачка платит звездам пять миллионов за шесть часов работы в студии по оцифровке и потом использует этот образ в течение двух лет.
У меня на сегодня всё.
https://www.businessinsider.com/meta-paying-celebrity-faces-of-ai-chatbots-as-much-as-5-million-2023-10
Business Insider
Meta is paying the celebrity faces behind its AI chatbots as much as $5 million for 6 hours of work, report says
Meta has enlisted 28 celebrities to play AI chatbots with different personalities. One top creator was paid $5 million, per The Information.
🔥24👍7
В Кандинский завезли анимацию. На мой взгляд - это сильно отстает (поколения на два) от имеющихся open-source решений. Все, как водится кипит, бурлит и мигает.
Как развлечение для пользовательской базы - да, наверное имеет смысл.
Для остального - ну такое.
https://t.me/GigaChat_SberAi/173
Как развлечение для пользовательской базы - да, наверное имеет смысл.
Для остального - ну такое.
https://t.me/GigaChat_SberAi/173
👍19👎8🔥1
Forwarded from Сиолошная
Вышел ежегодный State of AI 2023. Как обычно, там больше 150 слайдов, подводящих черту под всеми крупными направлениями работы и разных индустрий. Буду постепенно листать и интересное оформлю в виде какой-то заметки или может даже видео.
Пока остановимся на блоке предсказаний. На 2023й:
— Nvidia, хоть и без прямого партнерства, становится авангардом AI революции, с которым все хотят работать, чтобы получить железо
— Модели генерации звука привлекут много внимания (более 1 миллиона пользователей у ведущих игроков рынка)
— Инвестиции в $10B в AGI-focused компания (Microsoft -> OpenAI)
— Сайты, ориентированные на User Generated Content, начали заключать соглашения о предоставлении данных для тренировки моделей
— Хоть финального акта регулирования AGI и не получилось, люди и политики обсуждают всерьёз введение ограничений и проводят аналогии с биологическим оружием
Всего сбылось 5.5 предсказаний из 10. А вот десятка на 2024й:
— Продюсер голливудского уровня использует AI для создания эффектов
— Generative AI компания будет вовлечена в расследование, связанное с неправильным использованием её сервисов во время выборов президента США-2024
— Самоулучшающийся AI-агент разнесёт в щепки текущие решения для сложных задач (крупные игры, научная работа, etc.). Немного широко сформулировано, так как не выделены области, где нужно следить
— IPO как минимум одной AI-focuesed компании
— На тренировку одной из моделей будет потрачено $1B
— FTC/CMA начнут расследование сделки Microsoft и OpenAI
— Будет совсем небольшой прогресс в регуляции AI, который, быть может, ограничится лишь верхнеуровневыми волонтерскими ("пацанскими") договорённостями в духе "нет ну плохо мы делать не будем а будем делать хорошо"
— (HOT) Финансовые институты запустят аналог венчурных инвестиций, но с точки зрения вычислительных мощностей (прим.: сейчас у AGI-focused компаний примерно 90% денег уходит на оплату GPU)
— Песня, сгенерированная AI, попадет в топ (например, Spotify Top Hits 2024)
— Будет значительный рост затрат на инференс моделей, поэтому один из крупных игроков поглотит производителя чипов, чтобы начать разработки по снижению цен на железо для своих специфичных задач
————————————
Почитать анонс
Презентация
Пока остановимся на блоке предсказаний. На 2023й:
— Nvidia, хоть и без прямого партнерства, становится авангардом AI революции, с которым все хотят работать, чтобы получить железо
— Модели генерации звука привлекут много внимания (более 1 миллиона пользователей у ведущих игроков рынка)
— Инвестиции в $10B в AGI-focused компания (Microsoft -> OpenAI)
— Сайты, ориентированные на User Generated Content, начали заключать соглашения о предоставлении данных для тренировки моделей
— Хоть финального акта регулирования AGI и не получилось, люди и политики обсуждают всерьёз введение ограничений и проводят аналогии с биологическим оружием
Всего сбылось 5.5 предсказаний из 10. А вот десятка на 2024й:
— Продюсер голливудского уровня использует AI для создания эффектов
— Generative AI компания будет вовлечена в расследование, связанное с неправильным использованием её сервисов во время выборов президента США-2024
— Самоулучшающийся AI-агент разнесёт в щепки текущие решения для сложных задач (крупные игры, научная работа, etc.). Немного широко сформулировано, так как не выделены области, где нужно следить
— IPO как минимум одной AI-focuesed компании
— На тренировку одной из моделей будет потрачено $1B
— FTC/CMA начнут расследование сделки Microsoft и OpenAI
— Будет совсем небольшой прогресс в регуляции AI, который, быть может, ограничится лишь верхнеуровневыми волонтерскими ("пацанскими") договорённостями в духе "нет ну плохо мы делать не будем а будем делать хорошо"
— (HOT) Финансовые институты запустят аналог венчурных инвестиций, но с точки зрения вычислительных мощностей (прим.: сейчас у AGI-focused компаний примерно 90% денег уходит на оплату GPU)
— Песня, сгенерированная AI, попадет в топ (например, Spotify Top Hits 2024)
— Будет значительный рост затрат на инференс моделей, поэтому один из крупных игроков поглотит производителя чипов, чтобы начать разработки по снижению цен на железо для своих специфичных задач
————————————
Почитать анонс
Презентация
👍10🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Project Primrose from Adobe
С Adobe Max еще есть некоторое количество новостей, закрою гештальт сегодня, чтобы не превращать ленту в оду Адобченко.
Пока мы тут смотрим на виртуальные примерочные, Адобченко взял и вывернул наизнанку саму идею. Лучше один раз надеть и семь раз изменить, чем пытаться переодевать джипеги.
Идея не нова от слова совсем, но посмотрите как это ловко сделано.
Ловким движением руки брюки превращаются в .. брюки другого цвета.
Также можно порассуждать, что это теперь и проектор, и маппинг и площадка для рекламных размещений.
Ну у меня один вопрос: на какой температуре стирать и не линяют ли цвета?
Ну и ждем интеграции с Firefly
С Adobe Max еще есть некоторое количество новостей, закрою гештальт сегодня, чтобы не превращать ленту в оду Адобченко.
Пока мы тут смотрим на виртуальные примерочные, Адобченко взял и вывернул наизнанку саму идею. Лучше один раз надеть и семь раз изменить, чем пытаться переодевать джипеги.
Идея не нова от слова совсем, но посмотрите как это ловко сделано.
Ловким движением руки брюки превращаются в .. брюки другого цвета.
Также можно порассуждать, что это теперь и проектор, и маппинг и площадка для рекламных размещений.
Ну у меня один вопрос: на какой температуре стирать и не линяют ли цвета?
Ну и ждем интеграции с Firefly
🔥28👍3
Ну, за ротоскоперов и композеров.
Adobe Project Fast Fill - это, по сути, Generative Fill в Photoshop, но для видео.
Adobe утверждает, что это работает даже в очень сложных сценах с меняющимися условиями освещения.
Где и когда: "это позволяет на раннем этапе увидеть, что может дать генеративный искусственный интеллект с текстовой подсказкой в инструментах видеомонтажа Adobe, включая Premiere Pro и After Effects".
Adobe Max не перестает удивлять.
Adobe Project Fast Fill - это, по сути, Generative Fill в Photoshop, но для видео.
Adobe утверждает, что это работает даже в очень сложных сценах с меняющимися условиями освещения.
Где и когда: "это позволяет на раннем этапе увидеть, что может дать генеративный искусственный интеллект с текстовой подсказкой в инструментах видеомонтажа Adobe, включая Premiere Pro и After Effects".
Adobe Max не перестает удивлять.
🔥59👍7
This media is not supported in your browser
VIEW IN TELEGRAM
Adobe Project Draw & Delight.
Такие поделки мы уже видели от Нвидия, Метачки и других китайских аспирантов, но они никогда не доходят до продукта.
А тут есть большая вероятность увидеть это в продуктах. Например в Иллюстраторе.
Здесь пользователь может набросать грубый эскиз и добавить текстовую подсказку, а Firefly Vector затем превратит это векторный(!) рисунок.
Такие поделки мы уже видели от Нвидия, Метачки и других китайских аспирантов, но они никогда не доходят до продукта.
А тут есть большая вероятность увидеть это в продуктах. Например в Иллюстраторе.
Здесь пользователь может набросать грубый эскиз и добавить текстовую подсказку, а Firefly Vector затем превратит это векторный(!) рисунок.
🔥54👍12
This media is not supported in your browser
VIEW IN TELEGRAM
Adobe Poseable
А вот вам и ControlNet от Адобченко!
Причем с 3Д-камерой, манипуляторами и всеми прочими ништяками.
"Вместо того чтобы тратить время на редактирование каждой мельчайшей детали сцены - фона, различных ракурсов и поз отдельных персонажей или способов взаимодействия персонажа с окружающими объектами в сцене, - пользователи могут использоватьControlNet Adobe Poseable и использовать модели генерации изображений для быстрого рендеринга 3D-сцен с персонажами".
Огонь!
А вот вам и ControlNet от Адобченко!
Причем с 3Д-камерой, манипуляторами и всеми прочими ништяками.
"Вместо того чтобы тратить время на редактирование каждой мельчайшей детали сцены - фона, различных ракурсов и поз отдельных персонажей или способов взаимодействия персонажа с окружающими объектами в сцене, - пользователи могут использовать
Огонь!
🔥45👍7👎1
This media is not supported in your browser
VIEW IN TELEGRAM
АдобеДабДабДаб!
Ну за актеров дубляжа и переводчиков.
Недавно ElevenLabs конкретно обновился и теперь умеет делать нейродубляж видео с сохранением оригинального голоса.
А вот и ответочка от Адобченко!
Adobe Project Dub Dub Dub может автоматически переводить голосовую запись или звуковую дорожку видео на огромное количество поддерживаемых языков, сохраняя при этом голос диктора. Другими словами, вы можете услышать, как вас переводят на французский, немецкий, испанский, арабский и другие языки, а полученный диалог автоматически выравнивается в соответствии с тем, как он был произнесен в оригинале.
И это не сервис попрошайка, это встраивание в линейку продуктов.
Ну за актеров дубляжа и переводчиков.
Недавно ElevenLabs конкретно обновился и теперь умеет делать нейродубляж видео с сохранением оригинального голоса.
А вот и ответочка от Адобченко!
Adobe Project Dub Dub Dub может автоматически переводить голосовую запись или звуковую дорожку видео на огромное количество поддерживаемых языков, сохраняя при этом голос диктора. Другими словами, вы можете услышать, как вас переводят на французский, немецкий, испанский, арабский и другие языки, а полученный диалог автоматически выравнивается в соответствии с тем, как он был произнесен в оригинале.
И это не сервис попрошайка, это встраивание в линейку продуктов.
🔥48👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ну, за Topaz AI.
Adobe Project Res Up - апскейл видео в 4 раза на основе дифузионных моделей. С обрезкой и прочими пирогами.
Adobe Project Res Up - апскейл видео в 4 раза на основе дифузионных моделей. С обрезкой и прочими пирогами.
🔥42
This media is not supported in your browser
VIEW IN TELEGRAM
Продолжим за взрослый композ для кино и видео.
Я уже начал этот разговор тут, в посте про Tech-VA.
Держите работу номер 1. Это пока подводка.
XMem++: Production-level Video Segmentation From Few Annotated Frames
Вдохновленные примерами из киноиндустрии, мы представляем XMem++ - интерактивный инструмент для сегментации видеообъектов, который выполняет высокоточную сегментацию в сложных и проблемных сценах, имея всего несколько размеченных примеров.
В сцене кто-то надел не ту рубашку? Татуировка, которой там не должно быть? Нужно добавить немного CGI к очень специфической части объекта?
А может быть, вам нужно быстро разметить несколько наборов данных для сегментации видео с необычными/уникальными объектами?
Кстати, авторы работы из Адобченко и Пинтереста.
https://xmem2.surge.sh/
Я уже начал этот разговор тут, в посте про Tech-VA.
Держите работу номер 1. Это пока подводка.
XMem++: Production-level Video Segmentation From Few Annotated Frames
Вдохновленные примерами из киноиндустрии, мы представляем XMem++ - интерактивный инструмент для сегментации видеообъектов, который выполняет высокоточную сегментацию в сложных и проблемных сценах, имея всего несколько размеченных примеров.
В сцене кто-то надел не ту рубашку? Татуировка, которой там не должно быть? Нужно добавить немного CGI к очень специфической части объекта?
А может быть, вам нужно быстро разметить несколько наборов данных для сегментации видео с необычными/уникальными объектами?
Кстати, авторы работы из Адобченко и Пинтереста.
https://xmem2.surge.sh/
👍11
This media is not supported in your browser
VIEW IN TELEGRAM
Продолжим за взрослый композ для кино и видео.
Держите работу номер 2. Это тоже пока подводка.
ProPainter: Improving Propagation and Transformer for Video Inpainting
Object Removal: remove the object(s) from a video.
Video Completion: complete the masked video.
Video Outpainting: expand the view of a video.
Тут много умных слов:
https://shangchenzhou.com/projects/ProPainter/
Держите работу номер 2. Это тоже пока подводка.
ProPainter: Improving Propagation and Transformer for Video Inpainting
Object Removal: remove the object(s) from a video.
Video Completion: complete the masked video.
Video Outpainting: expand the view of a video.
Тут много умных слов:
https://shangchenzhou.com/projects/ProPainter/
🔥9
This media is not supported in your browser
VIEW IN TELEGRAM
Завершаем разговор за взрослый композ для кино и видео.
А теперь берем
XMem++: Production-level Video Segmentation From Few Annotated Frames
и
ProPainter: Improving Propagation and Transformer for Video Inpainting
из предыдущих постов.
и засовываем все это в Nuke!
И получаем Auto Roto in Foundry Nuke by XMEM++ and Remove object Propainter
Пока Фаундри и другие корпораты задумчиво взирают на происходящее, взрослые композеры берут и прикручивают все эти крутые бумаги и фичи сами.
Видео длинное и понятное только композерам, но зато музыка хорошая, китайская.
Полное видео тут:
https://youtu.be/7JuOu-Kmiuk
А теперь берем
XMem++: Production-level Video Segmentation From Few Annotated Frames
и
ProPainter: Improving Propagation and Transformer for Video Inpainting
из предыдущих постов.
и засовываем все это в Nuke!
И получаем Auto Roto in Foundry Nuke by XMEM++ and Remove object Propainter
Пока Фаундри и другие корпораты задумчиво взирают на происходящее, взрослые композеры берут и прикручивают все эти крутые бумаги и фичи сами.
Видео длинное и понятное только композерам, но зато музыка хорошая, китайская.
Полное видео тут:
https://youtu.be/7JuOu-Kmiuk
👍20🔥5
Зловещая долина и дипфейки.
Отличное видео от Корридоров.
Хорошее объяснение зловещей долины, дерзкая попытка ее преодолеть с помощью MetaHuman и InsightFace. А также лицевого и фул-боди мокапа.
Как обычно, пацаны ставят очень жесткие вопросы и хорошо объясняют, что и как работает.
Причем делают из этого образовательный фильм.
Тут они переносят анимацию с лица на 3Д-модель с помощью MetaHuman Animator, а потом шлепают сверху, дипфейком, нужное лицо с помощью InsightFace.
И делают коллективные замеры "зловещести".
Также примечательно, что на восьмой минуте в кадре появляется Каскадер! Которому раздаются восторженные комплименты. Поздравляю ребят.
В общем, долина по прежнему с нами.
https://www.youtube.com/watch?v=s8HfxioHxVg
Отличное видео от Корридоров.
Хорошее объяснение зловещей долины, дерзкая попытка ее преодолеть с помощью MetaHuman и InsightFace. А также лицевого и фул-боди мокапа.
Как обычно, пацаны ставят очень жесткие вопросы и хорошо объясняют, что и как работает.
Причем делают из этого образовательный фильм.
Тут они переносят анимацию с лица на 3Д-модель с помощью MetaHuman Animator, а потом шлепают сверху, дипфейком, нужное лицо с помощью InsightFace.
И делают коллективные замеры "зловещести".
Также примечательно, что на восьмой минуте в кадре появляется Каскадер! Которому раздаются восторженные комплименты. Поздравляю ребят.
В общем, долина по прежнему с нами.
https://www.youtube.com/watch?v=s8HfxioHxVg
YouTube
It Took 3 Years to Bring Him to Life
*Squarespace* ► Head to http://squarespace.com/corridorcrew to save 10% off your first purchase!
Watch the Corridor Shortfilm! https://youtu.be/Xps2QG8EyYw
Our videos are made possible by Members of CorridorDigital, our Exclusive Streaming Service! Try…
Watch the Corridor Shortfilm! https://youtu.be/Xps2QG8EyYw
Our videos are made possible by Members of CorridorDigital, our Exclusive Streaming Service! Try…
🔥14👍4
OctoberSGE_Magoo_04_FINAL.gif
17.3 MB
Гугль, как обычно, в роли догоняющего.
Теперь у них свой генератор картинок, свой "GPT-4V" трактователь картинок, своя мультимодалочка.
Еще год назад они демонстрировали свой закрытый Imagen, который нельзя было ни потрогать, ни интегрировать. Теперь, когда генерация картинок (и обратно, прочтение картинок в текст) есть и у Микрософта, и у OpenAI и у Адобченко, Гугль делает вид, что он ничем не хуже других.
Проблема в том, что он чуть хуже. Других.
- Bard чуть тупее chatGPT.
- Картинки выглядят прошлым поколением генераторов.
- - Распознавание картинок и их описание тоже пока не на высоте.
Gemini пока никак не выйдет.
Главное преимущество Гугла - конская пользовательская база, лошадиные размеры датасетов и ютюб в кустах.
Ну и конечно сервисы, опутавшие нас по рукам и ногам - поиск, почта, Docs, Drive, Workspaces
Посмотрим, удастся ли Гуглу подтянуть качество быстрее, чем пользователи привыкнут, что за пределами сервисов Гугла генеративный ИИ чуть лучше, чуть быстрее, чуть умнее.
Хотя я подозреваю, что 80-90% пользователей лишь читают новости про ИИ в наших канальчиках и ждут когда у них появятся понятные кнопки в знакомых интерфейсах (чем пользуется Адобченко, например).
Поглядите, как они теперь генерят картинки прямо из поисковой строки:
https://searchengineland.com/google-search-generative-experience-can-now-create-images-433200
https://blog.google/products/search/google-search-generative-ai-october-update/
Ну и отдельно бесит то, что у них всегда все в будущем времени с поправками типа "только для", "в след квартале", "пока в тестировании", "ивоще экспериментально все это"
"генерация изображений в SGE в настоящее время доступна на английском языке в Соединенных Штатах для людей, которые выбрали эксперимент SGE и которым исполнилось 18 лет."
Теперь у них свой генератор картинок, свой
Еще год назад они демонстрировали свой закрытый Imagen, который нельзя было ни потрогать, ни интегрировать. Теперь, когда генерация картинок (и обратно, прочтение картинок в текст) есть и у Микрософта, и у OpenAI и у Адобченко, Гугль делает вид, что он ничем не хуже других.
Проблема в том, что он чуть хуже. Других.
- Bard чуть тупее chatGPT.
- Картинки выглядят прошлым поколением генераторов.
- - Распознавание картинок и их описание тоже пока не на высоте.
Gemini пока никак не выйдет.
Главное преимущество Гугла - конская пользовательская база, лошадиные размеры датасетов и ютюб в кустах.
Ну и конечно сервисы, опутавшие нас по рукам и ногам - поиск, почта, Docs, Drive, Workspaces
Посмотрим, удастся ли Гуглу подтянуть качество быстрее, чем пользователи привыкнут, что за пределами сервисов Гугла генеративный ИИ чуть лучше, чуть быстрее, чуть умнее.
Хотя я подозреваю, что 80-90% пользователей лишь читают новости про ИИ в наших канальчиках и ждут когда у них появятся понятные кнопки в знакомых интерфейсах (чем пользуется Адобченко, например).
Поглядите, как они теперь генерят картинки прямо из поисковой строки:
https://searchengineland.com/google-search-generative-experience-can-now-create-images-433200
https://blog.google/products/search/google-search-generative-ai-october-update/
Ну и отдельно бесит то, что у них всегда все в будущем времени с поправками типа "только для", "в след квартале", "пока в тестировании", "ивоще экспериментально все это"
"генерация изображений в SGE в настоящее время доступна на английском языке в Соединенных Штатах для людей, которые выбрали эксперимент SGE и которым исполнилось 18 лет."
👍16🔥1
Forwarded from Тот парень с порнозависимостью
Порноиндустрия снова впереди всех — в этот раз в плане технологий
Известный стереотип, который правдив — порно обгоняет другие индустрии в плане технологий. Популяризации многих привычных нам вещей — от стримингов и онлайн-оплаты контента до VHS-кассет и гифок на превью на YouTube — мы обязаны как раз адалт-бизнесу. Новости последних дней это только подтверждают.
В начале октября бывшая порнозвезда, а ныне — инфлюенсерка Райли Рид (Riley Reid) запустила стартап Clona со встроенным ИИ, который позволяет 24/7 общаться с любимыми секс-работницами. Прямо сейчас в рамках промо можно абсолютно бесплатно початиться с самой Райли или Леной Плаг (Lena the Plug), позже добавятся другие.
Киллер фича Clona — отсутствие возрастных ограничений и цензуры тех тем, которые ты обсуждаешь с нейросетевой Райли Рид. Это могут быть как застольные беседы о жизни, так и вполне подробный секстинг. Ответы можно получать в тексте и в аудио, а создатели обещают, что для каждого пользователя опыт общения с ИИ будет уникальным.
«Я не снимаюсь на камеру и не веду стримы, так что у подписчиков обычно нет возможности общаться со мной. С помощью ИИ они могут разговаривать часами и по-настоящему сблизиться со мной. В реальной жизни Райли не может разговаривать по-испански, но нейросетевая Райли — может», — рассказала экс-порноактриса.
Совпадение ли, но подобный чат-бот для общения со знаменитостями недавно анонсировал Марк Цукерберг внутри своей соцсети Meta (ранее — Facebook). Снуп Догг, Кендалл Дженнер и другие звёзды могут 24/7 отвечать на вопросы фанатов.
ИИ от Meta будет искать ответы на вопросы на основе поисковика Bing от Microsoft. Не ждите особо откровенных и интересных ответов, это скорее как голоса знаменитостей в «Яндекс.Такси». В то время как Clona пришлось отказаться от поддержки OpenAI из-за цензуры и создать собственный алгоритм, обученный на часах интервью (и порно) с актрисами.
Видна разница и в подходах. Так, Meta добавила в чат-бот около 28 знаменитостей, но пользователи никак не могут повлиять на то, кто это будет. А в Clona могут заявиться не только все секс-работники, но и вообще любые инфлюенсеры. С одной стороны — закрытая система, а с другой — открытая платформа.
Пока непонятно, кто победит в этом соревновании за внимание. Но пересечений у мира технологий с адалт-бизнесом гораздо больше, чем кажется. На днях появилась новость, что Meta платит по $5 млн за два года использования голоса и внешности знаменитостей в своём чат-боте. Пока что они отвечают только текстом, но в будущем ожидается аудио.
В порноиндустрии уже лет пять как задумались об оцифровке внешности и голосов популярных секс-работниц, чтобы не платить им за каждую съёмку. Стартап Camasutra VR с помощью десятков камер и технологии захвата движений создаёт 3D-аватары порноактрис, которые могут танцевать стриптиз, общаться и заниматься с пользователем сексом.
В отличие от мира Цукерберга, метавселенная от Camasutra VR не имеет возрастных ограничений. Пользователя погружают в мир удовольствий наедине с цифровой копией любимой актрисы, а он с помощью контроллеров от гарнитур Oculus или Valve может с ней взаимодействовать. Спойлер: потрогать не получится.
Свои «тела» для таких проектов уже продали несколько порнозвёзд. Тори Блэк (Tori Black), Аникка Элбрайт (Anikka Albrite), Джонни Синс (Johnny Sins) и другие. Они живут от съёмки к съёмке и поэтому наверняка не долго думали, когда им предложили деньги за цифровую копию гениталий. «Меня вообще не волнует, что будет с моим аватаром. Мой аватар — это не я», — признаётся Тори Блэк.
Пока что цифровые копии от Цукерберга или порностудий выглядят жутко и кондово общаются. Однако нейросети активно обучают болтать на горячие темы, а виртуальную реальность уже приспосабливают к сексуальным играм. Так что, как и в прошлые разы, новые технологии обкатают на порно, и они станут мейнстримом в других индустриях. Но мы то с вами будем помнить, с чего всё начиналось.
Читать ещё: Цифровое бессмертие для порноактрис
@cumonmychannel 🔞
Известный стереотип, который правдив — порно обгоняет другие индустрии в плане технологий. Популяризации многих привычных нам вещей — от стримингов и онлайн-оплаты контента до VHS-кассет и гифок на превью на YouTube — мы обязаны как раз адалт-бизнесу. Новости последних дней это только подтверждают.
В начале октября бывшая порнозвезда, а ныне — инфлюенсерка Райли Рид (Riley Reid) запустила стартап Clona со встроенным ИИ, который позволяет 24/7 общаться с любимыми секс-работницами. Прямо сейчас в рамках промо можно абсолютно бесплатно початиться с самой Райли или Леной Плаг (Lena the Plug), позже добавятся другие.
Киллер фича Clona — отсутствие возрастных ограничений и цензуры тех тем, которые ты обсуждаешь с нейросетевой Райли Рид. Это могут быть как застольные беседы о жизни, так и вполне подробный секстинг. Ответы можно получать в тексте и в аудио, а создатели обещают, что для каждого пользователя опыт общения с ИИ будет уникальным.
«Я не снимаюсь на камеру и не веду стримы, так что у подписчиков обычно нет возможности общаться со мной. С помощью ИИ они могут разговаривать часами и по-настоящему сблизиться со мной. В реальной жизни Райли не может разговаривать по-испански, но нейросетевая Райли — может», — рассказала экс-порноактриса.
Совпадение ли, но подобный чат-бот для общения со знаменитостями недавно анонсировал Марк Цукерберг внутри своей соцсети Meta (ранее — Facebook). Снуп Догг, Кендалл Дженнер и другие звёзды могут 24/7 отвечать на вопросы фанатов.
ИИ от Meta будет искать ответы на вопросы на основе поисковика Bing от Microsoft. Не ждите особо откровенных и интересных ответов, это скорее как голоса знаменитостей в «Яндекс.Такси». В то время как Clona пришлось отказаться от поддержки OpenAI из-за цензуры и создать собственный алгоритм, обученный на часах интервью (и порно) с актрисами.
Видна разница и в подходах. Так, Meta добавила в чат-бот около 28 знаменитостей, но пользователи никак не могут повлиять на то, кто это будет. А в Clona могут заявиться не только все секс-работники, но и вообще любые инфлюенсеры. С одной стороны — закрытая система, а с другой — открытая платформа.
Пока непонятно, кто победит в этом соревновании за внимание. Но пересечений у мира технологий с адалт-бизнесом гораздо больше, чем кажется. На днях появилась новость, что Meta платит по $5 млн за два года использования голоса и внешности знаменитостей в своём чат-боте. Пока что они отвечают только текстом, но в будущем ожидается аудио.
В порноиндустрии уже лет пять как задумались об оцифровке внешности и голосов популярных секс-работниц, чтобы не платить им за каждую съёмку. Стартап Camasutra VR с помощью десятков камер и технологии захвата движений создаёт 3D-аватары порноактрис, которые могут танцевать стриптиз, общаться и заниматься с пользователем сексом.
В отличие от мира Цукерберга, метавселенная от Camasutra VR не имеет возрастных ограничений. Пользователя погружают в мир удовольствий наедине с цифровой копией любимой актрисы, а он с помощью контроллеров от гарнитур Oculus или Valve может с ней взаимодействовать. Спойлер: потрогать не получится.
Свои «тела» для таких проектов уже продали несколько порнозвёзд. Тори Блэк (Tori Black), Аникка Элбрайт (Anikka Albrite), Джонни Синс (Johnny Sins) и другие. Они живут от съёмки к съёмке и поэтому наверняка не долго думали, когда им предложили деньги за цифровую копию гениталий. «Меня вообще не волнует, что будет с моим аватаром. Мой аватар — это не я», — признаётся Тори Блэк.
Пока что цифровые копии от Цукерберга или порностудий выглядят жутко и кондово общаются. Однако нейросети активно обучают болтать на горячие темы, а виртуальную реальность уже приспосабливают к сексуальным играм. Так что, как и в прошлые разы, новые технологии обкатают на порно, и они станут мейнстримом в других индустриях. Но мы то с вами будем помнить, с чего всё начиналось.
Читать ещё: Цифровое бессмертие для порноактрис
@cumonmychannel 🔞
👍25🔥10👎1
42
Года назад (полтора) мы с упоением постили картиночки, полученные из текста.
Сейчас мы с упоением постим тексты, полученные из картиночек.
GPT4-V (который уже раскатали в chatGPT Plus) реально выносит мозг.
Что касается мозга - как далек тот день, когда вы принесете в chatGPT-V томограмму своего мозга (и всего что у вас есть) и спросите:сколько лет куковать а поставь мне диагноз дружок.
А если брать метафору пошире: "а расскажи, дружок, про меня: кто я такой, что я такое, для чего я".
Нам ИИ уже давно рассказывает об этом, только мы отмахиваемся, типа "мы не такие(у нас внутри алайнмент) ". И это приводит к мысли, что он сможет ответить на все наши вопросы. Только мы просто не поймем ответы нашими скудными умишками или не захотим их услышать(что происходит уже сейчас).
Года назад (полтора) мы с упоением постили картиночки, полученные из текста.
Сейчас мы с упоением постим тексты, полученные из картиночек.
GPT4-V (который уже раскатали в chatGPT Plus) реально выносит мозг.
Что касается мозга - как далек тот день, когда вы принесете в chatGPT-V томограмму своего мозга (и всего что у вас есть) и спросите:
А если брать метафору пошире: "а расскажи, дружок, про меня: кто я такой, что я такое, для чего я".
Нам ИИ уже давно рассказывает об этом, только мы отмахиваемся, типа "мы не такие
🔥24👍8👎2
Новый формат: ИИ-радио!
Мы решил потереть за ИИ со Степой. Если зайдет, сделаем сериал.
Итак.
На следующей неделе во вторник на канале Gershuni пройдет прямой эфир со Степаном Гершуни и вашим задорным слугой Сергеем Цыпцыным, автором канала Метаверсище и ИИще, на тему “Как ИИ меняет мир?”
Мы поговорим о том как стремительное развитие генеративного ИИ влияет на различные области жизни и экономики:
- Что такое образование в эпоху ИИ и какие навыки теперь в цене? Что такое базовая грамотность в век ИИ?
- На что обращать внимание при изучении ИИ: промты, курсы, инфопродукты. Как сэкономить и не попасться на инфоцыгнщину?
- Как сделать так, чтобы ИИ не уничтожил нас всех? Алаймент — это страшилки или реальная опасность? ИИ — это Бог, а Илья Суцкевер его пророк?
- Как выбрать, использовать и выжать максимум из ИИ-ассистентов и агентов?
- Что делать бизнесу в эру ИИ-хаоса? Куда бежать или, может, наоборот, успокоиться?
- Что там в диффузионках? Когда уже мы сможем генерировать “Аватар - 5” одним промтом через Apple Watch?
- Мультимодалки, тренировка своих моделей, open source vs prorietary и другие темы
- Так же ответим на вопросы аудитории, если уложимся в тайминг
Степан — исследователь, технологический стратег, серийный фаундер, работает (набегами) с NLP/ML с 2012 года. Ведущий вебинаров codex.town
Сергей — эксперт в области компьютерной графики, автор книги "Понимая Майя", исследователь искусственного интеллекта, ведущий экзистенциального канала Метаверсище и ИИще
Подключиться к прямому эфиру можно во вторник, 17 октября, в 11am ET / 15pm UTC / 17pm CET / 18pm MSK прямо в телеграме в канале Gershuni. Чтобы не пропустить, можно регистрироваться тут.
Мы решил потереть за ИИ со Степой. Если зайдет, сделаем сериал.
Итак.
На следующей неделе во вторник на канале Gershuni пройдет прямой эфир со Степаном Гершуни и вашим задорным слугой Сергеем Цыпцыным, автором канала Метаверсище и ИИще, на тему “Как ИИ меняет мир?”
Мы поговорим о том как стремительное развитие генеративного ИИ влияет на различные области жизни и экономики:
- Что такое образование в эпоху ИИ и какие навыки теперь в цене? Что такое базовая грамотность в век ИИ?
- На что обращать внимание при изучении ИИ: промты, курсы, инфопродукты. Как сэкономить и не попасться на инфоцыгнщину?
- Как сделать так, чтобы ИИ не уничтожил нас всех? Алаймент — это страшилки или реальная опасность? ИИ — это Бог, а Илья Суцкевер его пророк?
- Как выбрать, использовать и выжать максимум из ИИ-ассистентов и агентов?
- Что делать бизнесу в эру ИИ-хаоса? Куда бежать или, может, наоборот, успокоиться?
- Что там в диффузионках? Когда уже мы сможем генерировать “Аватар - 5” одним промтом через Apple Watch?
- Мультимодалки, тренировка своих моделей, open source vs prorietary и другие темы
- Так же ответим на вопросы аудитории, если уложимся в тайминг
Степан — исследователь, технологический стратег, серийный фаундер, работает (набегами) с NLP/ML с 2012 года. Ведущий вебинаров codex.town
Сергей — эксперт в области компьютерной графики, автор книги "Понимая Майя", исследователь искусственного интеллекта, ведущий экзистенциального канала Метаверсище и ИИще
Подключиться к прямому эфиру можно во вторник, 17 октября, в 11am ET / 15pm UTC / 17pm CET / 18pm MSK прямо в телеграме в канале Gershuni. Чтобы не пропустить, можно регистрироваться тут.
🔥34👍16👎2