Нехилый конфликт между Krea и AnimateDiff.
Похоже я был прав в предыдущем посте, и генерация видео в Krea - это AnimateDiff.
Я поресерчил и оказалось, что в сообществе AnimateDiff часть людей убеждены, что Krea сперли (ну как сперли, скачали открытый код и веса) наработки AnimateDiff и юзают их, для ацкого зарабатывания денег. И в твитторах прям пригорает.
Ниже, я приведу цитаты и ссылку на хороший пост, освещающий историю создания AnimateDiff - там очень много шикарных работ.
Вопрос о воровстве сильно открыт. Как правило, надо смотреть на лицензию всего того добра, которое выкладывается на GitHub. Я не разбирался с кодом AnimateDiff и вопросом о том, легально ли Креа используют код AnimateDiff. Но меня в свое время очень смущал маркетинг Леонардо АИ, являвшегося по сути нашлепкой над Stable Diffusion. Которые запустили в сеть дикий трафик типа "новая модель Леонардо - убийца Midjourney", хотя модель там была Stable Diffusion 1.5. А возможность юзать модели в Цивитай в Леонардо и вовсе ломала такой маркетинг.
В общем, это наверно старая история противостояния открытого и закрытого кода. И того, как можно зарабатывать на открытом коде.
Ниже цитаты:
"Если вы не заметили, Krea — стартап с закрытым исходным кодом, укравший кучу вещей, над которыми люди здесь работали последние 10 месяцев — это было неизбежно, но все равно меня огорчило. В ответ я написал здесь краткий обзор, документирующий некоторые достижения Animatediff https://x.com/pom_I_moq/status/1788675646069277008.
Спасибо всем, кто поделился этим! Я думаю, что сделать так, чтобы все знали о природе таких компаний, как Krea, — это самое лучшее, что мы можем сделать — не спорить и бороться с ними, а информировать о том, чем они занимаются. Оттуда они примут собственное решение.
Кто-то может сказать, что эти люди, зарабатывающие все деньги на этом, неизбежны и что все, что люди придумывают, в конечном итоге будет аналогичным образом коммерциализировано другими людьми, которые почти ничего не имеют общего с экосистемой.
Прежде всего, это было бы ужасно, потому что, как показали такие компании, как Kaliber и Leonardo, конечная цель этих компаний — использовать преимущества открытого исходного кода для обучения более совершенным закрытым моделям. Со временем их цель состоит в том, чтобы сделать открытый исходный код недоступным для своих моделей."
Похоже я был прав в предыдущем посте, и генерация видео в Krea - это AnimateDiff.
Я поресерчил и оказалось, что в сообществе AnimateDiff часть людей убеждены, что Krea сперли (ну как сперли, скачали открытый код и веса) наработки AnimateDiff и юзают их, для ацкого зарабатывания денег. И в твитторах прям пригорает.
Ниже, я приведу цитаты и ссылку на хороший пост, освещающий историю создания AnimateDiff - там очень много шикарных работ.
Вопрос о воровстве сильно открыт. Как правило, надо смотреть на лицензию всего того добра, которое выкладывается на GitHub. Я не разбирался с кодом AnimateDiff и вопросом о том, легально ли Креа используют код AnimateDiff. Но меня в свое время очень смущал маркетинг Леонардо АИ, являвшегося по сути нашлепкой над Stable Diffusion. Которые запустили в сеть дикий трафик типа "новая модель Леонардо - убийца Midjourney", хотя модель там была Stable Diffusion 1.5. А возможность юзать модели в Цивитай в Леонардо и вовсе ломала такой маркетинг.
В общем, это наверно старая история противостояния открытого и закрытого кода. И того, как можно зарабатывать на открытом коде.
Ниже цитаты:
"Если вы не заметили, Krea — стартап с закрытым исходным кодом, укравший кучу вещей, над которыми люди здесь работали последние 10 месяцев — это было неизбежно, но все равно меня огорчило. В ответ я написал здесь краткий обзор, документирующий некоторые достижения Animatediff https://x.com/pom_I_moq/status/1788675646069277008.
Спасибо всем, кто поделился этим! Я думаю, что сделать так, чтобы все знали о природе таких компаний, как Krea, — это самое лучшее, что мы можем сделать — не спорить и бороться с ними, а информировать о том, чем они занимаются. Оттуда они примут собственное решение.
Кто-то может сказать, что эти люди, зарабатывающие все деньги на этом, неизбежны и что все, что люди придумывают, в конечном итоге будет аналогичным образом коммерциализировано другими людьми, которые почти ничего не имеют общего с экосистемой.
Прежде всего, это было бы ужасно, потому что, как показали такие компании, как Kaliber и Leonardo, конечная цель этих компаний — использовать преимущества открытого исходного кода для обучения более совершенным закрытым моделям. Со временем их цель состоит в том, чтобы сделать открытый исходный код недоступным для своих моделей."
X (formerly Twitter)
POM (@peteromallet) on X
The progress of the Animatediff community over the past 10 months has been miraculous - see attached!
Now, closed startups like Krea are taking the fruits of all this effort - so I'd like to tell the story of how we got here & what people who believe in…
Now, closed startups like Krea are taking the fruits of all this effort - so I'd like to tell the story of how we got here & what people who believe in…
👍17🔥11
Forwarded from Psy Eyes (Andrey Bezryadin)
This media is not supported in your browser
VIEW IN TELEGRAM
На HuggingFace появилась фича Use this model для запуска LLM и Text-2-Image моделей у себя локально через желаемый софт.
В настройках хаггинг аккаунта заходим в раздел Local Apps and Hardware. Можно здесь задать своё железо, но на фильтрацию AI-приложений похоже это не влияет. Я с ноута, где стоит двухгиговая 1050 запустил ламу 3 в Jan, всё ок.
Ставим галочки на софте, который вы используете для того, чтобы гонять модели локально. Для работы с текстом поддерживаются llama.cpp, LM Studio, Jan, Backyard AI. С картинками пока только Draw Things и, скоро, DiffusionBee, но они обе только на мак.
Нажимаем Browse Compatible Models —> выбираем приглянувшуюся нейронку —> кликаем Use this model в правом верхнем углу —> выбираем в каком софте запустить, и через диплинк в нём откроется окно для загрузки модели. Можно и просто исследуя хаггинг открыть понравившуюся нейронку нажав Use this model.
Доступны, в основном, квантизированные GGUF версии, которые можно скачать либо целиком, либо они состоят из нескольких частей и для работы понадобится скачать их все как архив из множества кусков (они обычно подписаны part_N). Чтобы понять какую модель грузить, можно глянуть страницу с описанием на хаггинге, если там про это есть. В противном случае качайте, то что как вам кажется нормально запуститься в памяти вашей видюхи. Как только модель загружена — можно генерить.
Если вы пилите своё приложение для запуска локальных моделей, то нажав Suggest a new local app вы можете предложить добавить его в список.
В настройках хаггинг аккаунта заходим в раздел Local Apps and Hardware. Можно здесь задать своё железо, но на фильтрацию AI-приложений похоже это не влияет. Я с ноута, где стоит двухгиговая 1050 запустил ламу 3 в Jan, всё ок.
Ставим галочки на софте, который вы используете для того, чтобы гонять модели локально. Для работы с текстом поддерживаются llama.cpp, LM Studio, Jan, Backyard AI. С картинками пока только Draw Things и, скоро, DiffusionBee, но они обе только на мак.
Нажимаем Browse Compatible Models —> выбираем приглянувшуюся нейронку —> кликаем Use this model в правом верхнем углу —> выбираем в каком софте запустить, и через диплинк в нём откроется окно для загрузки модели. Можно и просто исследуя хаггинг открыть понравившуюся нейронку нажав Use this model.
Доступны, в основном, квантизированные GGUF версии, которые можно скачать либо целиком, либо они состоят из нескольких частей и для работы понадобится скачать их все как архив из множества кусков (они обычно подписаны part_N). Чтобы понять какую модель грузить, можно глянуть страницу с описанием на хаггинге, если там про это есть. В противном случае качайте, то что как вам кажется нормально запуститься в памяти вашей видюхи. Как только модель загружена — можно генерить.
Если вы пилите своё приложение для запуска локальных моделей, то нажав Suggest a new local app вы можете предложить добавить его в список.
🔥22👍6
This media is not supported in your browser
VIEW IN TELEGRAM
Матрица все ближе. Нео и агент Смит пока играют в настольный футбол.
Идея хорошая. Прокачивать обратную связь и гонять мячик силой мысли полезно для мозга.
Тут вот управление глазами прикручивают к айфону (и уже прикрутили к хуавею).
Но прикиньте прокачанный скилл типа "разблокируй телефон, запусти телегу, открой канал Метаверсище". И все это силой мысли.
Вынимаешь телефон из кармана, и сразу читаешь этот пост. Без тыкания грязными пальцами в экран.
Листаешь также, силой мысли.
Одна засада, надо потратить много усилий на тренировку таких навыков
У меня был такой приборчик, с манжеткой на ладонь. Довольно сильно приходилось пыхтеть, чтобы сдвинуть мячик с места. Также была примочка к айфону.
Покрал видео на компьютере, там довольно интересный научпоп про телекинез и про то, как промты ЛЛМ связаны с телепатией.
https://www.computerra.ru/297102/smogut-li-mozgovye-chipy-odarit-lyudej-telekinezom/
Идея хорошая. Прокачивать обратную связь и гонять мячик силой мысли полезно для мозга.
Тут вот управление глазами прикручивают к айфону (и уже прикрутили к хуавею).
Но прикиньте прокачанный скилл типа "разблокируй телефон, запусти телегу, открой канал Метаверсище". И все это силой мысли.
Вынимаешь телефон из кармана, и сразу читаешь этот пост. Без тыкания грязными пальцами в экран.
Листаешь также, силой мысли.
Одна засада, надо потратить много усилий на тренировку таких навыков
У меня был такой приборчик, с манжеткой на ладонь. Довольно сильно приходилось пыхтеть, чтобы сдвинуть мячик с места. Также была примочка к айфону.
Покрал видео на компьютере, там довольно интересный научпоп про телекинез и про то, как промты ЛЛМ связаны с телепатией.
https://www.computerra.ru/297102/smogut-li-mozgovye-chipy-odarit-lyudej-telekinezom/
🔥34👍10
Forwarded from РЕПТИЛОИДНАЯ (Denis Rossiev)
This media is not supported in your browser
VIEW IN TELEGRAM
Шутки кончились.
Роботы-псы уже на вооружении у Китая 🇨🇳
Это уже не пес с огнеметом просто приколу. Это уже не прототип и не эксперимент.
Это видео (вроде как) с учений китайской армии, которые проходят прямо сейчас.
Возникает много вопросов:
- Что за оружие установлено на пса.
- Пес управляется дистанционно, или, наконец, получил автономность и все помнит.
- И, самое главное, СКОЛЬКО у них этих псов.
Кажется, уже совсем скоро кожаные узнают ответы. И ответы им не понравятся.
🔴 @reptiloidnaya × #киберпанк #роботы
Роботы-псы уже на вооружении у Китая 🇨🇳
Это уже не пес с огнеметом просто приколу. Это уже не прототип и не эксперимент.
Это видео (вроде как) с учений китайской армии, которые проходят прямо сейчас.
Возникает много вопросов:
- Что за оружие установлено на пса.
- Пес управляется дистанционно, или, наконец, получил автономность и все помнит.
- И, самое главное, СКОЛЬКО у них этих псов.
Кажется, уже совсем скоро кожаные узнают ответы. И ответы им не понравятся.
🔴 @reptiloidnaya × #киберпанк #роботы
🔥42👎10👍5
This media is not supported in your browser
VIEW IN TELEGRAM
Виртуальная примерочная наоборот.
Гугл бахнул прототип инверсной примерочной - одна и та же одежда виртуально примеряется на разных людях. Люди, судя по всему, не кожаные, а диффузионные. Всех цветов, а главное - размеров.
Выглядит занятно - выбираешь сначала шмот, потом цвет и размер себя родимого, и ну примерять.
https://www.wired.com/story/google-ai-shopping-clothes-fit-different-bodies/
Кстати, у Гугла уже есть и "прямая примерочная":
https://www.wired.com/story/google-generative-ai-clothes-shopping/
И таких примерочных уже много, недавно обсуждали VTON.
Но с инверсией забавно и диверсити на месте.
Гугл бахнул прототип инверсной примерочной - одна и та же одежда виртуально примеряется на разных людях. Люди, судя по всему, не кожаные, а диффузионные. Всех цветов, а главное - размеров.
Выглядит занятно - выбираешь сначала шмот, потом цвет и размер себя родимого, и ну примерять.
https://www.wired.com/story/google-ai-shopping-clothes-fit-different-bodies/
Кстати, у Гугла уже есть и "прямая примерочная":
https://www.wired.com/story/google-generative-ai-clothes-shopping/
И таких примерочных уже много, недавно обсуждали VTON.
Но с инверсией забавно и диверсити на месте.
👍37🔥3👎2
Чутье меня не подвело.
Помните, что я писал, что вся эта вирусная лабуда про пересаживание голов - фейк?
Читаем ниже.
Видео, впервые опубликованное в прошлый вторник, набрало миллионы просмотров, более 24 000 комментариев на Facebook и страйки на TikTok за жуткие изображения отрубленных голов. На сайте BrainBridge размещено несколько вакансий, в том числе одна для "руководителя группы нейронаук" и другая для "советника по связям с правительством". И даже New York Post написала, что BrainBridge - это "стартап в области биомедицинской инженерии" и что "компания" планирует провести операцию в течение восьми лет.
Так вот, компания BrainBridge - это фейк. Она нигде не зарегистрирована. Видео снял Хашем Аль-Гаили, йеменский научный популяризатор, который в 2022 году сделал вирусное видео под названием "ЭктоЛайф" об искусственных матках, заставившее журналистов ломать голову над тем, реально ли это.
Так что расходимся. Пофантазировали в коментах, и хватит.
В статье любопытные мысли о том, что это прогрев аудитории и попытка понять, можно ли на эту тему привлечь инвестиции.
https://www.technologyreview.com/2024/05/23/1092848/that-viral-video-showing-a-head-transplant-is-a-fake-but-it-might-be-real-someday/
Помните, что я писал, что вся эта вирусная лабуда про пересаживание голов - фейк?
Читаем ниже.
Видео, впервые опубликованное в прошлый вторник, набрало миллионы просмотров, более 24 000 комментариев на Facebook и страйки на TikTok за жуткие изображения отрубленных голов. На сайте BrainBridge размещено несколько вакансий, в том числе одна для "руководителя группы нейронаук" и другая для "советника по связям с правительством". И даже New York Post написала, что BrainBridge - это "стартап в области биомедицинской инженерии" и что "компания" планирует провести операцию в течение восьми лет.
Так вот, компания BrainBridge - это фейк. Она нигде не зарегистрирована. Видео снял Хашем Аль-Гаили, йеменский научный популяризатор, который в 2022 году сделал вирусное видео под названием "ЭктоЛайф" об искусственных матках, заставившее журналистов ломать голову над тем, реально ли это.
Так что расходимся. Пофантазировали в коментах, и хватит.
В статье любопытные мысли о том, что это прогрев аудитории и попытка понять, можно ли на эту тему привлечь инвестиции.
https://www.technologyreview.com/2024/05/23/1092848/that-viral-video-showing-a-head-transplant-is-a-fake-but-it-might-be-real-someday/
Telegram
Метаверсище и ИИще
Кожаный дипфейк.
Тут интернетик приподвспучивается новостью про пересадку голов.
Видосик разлетелся, журналюги взвыли.
Там еще самая сладкая фича - пересадка лица! Кожаный дипфейк во плоти.
Смотрите здесь полное видео:
https://youtu.be/szXbuUlUhQ4 (осторожно…
Тут интернетик приподвспучивается новостью про пересадку голов.
Видосик разлетелся, журналюги взвыли.
Там еще самая сладкая фича - пересадка лица! Кожаный дипфейк во плоти.
Смотрите здесь полное видео:
https://youtu.be/szXbuUlUhQ4 (осторожно…
👍29👎6🔥6
Суно честно спер фишку генерации музыки из внешних звуков из musicfy.lol
В принципе это напрашивалось уже давно - audio-2-audio - это как image2image.
Подробнее про musicfy.lol с полным видео почитайте тут.
Ну и это, наконец, путь к новым аранжировкам старых песен.
Интересно, у них будет какая-то цензура на входное аудио. Сейчас, когда в тексте указываешь имена конкретных исполнителей, тебя сразу шлют в сад.
А если присунуть на аудио-вход конкретного исполнителя? Подозреваю, что там будет шазамоподобная цензура, иначе будет очень много вопросов.
Впрочем, умельцы быстро сварганят препроцессинг - берем майкла джексона, пропускаем через фильтры, раскладываем на дорожки и вонзаем в Суно.
Что будем сувать в Suno, композиторы?
В принципе это напрашивалось уже давно - audio-2-audio - это как image2image.
Подробнее про musicfy.lol с полным видео почитайте тут.
Ну и это, наконец, путь к новым аранжировкам старых песен.
Интересно, у них будет какая-то цензура на входное аудио. Сейчас, когда в тексте указываешь имена конкретных исполнителей, тебя сразу шлют в сад.
А если присунуть на аудио-вход конкретного исполнителя? Подозреваю, что там будет шазамоподобная цензура, иначе будет очень много вопросов.
Впрочем, умельцы быстро сварганят препроцессинг - берем майкла джексона, пропускаем через фильтры, раскладываем на дорожки и вонзаем в Суно.
Что будем сувать в Suno, композиторы?
🔥40👍9👎3
Также Suno.ai пилят четвертую версию, в которую пойдет фишка из предыдущего поста.
А пока они открывают доступ к версии 3.5 для подписок Pro и Premier.
v3.5 - это обновленная версия v3 со следующими улучшениями:
- Максимальная длина клипа - 4 минуты! Целый трек, без нужды склеивать.
- Максимальное продолжение имеющегося трека на 2 минуты
- Значительно улучшена структура песни
- Сохранение в формате .wav.
Обещают открыть версию 3.5 для бесплатных пользователей уже на следующей неделе.
https://twitter.com/suno_ai_/status/1794145852723777559
А пока они открывают доступ к версии 3.5 для подписок Pro и Premier.
v3.5 - это обновленная версия v3 со следующими улучшениями:
- Максимальная длина клипа - 4 минуты! Целый трек, без нужды склеивать.
- Максимальное продолжение имеющегося трека на 2 минуты
- Значительно улучшена структура песни
- Сохранение в формате .wav.
Обещают открыть версию 3.5 для бесплатных пользователей уже на следующей неделе.
https://twitter.com/suno_ai_/status/1794145852723777559
🔥47👍5👎1
This media is not supported in your browser
VIEW IN TELEGRAM
Из набросков в 3Д.
В коментах вопрошали, а можно ли из чертежей или набросков делать 3Д.
Держите довольно ловкий плагин для Блендора. Позволяет делать процедурные города и улицы. Внутри довольно много ассетов. И нет, это не ИИ. Это олдскульный процедурный генератор.
Много видео и туторов вот тут:
https://blendermarket.com/products/icity
В коментах вопрошали, а можно ли из чертежей или набросков делать 3Д.
Держите довольно ловкий плагин для Блендора. Позволяет делать процедурные города и улицы. Внутри довольно много ассетов. И нет, это не ИИ. Это олдскульный процедурный генератор.
Много видео и туторов вот тут:
https://blendermarket.com/products/icity
👍71🔥40
This media is not supported in your browser
VIEW IN TELEGRAM
Немного AnimateDiff + DaVinci Resolve + Udio в умелых руках.
Вот что получается, когда за дело берутся взрослые мальчики, которые умеют и в моушен дизайн и в ComfyUI, которые умеют и рисовать, и раскатывать репозитарии с Гитхаба.
Хотите больше работ и немного подробностей, как делаются такие штуки, шуруйте в твиттор автора, там очень интересные технические эксперименты.
А полное видео на 4 минуты находится тут, осторожно, залипательно...
Udio смотрится очень уместно - получается полный генератив от начала до конца.
Вот что получается, когда за дело берутся взрослые мальчики, которые умеют и в моушен дизайн и в ComfyUI, которые умеют и рисовать, и раскатывать репозитарии с Гитхаба.
Хотите больше работ и немного подробностей, как делаются такие штуки, шуруйте в твиттор автора, там очень интересные технические эксперименты.
А полное видео на 4 минуты находится тут, осторожно, залипательно...
Udio смотрится очень уместно - получается полный генератив от начала до конца.
👍53🔥22👎15❤1
Forwarded from Мишин Лернинг
📰 OpenAI объявили, что начали обучение новой версии GPT, скорее всего, речь идет про GPT-5.
В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с обучением и выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5.
Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать:
— более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность
— Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов.
читать 👉 OpenAI Board Forms Safety and Security Committee
В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с обучением и выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5.
Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать:
— более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность
— Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов.
читать 👉 OpenAI Board Forms Safety and Security Committee
🔥35👍9👎6
Тут вот все опять цитируют МакКинзи, который теперь строчит аналитические прогнозы про ИИ.
Я поднял свой пост двухлетней давности, где они на серьезных щах ванговали, что рынок Метаверса достигнет в 2030 году размера в ПЯТИ ТРИЛЛИОНОВ долларов. Ну то есть берем хайповый термин, которому так и не придумали определения и ну ванговать в угоду рынку.
Почитайте, пост едкий, но хороший: https://t.me/cgevent/3709
Это я к чему? А к тому, что пора уже выпить за всех этих онолитегов, которые по старым лекалам вангуют на рынке, не очень понимая предмет, и не очень понимая, что данные теперь гораздо лучше трактуются ИИ, чем кожаными агрегаторами данных.
Почитайте следующий пост о том, что даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. А уж если ИИ подкормить спецификой, то за кожаных вангователей точно можно выписвать не чокаясь.
⬇️⬇️⬇️⬇️⬇️⬇️
Я поднял свой пост двухлетней давности, где они на серьезных щах ванговали, что рынок Метаверса достигнет в 2030 году размера в ПЯТИ ТРИЛЛИОНОВ долларов. Ну то есть берем хайповый термин, которому так и не придумали определения и ну ванговать в угоду рынку.
Почитайте, пост едкий, но хороший: https://t.me/cgevent/3709
Это я к чему? А к тому, что пора уже выпить за всех этих онолитегов, которые по старым лекалам вангуют на рынке, не очень понимая предмет, и не очень понимая, что данные теперь гораздо лучше трактуются ИИ, чем кожаными агрегаторами данных.
Почитайте следующий пост о том, что даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. А уж если ИИ подкормить спецификой, то за кожаных вангователей точно можно выписвать не чокаясь.
⬇️⬇️⬇️⬇️⬇️⬇️
Telegram
Метаверсище и ИИще
К 2030 году мы будем заниматься киберпанком два-три раза в день.
Примерно так выглядят многочисленные прогнозы и отчеты по рынку "метаверсов", которые публикуют многочисленные агентства. Не устояли от искушения хайпануть даже уважаемые МакКинзи.
Они пишут…
Примерно так выглядят многочисленные прогнозы и отчеты по рынку "метаверсов", которые публикуют многочисленные агентства. Не устояли от искушения хайпануть даже уважаемые МакКинзи.
Они пишут…
🔥24👍14
Forwarded from AI Product | Igor Akimov
Прикольненко. GPT-4 оказалась лучше профессиональных аналитиков и гораздо лучше предсказывают будущие доходы и делать финансовый анализ даже без файнтюнинга какого-то специального, просто с chain-of-thought.
Вот что пишут:
Даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. LLM демонстрирует относительное преимущество над человеческими аналитиками в ситуациях, когда аналитики обычно испытывают трудности. Более того, мы обнаружили, что точность предсказания LLM находится на одном уровне с эффективностью узко обученной современной ML-модели. LLM генерирует полезные описательные сведения о будущих показателях компании. Наконец, наши торговые стратегии, основанные на прогнозах GPT, дают более высокий коэффициент Шарпа и альфа, чем стратегии, основанные на других моделях. В совокупности наши результаты позволяют предположить, что LLM могут играть центральную роль в принятии решений.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311
Вот что пишут:
Даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. LLM демонстрирует относительное преимущество над человеческими аналитиками в ситуациях, когда аналитики обычно испытывают трудности. Более того, мы обнаружили, что точность предсказания LLM находится на одном уровне с эффективностью узко обученной современной ML-модели. LLM генерирует полезные описательные сведения о будущих показателях компании. Наконец, наши торговые стратегии, основанные на прогнозах GPT, дают более высокий коэффициент Шарпа и альфа, чем стратегии, основанные на других моделях. В совокупности наши результаты позволяют предположить, что LLM могут играть центральную роль в принятии решений.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311
👍67🔥19👎1
Поставьте 72.5 реакции и я наконец-то напишу про AGI. Ибо откладываю уже три месяца. А наболело.
🔥302👍75👎12
ИИ-авторские
А тем временем сделаю вот такой некороткий наброс.
Тут общественность худо бедно разобралаcь со Скарлет Ёхансон и голосом Sky, который удалили из chatGPT. Если вкратце, то это была не Скарлет, а неизвестная никому (пока) актриса озвучания. Когда ее отобрали, то НЕ просили быть похожей на Ёхансон и не упоминали фильм Her как референс. Просто записали, как есть. А получилось (немного) похоже на Скарлет.
Тут бы поставить точку, но остается вопрос - а схренали Сэм звонил Скарлет тогда накануне презентации (ну ок, может предлагал сотрудничество на будущее).
Дальше встает очень интересный вопрос, а если ваш голос похож на голос Лепса или Джанифер Лопес, то вам получается надо помалкивать, ибо если вдруг озвучите что-нибудь популярное, что вам прилетит от Лепса\Лопес. Тут рождается идея для стартапа - токенизация голоса, цифровая метка на ваш тембр, которую вы храните в блокчейне, хотя я думаю WorldCoin - это подхватит.
Кстати, кожаные двойники встречаются в природе примерно 1 на 100 000. То есть лица, которые условные пограничники на таможне будут путать друг с другом. ИИ в этом случае различает лица лучше, больше параметров считывает.
Но я веду вот к чему. Если вы Ёхансон или Лепс, то у вас есть агент или агентство, с которым у вас контракт. У них есть права на ваш голос, пестни, и всякую дичь, которую вы исторгаете из себя.
Но ИИ учится не только на ЛепсоЛопесах, он учится на всех кожаных. И в роли агентства для вас родимых выступают фейсбучеги, реддиты, артстейшены, твитторы. Куда вы, гогоча, вгружаете свои неумные мысли и гениальные картинки. Просто заводя аккаунты, вы нажали кнопку "Согласен". С тем, что все ваши авторские комментарии теперь во власти соц-сетей и всяких агрегаторов USG (user generated content).
Да, контракт можно разорвать, просто удалив аккаунт. Но вы готовы платить такую цену?
Если нет, то привыкайте, что теперь у вас у всех есть свои агенты, которые владеют авторскими правами на контент, который вы производите. И владеют полностью, с потрохами. И продают эти потроха и ваши авторские права Гуглу, ОпенАИ и всем кто даст хорошие деньги.
Так что вы теперь все Ёхансоны в каком-то смысле. Только судиться не с кем.
А тем временем сделаю вот такой некороткий наброс.
Тут общественность худо бедно разобралаcь со Скарлет Ёхансон и голосом Sky, который удалили из chatGPT. Если вкратце, то это была не Скарлет, а неизвестная никому (пока) актриса озвучания. Когда ее отобрали, то НЕ просили быть похожей на Ёхансон и не упоминали фильм Her как референс. Просто записали, как есть. А получилось (немного) похоже на Скарлет.
Тут бы поставить точку, но остается вопрос - а схренали Сэм звонил Скарлет тогда накануне презентации (ну ок, может предлагал сотрудничество на будущее).
Дальше встает очень интересный вопрос, а если ваш голос похож на голос Лепса или Джанифер Лопес, то вам получается надо помалкивать, ибо если вдруг озвучите что-нибудь популярное, что вам прилетит от Лепса\Лопес. Тут рождается идея для стартапа - токенизация голоса, цифровая метка на ваш тембр, которую вы храните в блокчейне, хотя я думаю WorldCoin - это подхватит.
Кстати, кожаные двойники встречаются в природе примерно 1 на 100 000. То есть лица, которые условные пограничники на таможне будут путать друг с другом. ИИ в этом случае различает лица лучше, больше параметров считывает.
Но я веду вот к чему. Если вы Ёхансон или Лепс, то у вас есть агент или агентство, с которым у вас контракт. У них есть права на ваш голос, пестни, и всякую дичь, которую вы исторгаете из себя.
Но ИИ учится не только на ЛепсоЛопесах, он учится на всех кожаных. И в роли агентства для вас родимых выступают фейсбучеги, реддиты, артстейшены, твитторы. Куда вы, гогоча, вгружаете свои неумные мысли и гениальные картинки. Просто заводя аккаунты, вы нажали кнопку "Согласен". С тем, что все ваши авторские комментарии теперь во власти соц-сетей и всяких агрегаторов USG (user generated content).
Да, контракт можно разорвать, просто удалив аккаунт. Но вы готовы платить такую цену?
Если нет, то привыкайте, что теперь у вас у всех есть свои агенты, которые владеют авторскими правами на контент, который вы производите. И владеют полностью, с потрохами. И продают эти потроха и ваши авторские права Гуглу, ОпенАИ и всем кто даст хорошие деньги.
Так что вы теперь все Ёхансоны в каком-то смысле. Только судиться не с кем.
👍49🔥15👎4
Forwarded from Эксплойт
Media is too big
VIEW IN TELEGRAM
Парень провёл абсолютно гениальный эксперимент — «Обратный тест Тьюринга».
Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет.
Специально для вас сделали перевод на русский язык.
@exploitex
Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет.
Специально для вас сделали перевод на русский язык.
@exploitex
👍107🔥79👎3
This media is not supported in your browser
VIEW IN TELEGRAM
Продолжаем за 3Д.
Rodin Gen-1 атакует меня письмами.
Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin
Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
Rodin Gen-1 атакует меня письмами.
Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin
Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
🔥33👍1
Rodin (Родэн) GEN-1: тестируем.
Я поиграл с ним, присунул им своего низкополигонального перца (в надежде, что он воспримет это как подсказку). Но нет, моделька, конечно, не айс. Но замысел он угадал.
Их основной посыл - уточняющий цикл генерации, вы можете менять параметры и возвращаться к уже имеющейся модели. Но будете платить кредиты, то есть деньги.
Сетка получилась плотная, ни о каком лоу поли речи не идет, но хотя бы не каша из треугольников. И потом он честно попытался сделать текстуру и материал. И еще у них забавный режим Toon для просмотра.
Скачал модель в obj, потратил на всепровсе 5 кредитов.
Очень ждем модель OpenClay600M, пока вся генерация идет на старой модели Rodin Gen-1.
https://hyperhuman.deemos.com/rodiс
Я поиграл с ним, присунул им своего низкополигонального перца (в надежде, что он воспримет это как подсказку). Но нет, моделька, конечно, не айс. Но замысел он угадал.
Их основной посыл - уточняющий цикл генерации, вы можете менять параметры и возвращаться к уже имеющейся модели. Но будете платить кредиты, то есть деньги.
Сетка получилась плотная, ни о каком лоу поли речи не идет, но хотя бы не каша из треугольников. И потом он честно попытался сделать текстуру и материал. И еще у них забавный режим Toon для просмотра.
Скачал модель в obj, потратил на всепровсе 5 кредитов.
Очень ждем модель OpenClay600M, пока вся генерация идет на старой модели Rodin Gen-1.
https://hyperhuman.deemos.com/rodiс
👍16