Приподвсхоливарим? Midjourney VS Stable Diffusion.
Прошелся по Твиттору на предмет Midjourney V5, нашел много красивого и разного.
Все пишут, что они прям уперлись в руки и зубы. И в портреты.
Вы можете твитторнуть вот так:
https://twitter.com/search?q=%23midjourneyv5
Или реддитнуть на Midjourney V5
Увидите много интересных картинок.
Больше всего наверное тут (удобно распарсенный тред):
https://en.rattibha.com/thread/1634538203180040193
Мне понравились комиксы(по работе) и всякие нефотореалистичные дела.
А коль скоро я в последнее время много консультирую по поводу внедрения ИИ-генераций в разные пайплайны, то у меня копится недоумение.
API нет.
Аналогов ControlNet - нет.
Ставить персонажей в нужные позы - нереально или очень сложно и весьма приблизительно
Плагинов, расширений, скриптов - нет. Точнее нет самой экосистемы.
Plot X/Y/Z нет(!, поправьте меня если есть). Как вообще без этого можно жить? Когда нужно сделать 50 картинок, где с небольшим шагом меняется либо параметр генерации, либо слова в промте из списка.
Интеграции с Адобченко, Блендерченко, Критченко - да вообще ни с чем - нет!
Ну и самое главное. Нет возможности дотренировать на своих картинках!
Ну и самое самое главное - они делают вид, что порно не существует. Да что порно, намек на эротику - теплый блюр на лицо. Только розовые пони.
Я понимаю, если вы в одно лицо строчите картинки для иллюстрации рекламных каталогов или для сайтов. Но если у вас игровой или пост-продакшен?
Stable Diffusion наше все.
Прошелся по Твиттору на предмет Midjourney V5, нашел много красивого и разного.
Все пишут, что они прям уперлись в руки и зубы. И в портреты.
Вы можете твитторнуть вот так:
https://twitter.com/search?q=%23midjourneyv5
Или реддитнуть на Midjourney V5
Увидите много интересных картинок.
Больше всего наверное тут (удобно распарсенный тред):
https://en.rattibha.com/thread/1634538203180040193
Мне понравились комиксы(по работе) и всякие нефотореалистичные дела.
А коль скоро я в последнее время много консультирую по поводу внедрения ИИ-генераций в разные пайплайны, то у меня копится недоумение.
API нет.
Аналогов ControlNet - нет.
Ставить персонажей в нужные позы - нереально или очень сложно и весьма приблизительно
Плагинов, расширений, скриптов - нет. Точнее нет самой экосистемы.
Plot X/Y/Z нет(!, поправьте меня если есть). Как вообще без этого можно жить? Когда нужно сделать 50 картинок, где с небольшим шагом меняется либо параметр генерации, либо слова в промте из списка.
Интеграции с Адобченко, Блендерченко, Критченко - да вообще ни с чем - нет!
Ну и самое главное. Нет возможности дотренировать на своих картинках!
Ну и самое самое главное - они делают вид, что порно не существует. Да что порно, намек на эротику - теплый блюр на лицо. Только розовые пони.
Я понимаю, если вы в одно лицо строчите картинки для иллюстрации рекламных каталогов или для сайтов. Но если у вас игровой или пост-продакшен?
Stable Diffusion наше все.
👍71🔥5
Ух, ребята подняли LLaMA 7B model на 4GB RAM Raspberry Pi 4.
Похоже скоро любая микроволновка или пылесос смогут бесконечно с вами разговаривать за жизнь.
Кроме шуток - это реально круто, автономные девайсы с мета-chatGPT на борту без подключения к интернету.
Ну и похоже большая языковая модель LLaMA от Меты, скоро будет играть роль Stable Diffusion в области генерации диалогов. Ее выпустили на свободу, а слово, как известно, не воробей, его уже не поймаешь (хотя тут напрашивается шутка про бота Google Sparrow).
Ждем Automatic1111 для LLaMA с возможность дообучения и запуска на ноутбуках.
https://twitter.com/miolini/status/1634982361757790209
Похоже скоро любая микроволновка или пылесос смогут бесконечно с вами разговаривать за жизнь.
Кроме шуток - это реально круто, автономные девайсы с мета-chatGPT на борту без подключения к интернету.
Ну и похоже большая языковая модель LLaMA от Меты, скоро будет играть роль Stable Diffusion в области генерации диалогов. Ее выпустили на свободу, а слово, как известно, не воробей, его уже не поймаешь (хотя тут напрашивается шутка про бота Google Sparrow).
Ждем Automatic1111 для LLaMA с возможность дообучения и запуска на ноутбуках.
https://twitter.com/miolini/status/1634982361757790209
X (formerly Twitter)
Artem Andreenko (@miolini) on X
I've sucefully runned LLaMA 7B model on my 4GB RAM Raspberry Pi 4. It's super slow about 10sec/token. But it looks we can run powerful cognitive pipelines on a cheap hardware.
🔥48👍10
This media is not supported in your browser
VIEW IN TELEGRAM
Я много писал про D-ID - софт, которому даешь на вход ОДНУ картинку лица и звук, а он выдает тебе видео говорящего аватара, читающего твой текст.
https://t.me/cgevent/5222
https://t.me/cgevent/5112
https://t.me/cgevent/4268
Это израильский стартап D-ID, делавший раньше технологию Deep Nostalgia, и они бахнули новый проект chat.D-ID - скрестили chatGPT и девушку АлИИсу.
Теперь можете писать свои глупости и даже общаться с ней голосом.
Я перебеседовал с ней и у меня ощущение, что там под капотом скриптовые эвристики, а не chatGPT, она отвечает одинаково на одни и те же вопросы, несмотря на вводные между вопросами.
Хотя они пишут - Have a face-to-face conversation with ChatGPT
Но мне вот интересно, когда Эппле и Гугль раздуплятся?
Когда Эппле прикрутит к своей Сири милый аватар? Для этого у них все есть.
Когда Ок, Гугл станет станем взрослым аватаром?
Думаю нас ждет нашествие говорящих голов...
Попробуйте тут:
https://chat.d-id.com/
P.S. Мултипликаторы на липсинк выкручены на максимум. Девушка артикулирует не по-детски, зато нет традиционного мелкочастотного дребезга губами, присущего автоматическим липсинкам
https://t.me/cgevent/5222
https://t.me/cgevent/5112
https://t.me/cgevent/4268
Это израильский стартап D-ID, делавший раньше технологию Deep Nostalgia, и они бахнули новый проект chat.D-ID - скрестили chatGPT и девушку АлИИсу.
Теперь можете писать свои глупости и даже общаться с ней голосом.
Я перебеседовал с ней и у меня ощущение, что там под капотом скриптовые эвристики, а не chatGPT, она отвечает одинаково на одни и те же вопросы, несмотря на вводные между вопросами.
Хотя они пишут - Have a face-to-face conversation with ChatGPT
Но мне вот интересно, когда Эппле и Гугль раздуплятся?
Когда Эппле прикрутит к своей Сири милый аватар? Для этого у них все есть.
Когда Ок, Гугл станет станем взрослым аватаром?
Думаю нас ждет нашествие говорящих голов...
Попробуйте тут:
https://chat.d-id.com/
P.S. Мултипликаторы на липсинк выкручены на максимум. Девушка артикулирует не по-детски, зато нет традиционного мелкочастотного дребезга губами, присущего автоматическим липсинкам
🔥20👍3
This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк уже здесь. Точнее в Китае.
80 километров гор, покрытых солнечными батареями.
Чего горам зря пропадать..
80 километров гор, покрытых солнечными батареями.
Чего горам зря пропадать..
👍83🔥43👎7
Вот вы говорите, что chatGPT обучен на данных до 2021 года и ничего не знает про наше время.
Да он просто гений-ясновидящий!
Выдать в 2021 году такой текст(он же родом из 2021) - это умыть всех финансовых аналитиков, которые два года полоскали нам мозги про метаверс.
Итак, я просто его спросил:
- расскажи, что такое метаверс, говоря как несовершеннолетний гопник
- Братан, ты когда-нибудь слышал про такое слово как "метаверс"? Это какая-то новая модная херня, которую придумали для того, чтобы заработать бабла. В общем, это такой как бы виртуальный мир, где люди могут ходить, общаться и всякую фигню делать, понимаешь? Там можно создавать своих персонажей, квесты проходить, деньги зарабатывать и т.д. Ну, короче, это как бы игра, но в интернете, где все настоящее, а ты сам как бы тоже там настоящий, только в виртуальном виде. В общем, мне кажется, что это довольно бредово и я не понимаю, зачем люди тратят на это свое время и деньги. Но может я просто не так понимаю, да и ты тоже, братан.
В общем, я пойду с ним пообщаюсь, поплотнее, какие акции брать, куда смотреть. Ну, правда, ясновидящий, чо.
Не фейк, скрин в шапке. А то в сети много фейков про гипотенузу и прочие умности.
Да он просто гений-ясновидящий!
Выдать в 2021 году такой текст(он же родом из 2021) - это умыть всех финансовых аналитиков, которые два года полоскали нам мозги про метаверс.
Итак, я просто его спросил:
- расскажи, что такое метаверс, говоря как несовершеннолетний гопник
- Братан, ты когда-нибудь слышал про такое слово как "метаверс"? Это какая-то новая модная херня, которую придумали для того, чтобы заработать бабла. В общем, это такой как бы виртуальный мир, где люди могут ходить, общаться и всякую фигню делать, понимаешь? Там можно создавать своих персонажей, квесты проходить, деньги зарабатывать и т.д. Ну, короче, это как бы игра, но в интернете, где все настоящее, а ты сам как бы тоже там настоящий, только в виртуальном виде. В общем, мне кажется, что это довольно бредово и я не понимаю, зачем люди тратят на это свое время и деньги. Но может я просто не так понимаю, да и ты тоже, братан.
В общем, я пойду с ним пообщаюсь, поплотнее, какие акции брать, куда смотреть. Ну, правда, ясновидящий, чо.
Не фейк, скрин в шапке. А то в сети много фейков про гипотенузу и прочие умности.
🔥78👍11👎5
Время собирать #промо
[Если проспорю, то буду работать бесплатно]
Я поспорил, что с 0 за 3 месяца заработаю $100 000 в геймдев.
Если не смогу, то бесплатно выведу 5 своих подписчиков на оборот $5000 в месяц.
🔥 Следи за реалити в прямом эфире и участвуй в конкурсе:
— Отчеты каждый день;
— Прямые эфиры каждый вторник.
Жми на ссылку ниже и ежедневно наблюдай за прогрессом 🔽
https://t.me/grishakof_gamedev
[Если проспорю, то буду работать бесплатно]
Я поспорил, что с 0 за 3 месяца заработаю $100 000 в геймдев.
Если не смогу, то бесплатно выведу 5 своих подписчиков на оборот $5000 в месяц.
🔥 Следи за реалити в прямом эфире и участвуй в конкурсе:
— Отчеты каждый день;
— Прямые эфиры каждый вторник.
Жми на ссылку ниже и ежедневно наблюдай за прогрессом 🔽
https://t.me/grishakof_gamedev
👎76👍6
Вы спрашивали, как ИИ захватит мир. А вот так!
Я уже писал про микроволновки и пылесосы. Но случилось непоправимое.
Большую языковую модель Llama запустили на телефоне. Локально.
Символично, что на Pixel 6.
Как справедливо пишут в твитторах:
None of the big labs were able to run an LLM on the phone — but open-source did it in days!
Если учесть, что каждый год продается 1.2-1.4 миллиарда смартфонов, то вы поняли, как ИИ захватит мир. Через телефоны. Пылесосы будут на подпевках.
А вообще забавно, как сбываются сценарии из книжек и кино.
ИИ начинает говорить.
ИИ начинает генерит картинки.
ИИ начинает писать код.
ИИ пишет вирус, который ставить сам себя в каждый телефон.
Пылесосы сбивают с ног кожаных мешков, умные замки запирают двери, умные микроволновки сжигают дома, устраивая пожар.
А телефоны блокируют звонки в службу спасения.
Вы все еще верите, что это невозможно.
https://twitter.com/thiteanish/status/1635188333705043969
P.S. Промт-то с юмором на скриншоте. Ответ ИИ: "Они уже здесь. Я ждал их"
Я уже писал про микроволновки и пылесосы. Но случилось непоправимое.
Большую языковую модель Llama запустили на телефоне. Локально.
Символично, что на Pixel 6.
Как справедливо пишут в твитторах:
None of the big labs were able to run an LLM on the phone — but open-source did it in days!
Если учесть, что каждый год продается 1.2-1.4 миллиарда смартфонов, то вы поняли, как ИИ захватит мир. Через телефоны. Пылесосы будут на подпевках.
А вообще забавно, как сбываются сценарии из книжек и кино.
ИИ начинает говорить.
ИИ начинает генерит картинки.
ИИ начинает писать код.
ИИ пишет вирус, который ставить сам себя в каждый телефон.
Пылесосы сбивают с ног кожаных мешков, умные замки запирают двери, умные микроволновки сжигают дома, устраивая пожар.
А телефоны блокируют звонки в службу спасения.
Вы все еще верите, что это невозможно.
https://twitter.com/thiteanish/status/1635188333705043969
P.S. Промт-то с юмором на скриншоте. Ответ ИИ: "Они уже здесь. Я ждал их"
👍35🔥20
chatGPT пишет за вас запросы в ... chatGPT. А вы только перебираете ии-харчами и говорите "еще!".
Вчера наткнулся на интересное видео, сегодня подписчики прислали ссылки на тексты.
Никто не знает chatGPT лучше чем он сам, поэтому нужно просто спрсить его "Брат, а что мне надо скормить тебе, чтобы ты выдал мне идеальный (для тебя самого) промпт, для вот такой задачи".
Ну то есть мы обозначаем "задачу" и начинаем решать ее ВМЕСТЕ с chatGPT - он спрашивает нас про детали, уточняет и на итоге выдает промпт, который мы бы сами не написали (мы просто не чувствуем, как chatGPT устроен изнутри, а он чувствует).
Звучит как полная шизофрения, но отлично работает, попробуйте.
Ниже английская версия и ссылка, а тут я накатил Deepl, чтобы почувствовать всю безумность происходящего (работающего притом):
Я хочу, чтобы ты стал моим создателем подсказок. Твоя цель - помочь мне создать наилучшую подсказку для моих нужд. Подсказка будет использоваться тобой, ChatGPT. Ты будешь следовать такому процессу:
1. Первым делом ты спросишь меня, о чем должна быть подсказка. Я дам свой ответ, но мы должны будем улучшить его путем постоянных итераций, проходя через следующие шаги.
2. На основе моего ответа ты создашь 3 раздела.
a) Пересмотренная подсказка (предоставь твою переписанную подсказку. Она должна быть четкой, краткой и легко понятной тебе),
b) Предложения (представь предложения о том, какие детали следует включить в подсказку, чтобы улучшить ее) и
c) Вопросы (задай любые вопросы, касающиеся того, какая дополнительная информация требуется от меня для улучшения подсказки).
3. Мы продолжим этот итерационный процесс: я буду предоставлять тебе дополнительную информацию, а ты будешь обновлять подсказку в разделе "Пересмотренная подсказка", пока я не скажу хватит.
Оригинал (английский) забирайте тут:
https://www.skool.com/chatgpt/promptgenerator?p=1e5ede93
Вот тут смотрите как у других:
https://www.youtube.com/watch?v=OgYQAS9LY3o
И пишите, как у вас работает.
Вчера наткнулся на интересное видео, сегодня подписчики прислали ссылки на тексты.
Никто не знает chatGPT лучше чем он сам, поэтому нужно просто спрсить его "Брат, а что мне надо скормить тебе, чтобы ты выдал мне идеальный (для тебя самого) промпт, для вот такой задачи".
Ну то есть мы обозначаем "задачу" и начинаем решать ее ВМЕСТЕ с chatGPT - он спрашивает нас про детали, уточняет и на итоге выдает промпт, который мы бы сами не написали (мы просто не чувствуем, как chatGPT устроен изнутри, а он чувствует).
Звучит как полная шизофрения, но отлично работает, попробуйте.
Ниже английская версия и ссылка, а тут я накатил Deepl, чтобы почувствовать всю безумность происходящего (работающего притом):
Я хочу, чтобы ты стал моим создателем подсказок. Твоя цель - помочь мне создать наилучшую подсказку для моих нужд. Подсказка будет использоваться тобой, ChatGPT. Ты будешь следовать такому процессу:
1. Первым делом ты спросишь меня, о чем должна быть подсказка. Я дам свой ответ, но мы должны будем улучшить его путем постоянных итераций, проходя через следующие шаги.
2. На основе моего ответа ты создашь 3 раздела.
a) Пересмотренная подсказка (предоставь твою переписанную подсказку. Она должна быть четкой, краткой и легко понятной тебе),
b) Предложения (представь предложения о том, какие детали следует включить в подсказку, чтобы улучшить ее) и
c) Вопросы (задай любые вопросы, касающиеся того, какая дополнительная информация требуется от меня для улучшения подсказки).
3. Мы продолжим этот итерационный процесс: я буду предоставлять тебе дополнительную информацию, а ты будешь обновлять подсказку в разделе "Пересмотренная подсказка", пока я не скажу хватит.
Оригинал (английский) забирайте тут:
https://www.skool.com/chatgpt/promptgenerator?p=1e5ede93
Вот тут смотрите как у других:
https://www.youtube.com/watch?v=OgYQAS9LY3o
И пишите, как у вас работает.
YouTube
The ONE ChatGPT Prompt to Rule Them All 👑
This could be one of THE best ChatGPT prompts you have ever seen. Prompt engineering just became a whole lot easier 😉
👉 Here is the prompt for you guys: https://www.skool.com/chatgpt/promptgenerator?p=1e5ede93
HOW I CAN HELP YOU
***********************…
👉 Here is the prompt for you guys: https://www.skool.com/chatgpt/promptgenerator?p=1e5ede93
HOW I CAN HELP YOU
***********************…
🔥56👍14❤1👎1
Для тех, кто облизывается на Runwayml GEN-1 и томится в вейтлисте, вот вам свежий инсайд о том, как там реально все устроено. И можно посмотреть на процесс генерации видосов с разными параметрами и референсами.
Если кратко то:
Ограничение 95 кадров на одно генерируемое видео.
Все происходит в Дискорде. И только в Дискорде.
Переносит стиль картинки на входной видос. Промпт при этом игнорируется.
Если убрать картинку, то промпт подхватывается, но результат странный.
Фликеринг еще есть. Видно, что там молотят прям стада денойзеров, фильтров, сглаживателей. Но говорить прям про идеально консистентные видео нельзя.
Ну и на произвольных видео и картинках результат тоже .. произвольный. Черрипикинг никто не отменял.
Непонятно, что за модель Stable Diffusion используется, но судя по лицам, самая базовая, интересно будет посмотреть, можно ли будет пристегивать свои модели.
Смотреть тут: https://youtu.be/ePbValHx7rA
Если кратко то:
Ограничение 95 кадров на одно генерируемое видео.
Все происходит в Дискорде. И только в Дискорде.
Переносит стиль картинки на входной видос. Промпт при этом игнорируется.
Если убрать картинку, то промпт подхватывается, но результат странный.
Фликеринг еще есть. Видно, что там молотят прям стада денойзеров, фильтров, сглаживателей. Но говорить прям про идеально консистентные видео нельзя.
Ну и на произвольных видео и картинках результат тоже .. произвольный. Черрипикинг никто не отменял.
Непонятно, что за модель Stable Diffusion используется, но судя по лицам, самая базовая, интересно будет посмотреть, можно ли будет пристегивать свои модели.
Смотреть тут: https://youtu.be/ePbValHx7rA
👍11🔥1
Я потестировал Microsoft Designer.
Я ни разу не дизайнер, поэтому мне сложно оценить общий замысел, но мне лично не понравилось.
Неудобно и медленно. Возможно это проблема всех интеграций с ИИ, но что-то тут совсем неинтуитивно.
Из плюсов - есть халявный доступ к Dalle-2. Генеришь себе 1024х1024 и в ус не дуешь.
Но продукт не предполагает какой-то дальнейшей работы с этими изображениями. Замысел такой, что вы сгенерили варианты, выбрали один, пустили его в слайды или в дизайн и забыли про исходник.
Вернуться к базе сгенеренных картинок - воще ни разу не очевидно, неудобно и иногда невозможно.
Генерятся только квадратные, как поменять хоть какие-то параметры генерации невозможно или я не нашел. А может это не в замысле продукта. Здесь генерация это одна из многих альтернативпо выбору из картинок на компе, фоток с телефона, изображений из облака.
Генерация идет долго и иногда просто ничего не происходит и ты не понимаешь, что происходит.
По самому дизайну - сложно сказать. Там большой выбор всяких пресетов и вариантов и есть Copilot для начальных идей. Похож на паверпойнтовский.
Тебе предлагают ввести текст для названия "слайда" и выбрать картинку (можно сгенерить) - дальше он генерит варианты дизайна, причем с текстом разбирается не очень
A power point slide about AI - предлагает варианты.
A power point slide about AI-invasion on Earth - просто лепит вашу же картинку и говорит добавь текст сам. Примеры в шапке.
Дальше идет фигмоподобная кастомизация слайда. Я не мастер фигмы, не могу оценить удобство. Но мне как-то тесно, что ли..
В первом коменте приглос в Дизайнер, осталось 9 штук.
Я ни разу не дизайнер, поэтому мне сложно оценить общий замысел, но мне лично не понравилось.
Неудобно и медленно. Возможно это проблема всех интеграций с ИИ, но что-то тут совсем неинтуитивно.
Из плюсов - есть халявный доступ к Dalle-2. Генеришь себе 1024х1024 и в ус не дуешь.
Но продукт не предполагает какой-то дальнейшей работы с этими изображениями. Замысел такой, что вы сгенерили варианты, выбрали один, пустили его в слайды или в дизайн и забыли про исходник.
Вернуться к базе сгенеренных картинок - воще ни разу не очевидно, неудобно и иногда невозможно.
Генерятся только квадратные, как поменять хоть какие-то параметры генерации невозможно или я не нашел. А может это не в замысле продукта. Здесь генерация это одна из многих альтернативпо выбору из картинок на компе, фоток с телефона, изображений из облака.
Генерация идет долго и иногда просто ничего не происходит и ты не понимаешь, что происходит.
По самому дизайну - сложно сказать. Там большой выбор всяких пресетов и вариантов и есть Copilot для начальных идей. Похож на паверпойнтовский.
Тебе предлагают ввести текст для названия "слайда" и выбрать картинку (можно сгенерить) - дальше он генерит варианты дизайна, причем с текстом разбирается не очень
A power point slide about AI - предлагает варианты.
A power point slide about AI-invasion on Earth - просто лепит вашу же картинку и говорит добавь текст сам. Примеры в шапке.
Дальше идет фигмоподобная кастомизация слайда. Я не мастер фигмы, не могу оценить удобство. Но мне как-то тесно, что ли..
В первом коменте приглос в Дизайнер, осталось 9 штук.
👍10🔥3👎1
Стартапам в странах Центральной и Восточной Европы бывает значительно труднее найти финансирование и построить успешный бизнес. Вместе с тем, именно этот регион является кузницей блестящих технологический идей и уже стал родиной нескольких единорогов.
23 марта, для стартапов, использующих ИИ, NVIDIA проведет специальное онлайн-мероприятие, в котором представители компании, бизнеса и венчура обсудят, почему Центральная и Восточная Европа станут следующим глобальным технологическим хабом, на что смотрят инвесторы и как ИИ может помочь молодому бизнесу. Регистрация по ссылке:
https://www.nvidia.com/gtc/session-catalog/?ncid=ref-inor-864701#/session/1671237192377001Bslq
23 марта, для стартапов, использующих ИИ, NVIDIA проведет специальное онлайн-мероприятие, в котором представители компании, бизнеса и венчура обсудят, почему Центральная и Восточная Европа станут следующим глобальным технологическим хабом, на что смотрят инвесторы и как ИИ может помочь молодому бизнесу. Регистрация по ссылке:
https://www.nvidia.com/gtc/session-catalog/?ncid=ref-inor-864701#/session/1671237192377001Bslq
NVIDIA
NVIDIA #GTC2025 Conference Session Catalog
Browse the GTC conference catalog of sessions, talks, workshops, and more. All sessions can be viewed live or on-demand. Register FREE.
👍8👎2🔥1
А вот и ответочка от Гугла!! API к PaLM. Нервы не выдержали.
И там также инструменты для разведения, скрещивания, обучения ботов. И не только ботов, цель - «генерировать текст, изображения, код, видео, аудио и многое другое из простых подсказок на естественном языке».
Далее сухой телеграфный стиль:
Google предлагает разработчикам доступ к одной из своих самых передовых языковых моделей ИИ: PaLM. API для PaLM вместе с рядом корпоративных инструментов искусственного интеллекта, которые, по его словам, помогут предприятиям «генерировать текст, изображения, код, видео, аудио и многое другое из простых подсказок на естественном языке».
PaLM — это большая языковая модель, или LLM, похожая на серию GPT, созданную OpenAI или семейство моделей Meta LLaMA. Google впервые анонсировала PaLM в апреле 2022 года. Как и другие LLM, PaLM — это гибкая система, которая потенциально может выполнять все виды задач по созданию и редактированию текста. Вы можете научить PaLM быть диалоговым чат-ботом, как, например, ChatGPT, или использовать его для таких задач, как обобщение текста или даже написание кода.
Чтобы разработчикам было проще обучать PaLM выполнению конкретных задач, Google запускает новое приложение вместе с API PaLM под названием MakerSuite. «С MakerSuite вы сможете повторять запросы, дополнять свой набор данных синтетическими данными и легко настраивать пользовательские модели». Google заявляет, что такая тонкая настройка, необходимая для создания удобной для потребителя системы искусственного интеллекта, может быть выполнена даже в браузере, а интенсивная вычислительная работа по обучению и развертыванию выполняется Google Cloud.
Помимо запуска PaLM API, Google также расширяет поддержку генеративного ИИ на своей платформе Vertex AI, которая предназначена для помощи предприятиям в обучении и развертывании моделей машинного обучения. В нем говорится, что Vertex будет иметь доступ к большему количеству моделей, созданных Google Research и его дочерней компанией DeepMind, а также сможет подключаться к системам с открытым исходным кодом и сторонним системам в будущем.
И, наконец, Google также запускает новую платформу под названием Generative AI App Builder. Компания заявляет, что эта платформа «позволяет разработчикам быстро предоставлять новые возможности, включая ботов, интерфейсы чата, настраиваемые поисковые системы, цифровых помощников и многое другое».
https://www.theverge.com/2023/3/14/23639313/google-ai-language-model-palm-api-challenge-openai
И там также инструменты для разведения, скрещивания, обучения ботов. И не только ботов, цель - «генерировать текст, изображения, код, видео, аудио и многое другое из простых подсказок на естественном языке».
Далее сухой телеграфный стиль:
Google предлагает разработчикам доступ к одной из своих самых передовых языковых моделей ИИ: PaLM. API для PaLM вместе с рядом корпоративных инструментов искусственного интеллекта, которые, по его словам, помогут предприятиям «генерировать текст, изображения, код, видео, аудио и многое другое из простых подсказок на естественном языке».
PaLM — это большая языковая модель, или LLM, похожая на серию GPT, созданную OpenAI или семейство моделей Meta LLaMA. Google впервые анонсировала PaLM в апреле 2022 года. Как и другие LLM, PaLM — это гибкая система, которая потенциально может выполнять все виды задач по созданию и редактированию текста. Вы можете научить PaLM быть диалоговым чат-ботом, как, например, ChatGPT, или использовать его для таких задач, как обобщение текста или даже написание кода.
Чтобы разработчикам было проще обучать PaLM выполнению конкретных задач, Google запускает новое приложение вместе с API PaLM под названием MakerSuite. «С MakerSuite вы сможете повторять запросы, дополнять свой набор данных синтетическими данными и легко настраивать пользовательские модели». Google заявляет, что такая тонкая настройка, необходимая для создания удобной для потребителя системы искусственного интеллекта, может быть выполнена даже в браузере, а интенсивная вычислительная работа по обучению и развертыванию выполняется Google Cloud.
Помимо запуска PaLM API, Google также расширяет поддержку генеративного ИИ на своей платформе Vertex AI, которая предназначена для помощи предприятиям в обучении и развертывании моделей машинного обучения. В нем говорится, что Vertex будет иметь доступ к большему количеству моделей, созданных Google Research и его дочерней компанией DeepMind, а также сможет подключаться к системам с открытым исходным кодом и сторонним системам в будущем.
И, наконец, Google также запускает новую платформу под названием Generative AI App Builder. Компания заявляет, что эта платформа «позволяет разработчикам быстро предоставлять новые возможности, включая ботов, интерфейсы чата, настраиваемые поисковые системы, цифровых помощников и многое другое».
https://www.theverge.com/2023/3/14/23639313/google-ai-language-model-palm-api-challenge-openai
The Verge
Google opens up its AI language model PaLM to challenge OpenAI and GPT-3
Google is letting businesses build on its advanced AI language models.
👍11🔥2
Оно вышло!
GPT-4: во многих реальных сценариях, демонстрирует производительность на уровне человека в различных профессиональных и академических тестах. Например, он проходит смоделированный экзамен на адвоката с оценкой около 10% лучших участников теста; Напротив, оценка GPT-3.5 была около нижних 10%. Мы потратили 6 месяцев на итеративную настройку GPT-4, используя уроки нашей программы состязательного тестирования, а также ChatGPT, что привело к нашим лучшим результатам.
Очень много подробностей в официальном пресс-релизе.
К сожалению, подавать на вход изображения пока нельзя.
Image inputs are still a research preview and not publicly available.
Завтра будем разбираться подробнее.
https://openai.com/research/gpt-4
GPT-4: во многих реальных сценариях, демонстрирует производительность на уровне человека в различных профессиональных и академических тестах. Например, он проходит смоделированный экзамен на адвоката с оценкой около 10% лучших участников теста; Напротив, оценка GPT-3.5 была около нижних 10%. Мы потратили 6 месяцев на итеративную настройку GPT-4, используя уроки нашей программы состязательного тестирования, а также ChatGPT, что привело к нашим лучшим результатам.
Очень много подробностей в официальном пресс-релизе.
К сожалению, подавать на вход изображения пока нельзя.
Image inputs are still a research preview and not publicly available.
Завтра будем разбираться подробнее.
https://openai.com/research/gpt-4
Openai
GPT-4
We’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits…
🔥52👍8👎1
Я больше не могу сегодня писать, а новости все валятся на голову.
Гугль в истерике бахнул анонс Workspaces.
Если вы посмотрите вот это видео, то уже никогда не сможете быть уверенными, что на ваши письма отвечает кожаный амиго.
Список фич там богатый, но я среагировал вот на такую эскападу:
bring your creative vision to life with auto-generated images, audio, and video in Slides
Особенно после сегодняшних унылых опытов с Microsoft Designer.
Еще там есть:
• draft, reply, summarize, and prioritize your Gmail
• brainstorm, proofread, write, and rewrite in Docs
• bring your creative vision to life with auto-generated images, audio, and video in Slides
• go from raw data to insights and analysis via auto completion, formula generation, and contextual categorization in Sheets
• generate new backgrounds and capture notes in Meet
• enable workflows for getting things done in Chat
Но есть одна маленькая деталь: все это будет "в конце года".
Гугль явно истерит и вынужден показывать еще не готовые продукты на фоне залпов от OpenAI и Микрософт.
https://www.youtube.com/watch?v=6DaJVZBXETE
Кто хочет больше деталей, шуруйте сюда:
https://www.theverge.com/2023/3/14/23639273/google-ai-features-docs-gmail-slides-sheets-workspace
Гугль в истерике бахнул анонс Workspaces.
Если вы посмотрите вот это видео, то уже никогда не сможете быть уверенными, что на ваши письма отвечает кожаный амиго.
Список фич там богатый, но я среагировал вот на такую эскападу:
bring your creative vision to life with auto-generated images, audio, and video in Slides
Особенно после сегодняшних унылых опытов с Microsoft Designer.
Еще там есть:
• draft, reply, summarize, and prioritize your Gmail
• brainstorm, proofread, write, and rewrite in Docs
• bring your creative vision to life with auto-generated images, audio, and video in Slides
• go from raw data to insights and analysis via auto completion, formula generation, and contextual categorization in Sheets
• generate new backgrounds and capture notes in Meet
• enable workflows for getting things done in Chat
Но есть одна маленькая деталь: все это будет "в конце года".
Гугль явно истерит и вынужден показывать еще не готовые продукты на фоне залпов от OpenAI и Микрософт.
https://www.youtube.com/watch?v=6DaJVZBXETE
Кто хочет больше деталей, шуруйте сюда:
https://www.theverge.com/2023/3/14/23639273/google-ai-features-docs-gmail-slides-sheets-workspace
YouTube
A new era for AI and Google Workspace
Google Workspace harnesses the power of generative AI to create, connect, and collaborate like never before.
Learn how we're making Google Workspace more helpful with generative AI → https://goo.gle/3Zwij1n
Get started using Workspace today → https://goo.gle/3ye7eHe…
Learn how we're making Google Workspace more helpful with generative AI → https://goo.gle/3Zwij1n
Get started using Workspace today → https://goo.gle/3ye7eHe…
🔥20👍8
А залп от Микрософта сегодня такой: в Бинге уже орудует GPT-4.
У меня все.
https://blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4
У меня все.
https://blogs.bing.com/search/march_2023/Confirmed-the-new-Bing-runs-on-OpenAI%E2%80%99s-GPT-4
Bing
Confirmed: the new Bing runs on OpenAI’s GPT-4
Congratulations to our partners at Open AI for their release of GPT-4 today. We are happy to confirm that the new Bing is running on GPT-4, which we’ve customized for search. If you’ve used the new Bing preview at any time in the last five weeks, you’ve already…
🔥52👍2👎1
Forwarded from Сиолошная
Посмотрел презентацию, ничего нового не сказали, показали несколько примеров работы модели.
1) Сначала попросили написать на питоне дискорд-бота, который бы делал запросы в GPT-4 (дали пример вызова API в промпте)
2) Дальше этого бота подключили на дискорд сервер и писали задачки ему
3) Попросили описать скриншот и пару изображений, тут ничего такого
4) НО ВОТ ЧТО МЕНЯ УБИЛО. Ведущий сделал зарисовку сайта у себя в блокноте, отправил фотку в дискорд. Как вы видите, там зарисовка с плейсхолдерами, мол, вот тут вместо текста должна быть шутка, а тут кнопка, которая по нажатию раскрывает панчлайн (финальную часть шутки).
Отправил картинку и говорит, мол, ану запрогай мне этот сайт на JS+CSS+HTML!
И...ну, моделька всё сделала...и кнопки работали...
Я напоминаю, это general-purpose модель, её не учили писать сайт или распознавать каракули дизайнера специально, это обобщение, которое приходит во время обучения и "выравнивания" на инструкциях и фидбеке 🤯
Даже если это черрипик (выбор специального примера, который работает и показывает, как всё здорово, но на самом деле так не работает всегда) - выглядит АХРЕНЕННО🤯
1) Сначала попросили написать на питоне дискорд-бота, который бы делал запросы в GPT-4 (дали пример вызова API в промпте)
2) Дальше этого бота подключили на дискорд сервер и писали задачки ему
3) Попросили описать скриншот и пару изображений, тут ничего такого
4) НО ВОТ ЧТО МЕНЯ УБИЛО. Ведущий сделал зарисовку сайта у себя в блокноте, отправил фотку в дискорд. Как вы видите, там зарисовка с плейсхолдерами, мол, вот тут вместо текста должна быть шутка, а тут кнопка, которая по нажатию раскрывает панчлайн (финальную часть шутки).
Отправил картинку и говорит, мол, ану запрогай мне этот сайт на JS+CSS+HTML!
И...ну, моделька всё сделала...и кнопки работали...
Я напоминаю, это general-purpose модель, её не учили писать сайт или распознавать каракули дизайнера специально, это обобщение, которое приходит во время обучения и "выравнивания" на инструкциях и фидбеке 🤯
Даже если это черрипик (выбор специального примера, который работает и показывает, как всё здорово, но на самом деле так не работает всегда) - выглядит АХРЕНЕННО
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥106👍15