Forwarded from Ai molodca (Dobrokotov)
This media is not supported in your browser
VIEW IN TELEGRAM
Будет висеть недолго, поэтому кто на местности, жду ваших фоточек — Красноармейская 84.
Из нейросетей здесь — только изображение на щите и слоган.
Из нейросетей здесь — только изображение на щите и слоган.
🔥13😁5👍3❤1
Media is too big
VIEW IN TELEGRAM
jimLeeDCComicsMarvel_offset lora + face controlnet
coming in v0.11
#stablediffusion #warpfusion
Vid by @Frau_haku
coming in v0.11
#stablediffusion #warpfusion
Vid by @Frau_haku
🔥13
Forwarded from Stable Diffusion | Text2img
ControlNet версии 1.1 - предварительный релиз.
Товарищ lllyasviel продолжает докручивать свой великолепнейший алгоритм по контролю над SD. Поставить его можно уже сейчас, но только отдельным интерфейсом отсюда. Сам релиз и его имплементация к автоматику планируется в ближайшие несколько дней.
Итак, по новшествам.
— Итого, теперь будет 14 моделей (11 готовы, две экспериментальных и 1 в процессе).
— Естественно, все старые модели ещё больше улучшены.
— Новые модельки: Soft Edge (наподобие Scribble, но более "мягкий" в линиях), Lineart и Аниме Lineart (раскрашивать мангу/рисунки теперь можно будет на высшем уровне), Shuffle (перемешивает цвета в картинке), Instruct Pix2Pix (аналогично весам инструкций), а так же Инпаинтая модель (для перерисовки части рисунка контролнета) и незавершённая Tile-модель (повышение разрешения части рисунка).
— Модель ОпенПоз теперь включает руки и лицо по умолчанию, из коробки.
Товарищ lllyasviel продолжает докручивать свой великолепнейший алгоритм по контролю над SD. Поставить его можно уже сейчас, но только отдельным интерфейсом отсюда. Сам релиз и его имплементация к автоматику планируется в ближайшие несколько дней.
Итак, по новшествам.
— Итого, теперь будет 14 моделей (11 готовы, две экспериментальных и 1 в процессе).
— Естественно, все старые модели ещё больше улучшены.
— Новые модельки: Soft Edge (наподобие Scribble, но более "мягкий" в линиях), Lineart и Аниме Lineart (раскрашивать мангу/рисунки теперь можно будет на высшем уровне), Shuffle (перемешивает цвета в картинке), Instruct Pix2Pix (аналогично весам инструкций), а так же Инпаинтая модель (для перерисовки части рисунка контролнета) и незавершённая Tile-модель (повышение разрешения части рисунка).
— Модель ОпенПоз теперь включает руки и лицо по умолчанию, из коробки.
🔥18❤2👍1
Forwarded from эйай ньюз
🚀Dolly 2.0 – первая открытая 12B Chat-LLM, которую можно использовать в коммерческих продуктах
Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).
В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.
Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!
Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже зарелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?
Умельцы уже кванитизовали Dolly 2.0 в 4 бита и ускорлили для запуска на CPU. Теперь ждём шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.
*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.
Блогпост про Dolly 2.0
@ai_newz
Databricks удивили! Ребята заметили, что все опен-соурсные ChatGPT-клоны либо используют LLaMA, в которой некоммерческая лицензия, либо используют данные, которые запрещают коммерческое использование (как например датасет инструкций от Alpaca, сгенерированный с помощью GPT-3).
В чем преимущество OpenAI перед опен-суорсом, если не брать в расчет размер GPU кластера? В данных. Чтобы дообучить ChatGPT было собрано много качественных диалогов и иструкций от реальных людей, ну, и плюс RL from Human Feedback (RLHF), где люди оценивали ответы языковой модели.
Было решено собрать свой датасет. В Databricks работает ≈5000 человек, их всех и попросили написать вручную несколько семплов для обучения клона ChatGPT. Нужно было составить качественные пары Вопрос-Ответ, либо Инструкция-Ответ, на которых можно было бы добучить опенсоурсную авторегрессионную LLM, которая умеет просто продолжать текст, а не вести диалог. В итоге с помощью пряников в виде бонусов за написание лучших примеров, было собран высококачественный датасет на 15000 семплов!
Далее, они взяли свежу языковую модель Pythia-12B от EleutherAI с MIT лицензией и дообучили на своем датасете, получив Dolly 2.0* которую тоже зарелизили под MIT лицензией вместе с кодом и весами. Разве не прелесть?
generatetext = pipeline(model="databricks/dolly-v2-12b", torchdtype=torch.bfloat16, trustremotecode=True, devicemap="auto")
generatetext("Who is Shcmidhuber?")
Умельцы уже кванитизовали Dolly 2.0 в 4 бита и ускорлили для запуска на CPU. Теперь ждём шага от OpenAssistant, которые по слухам зарелизят свою модел в ближайшие дни.
*Dolly 1.0 была обучена на тех же инструкциях, что и Alpaca.
Блогпост про Dolly 2.0
@ai_newz
🎉13👍2🔥2
Forwarded from r/ретранслятор
Midjourney показала, как выглядит сбор урожая в Италии.
В принципе, мы его так и представляли
r/#midjourney
В принципе, мы его так и представляли
r/#midjourney
😁85